En 2014, Nick Bostrom, filósofo sueco y profesor de la Universidad de Oxford, explicó con un experimento sencillo lo que pasaría si a una Inteligencia Artificial -IA- se le diera la tarea de fabricar y maximizar la producción de clips -para sujetar papeles-. El resultado sería que mataría personas para usarlas como un recurso más y transformarlas en clips. Pero, si se le diera la instrucción de no matar personas, podría matar árboles, bajo el supuesto de que es lo correcto.

Yejin Choi, experta en sistemas computacionales y profesora de la Universidad de Washington, dice que habría muchas cosas que no debería hacer la IA para maximizar la producción de clips: no difundir noticias falsas, no robar y no mentir, todas relacionadas con el sentido común en nuestra comprensión de cómo funciona el mundo. Uno de los desafíos más importantes para la IA, desde hace varias décadas, es el del sentido común.

¿Qué es el sentido común? Según Descartes, el sentido común era la cualidad mejor repartida en el mundo, que permitía a todos tener claro qué era lo correcto, lo aceptable y lo irracional. Años después, Voltaire dijo que el sentido común era el menos común de los sentidos; refiriéndose a que no siempre se da o se percibe de la misma manera lo que es lógico o esperable en cada situación. Lo más curioso es que cada vez parece más difícil que, como humanidad, apliquemos el sentido común a los pequeños y grandes problemas que nos plantea el mundo de hoy.

¿Qué es la IA? Podríamos decir que es una disciplina que existe desde los años 50, cuyo objetivo es darle a la máquina capacidades cognitivas semejantes a las de la inteligencia humana. Según el nivel de competencia, grado de desarrollo, hay tres tipos de IA: 

1. Específica: una máquina entrenada para hacer una sola tarea; p. ej. jugar ajedrez. 

2. General: una IA que tendría el mismo nivel que la inteligencia humana; esta sería la mayor aspiración de la IA, pero, como dicen los expertos, estamos muy lejos de estar ahí. 

3. Superinteligencia: una inteligencia superior a la nuestra. Pero, como dice Cristina Aranda, doctora en lingüística de la Universidad Autónoma de Madrid: “tranquilicémonos que la IA nunca va a superar a la estupidez humana, que es ilimitada”; las máquinas no son tan creativas como los seres humanos y la tecnología se nutre de datos, de lo ya creado.

¿Cómo hacer que la IA sea sostenible y humanista? Es la pregunta que se hacen hoy algunos expertos. Para ilustrar este tema, Yehin Choi acude a la historia de David y Goliat y dice que la IA es como Goliat, literalmente inmensa; sin embargo, comete errores pequeños y tontos que no se pueden corregir fácilmente. Los mayores desafíos de la IA, desde el punto de vista social, están relacionados con el costo de los modelos que muy pocas empresas pueden asumir, generando concentración de poder y problemas de seguridad; la huella de carbono y el impacto ambiental que hoy son muy grandes; los cuestionamientos de tipo intelectual alrededor de la seguridad para la humanidad cuando carece de un sentido común sólido.

La conclusión de quienes pretenden una IA sostenible y humanista es que hay que entrenarla en sentido común, ética y valores. Me pregunto si es algo fácil, cuando como humanidad nos está quedando grande encontrar caminos para avanzar en un desarrollo sostenible que tenga en cuenta la importancia de estar conectados con nosotros, con el otro y con el entorno. Tal vez el mayor reto sea poner a la tecnología en el sitio que le corresponde, como una herramienta valiosa al servicio de una humanidad que clama por su dignidad.