Sociedad
Los bonobos, qué máquinas
¿Por qué podemos pensar que una máquina puede ser mejor que nosotros? ¿Por qué nos sorprende, por otro lado, cuando una máquina puede llegar a hacer cosas de humanos? Más reflexiones sobre la IA.
Historias humanas sobre la IA. Consigue el número de La Marea en papel o digital en nuestro kiosco.
Qué máquina eres, se suele decir a una persona cuando hace algo fuera de lo normal. Esto va como una máquina, es otra expresión con la que los humanos solemos destacar las cosas maravillosas que pueden hacer los mismos humanos. ¿Por qué podemos pensar que una máquina puede ser mejor que nosotros? ¿Por qué nos sorprende, por otro lado, cuando una máquina puede llegar a hacer cosas de humanos? No hace falta ni siquiera que pensemos en una máquina. Pensemos en los animales.
Un ejemplo. Un estudio de la Universidad Johns Hopkins (EEUU) ha mostrado recientemente cómo los bonobos pueden reconocer la ignorancia de los demás. Es decir, cuando el mono ve que el investigador le pone una uva debajo de un vaso y ve, además, que el investigador ayudante lo ha visto, coge la uva de debajo del vaso para comérsela. Pero cuando la operación se produce sin que el investigador ayudante lo vea, el mono hace señales al hombre para decirle que la uva está debajo. Ni siquiera a eso llega la máquina, a la que se presupone que no tiene conciencia, sea lo que sea la conciencia.
«Elevar la inteligencia artificial a categoría humana demuestra la poca capacidad de superación propia a la que nos estamos enfrentando individual y colectivamente». Así de rotundo se expresa el lector Manuel Fernández. Solo hay que echar un vistazo a las portadas de los periódicos para entender de lo que habla, para mostrar el mundo deshumanizado en el que estamos viviendo.
Para Manuel Fernández, la inteligencia artificial es, en sí misma, una falacia o, más claro, una mentira, «en tanto en cuanto la inteligencia es la capacidad que tenemos los animales para aprender, también mediante la experiencia, sobre la resolución de problemas inherentes al desarrollo de la propia vida». «En consecuencia», afirma, «lo artificial no puede ser nunca inteligencia y sería una técnica mecánica que utilizamos los humanos para que nos ayude a resolver cuestiones complejas que, sin esos medios mecánicos y electrónicos, tardaríamos más tiempo en resolver».
A María Nieto, consultora, le preocupa igualmente estar «enseñando y alimentando a la bestia», como la denomina: «En el futuro se irá depurando y nos sustituirá, tendremos que evolucionar para seguir aportando valor», concluye. Maite tampoco quiere usar la IA, pero tampoco quiere que la IA la use a ella.
Sobre estas consideraciones reflexiona también Javier Fernández Panadero, físico, divulgador y profesor de Secundaria, que remite a una charla titulada La IA y tú que ofreció en el Parque Científico de la Universidad de Valladolid, en el espacio Naukas. Entre otros muchos aspectos, desarrolló lo que él llama «el teorema de la conservación de la ignorancia». Justo lo contrario del principio de cooperación de los bonobos. «Yo tengo un problema que no sé resolver. Pues construyo una máquina que lo resuelve. No sé cómo funciona la máquina, pero me resuelve el problema, ¿no? Esto es un poco simplificar lo que ocurre. Pero podemos llegar a escenarios donde te digan: ‘pues mire usted, no le voy a dar el crédito. No sé por qué, pero me lo ha dicho la máquina’; ‘no hay problema con su tumor, no sé por qué, pero me lo ha dicho la máquina’».
En el primer caso, explica él, tenemos un problema de garantía de derechos basado en los sesgos; y en el segundo supuesto también. «¿Le doy de comer a la máquina los resultados que siga generando? Porque a lo mejor confirmo sus sesgos. Porque es que tiene sesgos, la gente que lo supervisa tiene sesgos. Y nos contaba la investigadora Elena Matute que los propios humanos que quieren supervisar a la máquina confían tanto en ella que casi le dan la razón». Él propone para ello la auditoría pública: «Me publicas los datos, el algoritmo y el resultado del entrenamiento». Pero claro, para eso, tendríamos que ser como los chimpancés.
EL PADRE DE LA INTELIGENCIA ARTIFICIAL DICE: HEMOS PERDIDO EL CONTROL (vídeo)
… Geoffrey Hinton es una figura central en la historia de la IA. Nacido en 1947 y galardonado con el Premio Turing en 2018 junto a Yoshua Bengio y Yann LeCun, es responsable de avances clave como el algoritmo de retropropagación y las redes neuronales profundas. Durante décadas, su trabajo inspiró la creación de sistemas capaces de aprender patrones complejos, desde la visión artificial hasta los modelos de lenguaje.
Sin embargo, en 2023 Hinton abandonó su puesto en Google Brain para poder expresar libremente sus temores sobre el rumbo que estaba tomando la inteligencia artificial. «Ahora que estas cosas pueden volverse más inteligentes que nosotros, puede que se salgan de control…», declaró en una entrevista con The New York Times. En otro medio, The Guardian, fue aún más directo: «Estoy más preocupado de lo que estaba antes. Pensaba que faltaban entre 30 y 50 años para una IA general. Ahora creo que podrían ser 5 o 10?.
Los riesgos inmediatos de la inteligencia artificial:
Desplazamiento laboral. ¿Desempleo para todos? – Manipulación de la información y polarización – Ciberataques y armas autónomas – Bioterrorismo asistido por IA – La posibilidad de una superinteligencia no alineada – Engaño estratégico y mesa-optimización – Pérdida de control y explosión de inteligencia -.
Propuestas para una mitigación responsable:
– Investigación en alineación y seguridad – Gobernanza global mundial y regulación – Educación y transición laboral –
Conclusión: un tiempo para decidir
La inteligencia artificial es, simultáneamente, una promesa y una advertencia. Sus aplicaciones médicas, científicas y comunicativas pueden mejorar la vida humana de manera asombrosa, pero sus riesgos son catastróficos.
Geoffrey Hinton ha señalado que «el cachorro de tigre ya está creciendo», en alusión al poder descontrolado que puede adquirir la IA si no se domestica con sabiduría. Las voces que están en su misma línea —Russell, Bengio, Tegmark, Yudkowsky, Marcus— no piden detener el progreso, sino reconducirlo hacia un futuro en el que la inteligencia artificial sea compatible con la vida humana y sus valores. El debate está abierto y está por ver si ello es posible…
Como dice Stuart Russell: «…no estamos diseñando máquinas inteligentes. Estamos diseñando problemas inteligentes. Y el problema somos nosotros».
(«Los peligros de la inteligencia artificial», Joan Martí, LoQueSomos)