lamarea.com
  • La Marea
  • Kiosco
  • Climática
DONA SUSCRÍBETE
SUSCRÍBETE
Iniciar sesión
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
ANTERIOR

Los bonobos, qué máquinas

SIGUIENTE
Si buscas periodismo en profundidad, suscríbete a nuestra revista bimestral desde 17 euros

Sociedad

Los bonobos, qué máquinas

¿Por qué podemos pensar que una máquina puede ser mejor que nosotros? ¿Por qué nos sorprende, por otro lado, cuando una máquina puede llegar a hacer cosas de humanos? Más reflexiones sobre la IA.

Los bonobos comparten el 98,4% de su composición genética con los humanos. Finbarr O'Reilly / REUTERS
Olivia Carballar
29 junio 2025 Una lectura de 3 minutos
Telegram Linkedin

Historias humanas sobre la IA. Consigue el número de La Marea en papel o digital en nuestro kiosco.

Qué máquina eres, se suele decir a una persona cuando hace algo fuera de lo normal. Esto va como una máquina, es otra expresión con la que los humanos solemos destacar las cosas maravillosas que pueden hacer los mismos humanos. ¿Por qué podemos pensar que una máquina puede ser mejor que nosotros? ¿Por qué nos sorprende, por otro lado, cuando una máquina puede llegar a hacer cosas de humanos? No hace falta ni siquiera que pensemos en una máquina. Pensemos en los animales.

Un ejemplo. Un estudio de la Universidad Johns Hopkins (EEUU) ha mostrado recientemente cómo los bonobos pueden reconocer la ignorancia de los demás. Es decir, cuando el mono ve que el investigador le pone una uva debajo de un vaso y ve, además, que el investigador ayudante lo ha visto, coge la uva de debajo del vaso para comérsela. Pero cuando la operación se produce sin que el investigador ayudante lo vea, el mono hace señales al hombre para decirle que la uva está debajo. Ni siquiera a eso llega la máquina, a la que se presupone que no tiene conciencia, sea lo que sea la conciencia.

«Elevar la inteligencia artificial a categoría humana demuestra la poca capacidad de superación propia a la que nos estamos enfrentando individual y colectivamente». Así de rotundo se expresa el lector Manuel Fernández. Solo hay que echar un vistazo a las portadas de los periódicos para entender de lo que habla, para mostrar el mundo deshumanizado en el que estamos viviendo.

Para Manuel Fernández, la inteligencia artificial es, en sí misma, una falacia o, más claro, una mentira, «en tanto en cuanto la inteligencia es la capacidad que tenemos los animales para aprender, también mediante la experiencia, sobre la resolución de problemas inherentes al desarrollo de la propia vida». «En consecuencia», afirma, «lo artificial no puede ser nunca inteligencia y sería una técnica mecánica que utilizamos los humanos para que nos ayude a resolver cuestiones complejas que, sin esos medios mecánicos y electrónicos, tardaríamos más tiempo en resolver». 

A María Nieto, consultora, le preocupa igualmente estar «enseñando y alimentando a la bestia», como la denomina: «En el futuro se irá depurando y nos sustituirá, tendremos que evolucionar para seguir aportando valor», concluye. Maite tampoco quiere usar la IA, pero tampoco quiere que la IA la use a ella. 

Sobre estas consideraciones reflexiona también Javier Fernández Panadero, físico, divulgador y profesor de Secundaria, que remite a una charla titulada La IA y tú que ofreció en el Parque Científico de la Universidad de Valladolid, en el espacio Naukas. Entre otros muchos aspectos, desarrolló lo que él llama «el teorema de la conservación de la ignorancia». Justo lo contrario del principio de cooperación de los bonobos. «Yo tengo un problema que no sé resolver. Pues construyo una máquina que lo resuelve. No sé cómo funciona la máquina, pero me resuelve el problema, ¿no? Esto es un poco simplificar lo que ocurre. Pero podemos llegar a escenarios donde te digan: ‘pues mire usted, no le voy a dar el crédito. No sé por qué, pero me lo ha dicho la máquina’; ‘no hay problema con su tumor, no sé por qué, pero me lo ha dicho la máquina’». 

En el primer caso, explica él, tenemos un problema de garantía de derechos basado en los sesgos; y en el segundo supuesto también. «¿Le doy de comer a la máquina los resultados que siga generando? Porque a lo mejor confirmo sus sesgos. Porque es que tiene sesgos, la gente que lo supervisa tiene sesgos. Y nos contaba la investigadora Elena Matute que los propios humanos que quieren supervisar a la máquina confían tanto en ella que casi le dan la razón». Él propone para ello la auditoría pública: «Me publicas los datos, el algoritmo y el resultado del entrenamiento». Pero claro, para eso, tendríamos que ser como los chimpancés.  

Telegram Linkedin

Si te gusta este artículo, apóyanos con una donación.

€
  • #inteligencia artificial

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Suscríbete dona
Artículos relacionados

"La IA es otro invento del capitalismo para producir más"

Olivia Carballar
27 mayo 2025

Aurora Gómez: «Una búsqueda con ChatGPT consume 10 veces más que una búsqueda en el Google antiguo»

Olivia Carballar
20 mayo 2025
Comentarios
  1. ArroyoClaro dice:
    10/07/2025 a las 11:59

    EL PADRE DE LA INTELIGENCIA ARTIFICIAL DICE: HEMOS PERDIDO EL CONTROL (vídeo)
    … Geoffrey Hinton es una figura central en la historia de la IA. Nacido en 1947 y galardonado con el Premio Turing en 2018 junto a Yoshua Bengio y Yann LeCun, es responsable de avances clave como el algoritmo de retropropagación y las redes neuronales profundas. Durante décadas, su trabajo inspiró la creación de sistemas capaces de aprender patrones complejos, desde la visión artificial hasta los modelos de lenguaje.
    Sin embargo, en 2023 Hinton abandonó su puesto en Google Brain para poder expresar libremente sus temores sobre el rumbo que estaba tomando la inteligencia artificial. «Ahora que estas cosas pueden volverse más inteligentes que nosotros, puede que se salgan de control…», declaró en una entrevista con The New York Times. En otro medio, The Guardian, fue aún más directo: «Estoy más preocupado de lo que estaba antes. Pensaba que faltaban entre 30 y 50 años para una IA general. Ahora creo que podrían ser 5 o 10?.
    Los riesgos inmediatos de la inteligencia artificial:
    Desplazamiento laboral. ¿Desempleo para todos? – Manipulación de la información y polarización – Ciberataques y armas autónomas – Bioterrorismo asistido por IA – La posibilidad de una superinteligencia no alineada – Engaño estratégico y mesa-optimización – Pérdida de control y explosión de inteligencia -.
    Propuestas para una mitigación responsable:
    – Investigación en alineación y seguridad – Gobernanza global mundial y regulación – Educación y transición laboral –

    Conclusión: un tiempo para decidir
    La inteligencia artificial es, simultáneamente, una promesa y una advertencia. Sus aplicaciones médicas, científicas y comunicativas pueden mejorar la vida humana de manera asombrosa, pero sus riesgos son catastróficos.
    Geoffrey Hinton ha señalado que «el cachorro de tigre ya está creciendo», en alusión al poder descontrolado que puede adquirir la IA si no se domestica con sabiduría. Las voces que están en su misma línea —Russell, Bengio, Tegmark, Yudkowsky, Marcus— no piden detener el progreso, sino reconducirlo hacia un futuro en el que la inteligencia artificial sea compatible con la vida humana y sus valores. El debate está abierto y está por ver si ello es posible…
    Como dice Stuart Russell: «…no estamos diseñando máquinas inteligentes. Estamos diseñando problemas inteligentes. Y el problema somos nosotros».
    («Los peligros de la inteligencia artificial», Joan Martí, LoQueSomos)

    Responder

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Lo más leído

  • El papelón del Papa
  • Músicos que alzan (o no) la voz ante Gaza
  • Lo indecente es que Sally Rooney sea noticia 
  • Israel bombardea la capital de Gaza cada hora
  • MacGyver contra el sistema

Actualidad

  • Internacional
  • Cultura
  • Política
  • Clima
  • Sociedad

Conócenos

  • La Marea
  • Cooperativistas
  • Transparencia
  • Política de cookies
  • Política de privacidad

Kiosco

  • Suscripciones
  • Revistas
  • Libros
  • Cursos
  • Descuentos
  • Contacto

Síguenos

Apúntate a nuestra newsletter

Apúntate
La Marea Ayúdanos a hacer La Marea posible. Haz una donación o suscríbete desde 50€ al año

MásPúblico sociedad cooperativa. Licencia CC BY-SA 3.0.

Compartir a través de

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los usuarios sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos. Leer más

AceptarResumen de privacidad
Política de Cookies

Resumen de privacidad

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los usuarios sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos.
Funcionales
Siempre habilitado

Las cookies funcionales son esenciales para garantizar el correcto funcionamiento de nuestro sitio web, ya que proporcionan funcionalidades necesarias. Desactivarlas podría afectar negativamente a la experiencia de navegación y a la operatividad del sitio.

Guardar y aceptar