“¿Cuál es tu peor pesadilla?”. Éste fue el interrogante más repetido durante la comparecencia en el Senado estadounidense de Samuel (Sam) Altman, co-fundador y CEO de la empresa de Inteligencia Artificial OpenAI, conocida por haber inventado ChatGPT.
En la primera reunión sobre este tema en el Capitolio, celebrada el pasado martes, Altman tuvo que responder a múltiples preguntas provenientes de distintos representantes políticos, republicanos y demócratas, así como de varios expertos. “Mi mayor miedo es que causemos un daño sustancial al mundo –contestó, cauteloso–. Si esta tecnología sale mal, puede salir muy mal”, aunque también aseguró que se mostraba optimista ante los posibles beneficios.
Sin embargo, el ambiente que se respiraba era tenso en una sala donde predominó la preocupación por los riesgos que entraña la Inteligencia Artificial (IA), y el consenso sobre la implementación urgente de algún tipo de regulación, sea en forma de licencias para su uso a partir de los organismos en vigor, o de medidas más rígidas en el contexto de la creación de una agencia estatal, o incluso de acuerdos internacionales. Entre los efectos de la IA que se barajaron destacan su potencial destructivo en el mercado laboral, su rol en promover la desinformación e incluso su capacidad para incidir en el desarrollo de conflictos bélicos.
Una amenaza para la democracia
“Estos sistemas van a ser desestabilizadores; pueden crear y crearán mentiras persuasivas a un nivel nunca visto; desde fuera, se pueden usar para impactar nuestras elecciones; desde dentro, para manipular nuestros mercados y sistema político: la democracia misma está amenazada”, afirmó Gary Marcus, profesor emérito de Ciencia Neuronal y Psicología en la Universidad de Nueva York y fundador de algunas start-ups en el ámbito de la IA. Marcus proporcionó algunos ejemplos de los peligros que representa OpenAI y herramientas similares, como la fabricación de pruebas falsas –indistinguibles de las verdaderas– en un juicio, la posibilidad proporcionar información sanitaria no contrastada, o de alterar la opinión de la ciudadanía mucho más que las redes sociales.
De hecho, la comparación con las redes sociales fue constante entre los asistentes a la sesión, algunos de los cuales advirtieron de no cometer los mismos errores, en referencia a las carencias del actual marco legislativo. En Estados Unidos, las redes están reguladas por la sección 230 de la Ley de Decencia en las Comunicaciones (Communications Decency Act, o CDA), que blinda a multinacionales como Facebook y Twitter de posibles demandas al recaer en los usuarios, y no en las plataformas, la responsabilidad sobre el contenido vertido.
El mismo Altman reconoció que este contexto normativo no servía para una tecnología como OpenAI, que implica mayores riesgos. No obstante, se puede dar el caso de que los efectos nocivos de ambas se sumen, como sugirió la senadora demócrata Amy Klobuchar cuando nombró el siguiente ejemplo verídico: ChatGPT había fabricado un tweet con la ubicación ficticia de varios centros electorales, que luego se difundió en la red de Elon Musk. “Existe una diferencia entre reproducir o generar contenido falso”, alertó Marcus, pero no cabe duda de que la combinación de ambos procesos es problemática.
No es la única sacudida que podría desatar esta Inteligencia Artificial generativa, capaz de clonar voces o elaborar documentos verosímiles con investigación inexistente. “Mi peor pesadilla es la sustitución de millones de trabajadores, la pérdida de millones de empleos”, señaló Richard Blumenthal, senador demócrata. Altman admitió que es una posible consecuencia, a pesar de que confía en que su empresa mejore la calidad del trabajo.
En este sentido, Klobuchar le recordó algunos estudios que señalan la probable desaparición de un tercio de los periódicos estadounidenses para 2025, a lo cual Marcus añadió: “Muchas noticias se van a fabricar con estas herramientas que no son fiables. La calidad del mercado informativo se va a resentir”. Otros congresistas señalaron la necesidad de pagar a los profesionales creativos cuando la Inteligencia Artificial utilice sus obras en la producción de otras, como canciones o literatura. Altman no supo responder a cómo su empresa interactuará con límites legales como los derechos de autor.
¿Una guerra automatizada?
Más angustiados parecían los senadores republicanos Josh Hawley y Lindsey Graham. El primero expresó que, si bien nos encontramos ante una tecnología completamente innovadora, ésta podría empujar grandes mejoras sociales, como la imprenta, o utilizarse con fines contrarios, como la bomba atómica.
El segundo fue más allá y cuestionó el tipo de aplicaciones militares de la IA y cómo modificaría la guerra: “Si un dron que está programado para arrojar misiles aprende los mecanismos, ¿puede llegar a elegir su objetivo?”, inquirió. “No deberíamos permitir eso”, dijo Altman. “Pero, ¿puede ocurrir?”, insistió Graham, y la respuesta fue afirmativa.
Frente a los riesgos que comportaría un contexto bélico regido por armas automatizadas con autonomía para dar muerte, un gran número de ciudadanos desempleados y la penetración masiva de la desinformación en los pocos ámbitos donde no ha calado aún, algunos congresistas recomendaron seguir el modelo europeo, más avanzado en estos temas, pues está ya en marcha un nuevo marco jurídico comunitario en relación con esta tecnología.
Aun así, nadie puede asegurar que las iniciativas legales logren responder con la rapidez y eficacia requeridas ante los retos –políticos, morales– que plantea la Inteligencia Artificial. Regularla es claramente una necesidad, tanto como repensar el modelo regulatorio en sociedades democráticas donde los lobbies a menudo ejercen demasiada influencia sobre los gobiernos.