Cómo regular la Inteligencia Artificial (IA) es una de las grandes preguntas del siglo XXI, teniendo en cuenta el riesgo que supone para la privacidad, la seguridad ciudadana y el empleo, entre otras áreas. En esos términos se debatió hace unas semanas en el Capitolio, y ese fue el eje temático de la gira europea que realizó Sam Altman –el fundador de OpenAI, la empresa que inventó ChatGPT– y le llevó a reunirse con el presidente Pedro Sánchez.
En múltiples ocasiones, Altman ha pedido a distintos gobiernos un marco legislativo específico para su empresa y otras que trabajan con IA generativa, dada la creciente preocupación social que engendran unos sistemas que algunos juzgan como capaces de acabar con la humanidad. Ahora, una investigación de Time desvenda los esfuerzos de Altman por influenciar a los legisladores europeos frente al nuevo marco regulatorio que se está desarrollando en Europa. El pasado 14 de junio el Parlamento Europeo aprobó una propuesta de ley que deberá negociarse con el Consejo de la Unión y cada Estado miembro antes de su ratificación final, previsiblemente en enero de 2024. Time informa de las presiones recibidas por parte de OpenAI y las concesiones conseguidas.
Según la revista norteamericana, OpenAI publicó una serie de recomendaciones para que los sistemas genéricos de IA como GPT3 (el precursor de ChatGPT) y Dall-E2, un generador de imágenes, no se consideraran de “alto riesgo” de acuerdo a la clasificación que baraja la Unión Europea, en la línea con la presión ejercida por otras compañías como Microsoft y Google, que han exigido que dicha categorización se aplique dependiendo del riesgo en cada caso concreto. En otras palabras, se reitera la petición que adelantó IBM en el Capitolio, según la cual habría que regular el uso de la tecnología, pero no la tecnología en sí. Con este enfoque, que finalmente fue adoptado por Europa, los sistemas genéricos como ChatGPT quedarían sujetos a un control más laxo, proveniente de las propias empresas, con la condición de cumplir ciertos requisitos menores.
Así, en la nota de prensa del Europarlamento se aclara que “los proveedores (…) tendrían que evaluar y mitigar los riegos posibles (para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho) y registrar sus modelos en la base de datos de la Unión Europea antes del lanzamiento al mercado europeo”.
Los sistemas de IA generativa, además, deberían ajustarse a ciertas normas de transparencia, como revelar que el contenido ha sido generado por la Inteligencia Artificial, ayudar a distinguir las imágenes Deep fake –falsas– de las verdaderas, informar de si han usado datos protegidos por derechos de autor y asegurarse de que no producen contenido ilegal. No se impone la obligación de anunciar si se han usado datos personales, y tampoco se considera de “alto riesgo” la utilización de la Inteligencia Artificial en los sectores educativos y laborales, una premisa que sí se contemplaba en los primeros borradores de la ley, según Time.
Al final, el texto legal enfatiza, de manera general, el alto riesgo de la IA cuando exista “un daño significativo” en la salud, la seguridad, los derechos fundamentales de las personas o el medio ambiente, de lo cual se infiere que habrá que demostrar dicho daño en los tribunales, a pesar de que ya contamos con investigaciones solventes sobre las amenazas que representa la IA – generativa y no generativa – en el contexto del Capitalismo de la Vigilancia. Sí que se explicita el riesgo de sistemas utilizados para influenciar el voto o alterar resultados electorales, incluyendo las recomendaciones aparecidas en redes sociales con más de 45 millones de usuarios (entre las que se encontrarían Facebook, Twitter e Instagram), una referencia clara al escándalo de Cambridge Analytica.
A pesar de todo, la propuesta del Parlamento Europeo representa el marco legal más restrictivo creado hasta ahora para esta tecnología, y prohíbe expresamente los sistemas de “riesgo inaceptable”, como el de puntuación basada en el comportamiento –implementado en China–; el reconocimiento facial en espacios públicos y la identificación biométrica; el uso de tácticas predictivas policiales –muy comunes en Estados Unidos– basadas en la ubicación, el comportamiento criminal previo o el perfil (racial, socioeconómico); o el reconocimiento de las emociones en procesos judiciales, el control de fronteras, el lugar de trabajo o las instituciones educativas.
Si el texto legal ha ido perdiendo fuerza regulatoria respecto desde que en 2021 se empezasen a elaborar las primeras versiones, cabe esperar que siga debilitándose conforme atraviesa las siguientes fases antes de entrar en vigor. Con suerte, se mantendrá la idea de “impulsar el derecho ciudadano a presentar quejas” respecto a los efectos de la IA, una herramienta que podría servir para instigar una respuesta social frente al potencial destructivo de estos sistemas.