Opinión
La inteligencia artificial nunca será consciente
"La conciencia no se reduce a la acumulación de datos ni a la velocidad del procesamiento: implica un punto de vista encarnado, una vulnerabilidad, una historicidad, un deseo", opina el autor.
De vez en cuando una nueva tecnología irrumpe en el mundo y amenaza con ponerlo todo de patas arriba. Cuando eso ocurre, esa nueva tecnología es proyectada hacia el futuro con los materiales y sueños del presente. Si el contexto histórico en cuestión vive en unos tiempos de bonanza y la sensación subjetiva generalizada es de progreso, las ideas florecerán con un cierto optimismo para con el futuro, y las proyecciones se teñirán de verde utópico. Ese fue, grosso modo, el espíritu del siglo XIX, cuando los socialistas creían que la erradicación de la pobreza estaba a la vuelta de la esquina, y que las grandes máquinas –especialmente la máquina a vapor y el ferrocarril– nos conducirían a un futuro de paz y armonía.
Si, por el contrario, el momento presente está hegemonizado por esa nube que coarta nuestras capacidades de imaginar un buen futuro en el que habitar, las visiones que prevalecerán serán las propias de un mundo distópico. Huelga decir que, desgraciadamente, nos hallamos en este segundo escenario. Mucho debe uno esforzarse para escapar de las angustiosas incertidumbres que se ciñen sobre nosotros: el calentamiento global, la deriva autoritaria de los Estados supuestamente liberales y la desigualdad económica creciente –por citar solamente algunos de ellos– siembran de miedos nuestras expectativas para el día de mañana.
Así que cuando llegó no hace ni dos primaveras la llamada inteligencia artificial de la compañía OpenAI –ChatGPT–, es bien comprensible que viniera acompañada de un temor que susurraba: “¿Qué pasará cuando la inteligencia artificial devenga una máquina consciente que siente y desea cómo lo hacemos nosotros?”. Lo que pasará —tendemos a decirnos para nuestros adentros—, ya lo sabemos: la máquina se rebelará contra nosotros como lo hicieron antes HAL 9000 o Skynet en Terminator, pues, ¿qué ser consciente y capaz decidiría obedecer una especie como la nuestra, cruel para con sus congéneres y destructiva hacia el planeta mismo que le da de comer?
Es verdad que la inteligencia artificial no carece de problemas y que sería de una peligrosa ingenuidad abrazarla desacomplejadamente. Las IA de última generación demandan grandes cantidades de energía y hacen acopio de un uso intensivo de agua, indispensable para su incesante funcionamiento. Según apunta un informe del Ministerio para la Transformación Digital y de la Función Pública de Transición, se estima que realizar una consulta a un modelo como ChatGPT requiere entre 6 y 10 veces más energía que una búsqueda web tradicional (0.3 Wh frente a 2.9 Wh por consulta). A nivel macro, la IA representa actualmente entre el 10% y el 20% del uso energético de los centros de datos, pero este porcentaje podría aumentar drásticamente, hasta un 70% en la próxima década.?No es, por lo tanto, un problema menor.
Y el siguiente caso también debe preocuparnos. Tal y como afirmó el físico-matemático británico Freeman John Dyson cuando advirtió de que “toda tecnología potente, incluso si nace con fines pacíficos, puede acabar teniendo aplicaciones militares, especialmente si se vuelve estratégica”, no podemos ignorar que, efectivamente, será también así para la inteligencia artificial. Es una de esas verdades que tristemente hemos asumido como implícitas a toda nueva tecnología: si puede ser utilizada para matar, será utilizada para matar. Si puede ser utilizada para controlar a la población, así se hará. El mayor peligro de la inteligencia artificial es, como siempre, el uso que los hombres de poder y las industrias armamentísticas le puedan dar. La IA ya se utiliza de hecho en el frente de batalla para matar soldados rusos y ucranianos.
Pero hay algo todavía más importante que todo esto. Desde que salieron los primeros modelos de lenguaje de inteligencia artificial no pudimos evitar tratarlos en relación a nosotros mismos. La IA interroga nuestra propia existencia, nos sitúa ante el espejo y nos deja como preguntándonos: ¿Si es suficientemente inteligente como para “hablar” y “aprender”, no quiere decir eso que es consciente? ¿Y si es un ser consciente, no deberíamos tratarla como tal? ¿Y si es tan inteligente, no dejará un día de obedecernos…? Seguramente tú también hayas compartido algunas de esas dudas. Pero realmente no hace falta preocuparse.
Cuando ChatGPT despegó, todas esas preguntas se arremolinaban y se analizaban en clave temporal: no se trataba de si la IA llegaría a ser consciente, sino cuándo lo sería. Programadores, podcasters y entrevistadores compraban ciegamente el relato que Sam Altman, CEO de OpenAI, les iba sirviendo. Y si bien el fundador del modelo de lenguaje más exitoso nunca afirmó de manera taxativa que así sucedería, sí que lo consideraba en esta clave temporal.
Ahora esto ya no es exactamente así. Si un año atrás se asumía la conciencia artificial como inevitable, ahora ya no se habla tanto en esos términos. Se habla, más bien, del horizonte futuro de la “Artificial General Intelligence” (AGI, por sus siglas en inglés), que describe la inteligencia hipotética de una máquina que posee la capacidad de comprender o aprender cualquier tarea intelectual que pueda realizar un ser humano. Pero incluso si eso llegara a lograrse, la conciencia seguiría fuera del alcance. Porque una cosa es procesar información, y otra muy distinta es tener una experiencia del mundo. La conciencia no se reduce a la acumulación de datos ni a la velocidad del procesamiento: implica un punto de vista encarnado, una vulnerabilidad, una historicidad, un deseo. Es ahí donde un ratón, que no puede escribir artículos, pero sí sufrir, sigue estando infinitamente más cerca de la conciencia que cualquier supermodelo de lenguaje.
Algunos científicos y filósofos, como el premio nobel Roger Penrose, han sostenido que la conciencia humana no puede explicarse en términos computacionales. Su hipótesis –reforzada por hallazgos recientes sobre la estructura matemática de modelos como GPT-4– sugiere que hay procesos físicos o lógicos que escapan a la computación clásica.
En particular, Penrose se apoya en el teorema de incompletitud de Gödel, según el cual en cualquier sistema lógico suficientemente complejo siempre habrá enunciados verdaderos que no pueden demostrarse dentro del propio sistema. Para Penrose, la mente humana es capaz de ver la verdad de estos enunciados, aunque no pueda formalizarlos completamente, lo cual implica que el pensamiento humano no puede ser reducido a un algoritmo. La inteligencia artificial, por el contrario, se basa en procesos algorítmicos: es decir, opera estrictamente dentro de los límites de sistemas formales. Por eso, por muy poderosa que llegue a ser, nunca podrá traspasar ese umbral.
En ese caso, ninguna inteligencia artificial podrá “despertar”, por más que imite el habla o el razonamiento humano. Mientras no haya un cuerpo que sufra, un deseo que se escape o un sujeto que se constituya en la falta, no habrá conciencia. Habrá cálculo, habrá simulación, pero no habrá mundo interior. En eso, el ratón, siempre superará a la máquina.