Sociedad
¿Puede ser la IA una herramienta redistributiva?
Algunas claves para entender cómo la inteligencia artificial determinará las desigualdades sociales en un contexto ya desigual.
Desde hace una década, los debates sobre la inteligencia artificial han girado en torno a cuestiones de seguridad, automatización laboral y sesgos algorítmicos. Sin embargo, con la irrupción de los modelos generativos –capaces de redactar textos, producir imágenes, programar código o diagnosticar dolencias médicas– el foco se ha desplazado a un interrogante más estructural: ¿será la inteligencia artificial un factor que acelere las desigualdades sociales o, por el contrario, un recurso para combatirlas?
A menudo, el advenimiento de una nueva tecnología irrumpe como un relámpago: súbito, salvaje y luminoso, como si se tratara de un fenómeno espontáneo que desgarra la continuidad de lo conocido. Sin embargo, el auge de sistemas como GPT-4 o DALL·E no ocurre en un vacío neutral: se construye con recursos naturales, trabajo humano e infraestructuras globales de extracción y explotación. Cada avance tecnológico es también una operación política y económica que concentra poder, recursos y beneficios en manos de actores específicos.
Buena parte del problema radica en los datos, la materia prima con la que se entrenan estos sistemas. Y es que a medida que los algoritmos de IA se introducen en la gestión pública, desde la educación hasta la salud, surge una cuestión fundamental: ¿quién está detrás de la construcción de estos algoritmos?
En muchos casos, la respuesta es un puñado de empresas privadas que, bajo la fachada de la neutralidad técnica, toman decisiones cruciales sobre quién accede a recursos, quién es excluido y cómo se distribuyen los beneficios de la automatización. Como recuerda Virginia Eubanks en Automating Inequality, los sistemas automatizados de asignación de recursos sociales en Estados Unidos penalizan sistemáticamente a las clases trabajadoras y a las minorías raciales.
Sesgos desde el origen
Datos históricos sesgados producen algoritmos sesgados. La diferencia, advierte Eubanks, es que en los procesos automatizados es mucho más difícil impugnar la decisión o reclamar una corrección. Las bases de datos masivas con las que se han entrenado contienen sesgos culturales, lingüísticos y raciales que pueden reproducirse en las respuestas de los sistemas, afectando a decisiones automatizadas en áreas tan sensibles como la contratación, la evaluación crediticia o el diagnóstico médico.
Varios estudios recientes advierten de este riesgo. Sandra Wachter y Brent Mittelstadt, en su artículo «A right to reasonable inferences» (2019), sostienen que los sistemas algorítmicos «heredan y amplifican los sesgos históricos a menos que se corrijan activamente, subestimando con frecuencia el riesgo de reforzar jerarquías sociales preexistentes». En contextos donde las decisiones automatizadas afectan al acceso a vivienda pública, asistencia sanitaria o empleo, las consecuencias pueden ser graves para colectivos vulnerables.
En esta línea se pronuncia el antropólogo José Mansilla: «Marx decía que el ataque contra la maquinaria por parte de los luditas era una rabia mal dirigida, porque el problema no era la tecnología en sí, sino quién la controla y para qué. Para Marx, la tecnología no es ni buena ni mala per se; el conflicto está en que hoy esos algoritmos están en manos de una élite económica que prioriza la eficiencia sobre el bienestar colectivo».
El filósofo y escritor Fabian Scheidler, autor de El fin de la megáquina (Icaria), alerta por su parte de que «la inteligencia artificial podría ser el mayor expolio de la historia humana, convirtiendo el patrimonio colectivo de conocimiento y creatividad de la humanidad en una mercancía en manos de los ultrarricos. Además, otorga a los multimillonarios que controlan los algoritmos y las plataformas oportunidades sin precedentes para influir en la opinión pública mediante microsegmentación y otros métodos, con el fin de manipular los procesos de decisión política y seguir incrementando su riqueza».
Sin embargo, no todo apunta hacia un escenario distópico. Algunos investigadores defienden que, bajo determinadas condiciones, la inteligencia artificial podría emplearse para reducir desigualdades. Autores como Rediet Abebe, Solon Barocas y Jon Kleinberg señalan en Roles for Computing in Social Change que «los sistemas de IA integrados en infraestructuras públicas cuidadosamente diseñadas pueden mitigar desigualdades, siempre que sus incentivos se alineen con objetivos redistributivos y de equidad». Existen ya experiencias en salud pública, predicción de riesgos sociales o mejora de accesos educativos donde algoritmos abiertos y auditables han reducido barreras históricas de acceso.
Eso sí, todo depende del modelo político y cultural que enmarque su despliegue. La inteligencia artificial no determinará por sí sola el futuro de las desigualdades sociales. Lo hará en la medida en que su desarrollo y aplicación estén gobernados por intereses públicos o privados, por lógicas redistributivas o extractivas. En esa bifurcación política se juega buena parte de su potencial emancipador o regresivo.
Como apunta Mansilla: «Evidentemente, la IA empujará hacia la dirección que esos intereses marquen: mayor concentración de riqueza, polarización laboral (precariedad para muchos, superbeneficios para pocos) y una creatividad mercantilizada. Si estuviera en manos de otro sistema –por ejemplo, uno orientado al común–, podría democratizar el acceso al conocimiento, liberar tiempo para relaciones sociales genuinas o potenciar la creatividad colectiva. Pero bajo el capitalismo, reproduce la misma lógica: la tecnología como arma de desigualdad».
Por último, Scheidler añade una dimensión ambiental al conflicto: «En su forma actual, la inteligencia artificial también acelera la destrucción de la biosfera, ya que consume una parte cada vez mayor de la producción energética mundial, lo que hace inviable una transición rápida y sostenible hacia energías renovables».
La inteligencia artificial hegemónica –esa que optimiza beneficios para Silicon Valley mientras precariza el trabajo y mercantiliza hasta el lenguaje– no es un monolito sin fisuras. En sus intersticios crecen prácticas que encarnan lo que Paolo Virno llamaría «el comunismo de las capacidades intelectuales»: proyectos donde la tecnología se desengancha de la acumulación privada para devenir bien común. Estas grietas no son alternativas técnicas, sino espacios de conflicto político donde se juega la batalla por el valor en la era digital.