lamarea.com
  • La Marea
  • Kiosco
  • Climática
DONA SUSCRÍBETE
SUSCRÍBETE
Iniciar sesión
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
ANTERIOR

La necesidad de prohibir (o, al menos, regular) los robots asesinos

SIGUIENTE
SUSCRÍBETE DESDE 17€. Además, si verificas que eres humano con el código HUMANA, te llevas un 10% de descuento en tu suscripción a la revista

Crónicas | Política

La necesidad de prohibir (o, al menos, regular) los robots asesinos

"La única posición digna en este asunto pasa por la prohibición de las LAWS, o al menos por su regulación estricta en el marco del Derecho Internacional Humanitario", escribe Fernando Flores Giménez, profesor de Derecho Constitucional y director del Institut de Drets Humans de la Universitat de València

Prototipo de sistema autónomo armado MUTT del Ejército estadounidense. Foto: Departamento de Defensa de EEUU
Fernando Flores Giménez
13 marzo 2024 Una lectura de 4 minutos
Telegram Linkedin Url

Hay máquinas que pueden decidir de forma autónoma actuar letalmente contra los seres humanos. Les llaman robots asesinos, aunque también se les conoce como LAWS: Lethal Autonomous Weapons System. Las minas antipersona eran —son— LAWS. Rudimentarias, anticuadas hoy (aunque no tan pasadas de moda), pero cumpliendo en su curriculum con las características básicas de lo que el ‘Grupo de Expertos Gubernamentales sobre las tecnologías emergentes en la esfera de los sistemas de armas autónomas letales’ considera necesario para reconocer su marca: letalidad (suficiente carga útil para matar), autonomía (no hay control humano en el proceso de ejecución de su tarea), imposibilidad de terminación (una vez las pones en marcha, no hay vuelta atrás, o el coste es altísimo), y efecto indiscriminado (independientemente de las condiciones, los escenarios y los objetivos).

Sin embargo, estas minas les falta un rasgo, la evolución, el cual indica que el dispositivo se adapta al contexto, aprende de forma autónoma y amplía sus capacidades más allá del control humano. Ellas no lo tienen, pero sí los robots asesinos desarrollados, cada vez más independientes.

Porque los LAWS han evolucionado, y mucho. Antes, la autonomía de la máquina se reducía a decidir si estallaba cuando un ser humano presionaba accidentalmente su espoleta. En cualquier sitio, a cualquier hora, quienquiera que fuera el desgraciado caminante: un soldado, una doctora, un escolar, una periodista, un empresario de la industria de armamento. Ahora, un enjambre de drones suicidas puede desplegarse por un área o incluso entrar en una casa, perseguir y empotrarse contra quien haga un movimiento o tenga la temperatura humana estándar. El uso de robots semiautónomos (paso previo al asesino) ya puede verse en los vídeos propagandísticos, pero reales, que circulan en redes sobre su uso en la guerra de Ucrania, o escucharse en las noticias que nos informan sobre cómo asesinan en Gaza a periodistas palestinos y sus familias. Por su parte, la ONU denunció en mayo de 2021 el uso de drones completamente autónomos para matar personas en Libia. Ya están aquí.

Las minas antipersonas se consideran no éticas, porque un robot asesino, por tosco que sea, no hace distinciones, no distingue lo legal de lo correcto. Se ha luchado mucho contra ellas por esa razón. No cumplen lo que llaman ética bélica, un oxímoron brutal pero razonable si no tienes nada mejor que llevarte a la negociación sobre cómo regular el uso de las armas. Aquella lucha terminó con la aprobación del Tratado de Ottawa, o Convención sobre la prohibición del empleo, almacenamiento, producción y transferencia de minas antipersonales y sobre su destrucción, que entró en vigor en 1999. 

EEUU, Rusia e Israel (entre otros) ya han dejado claro que se oponen a un tratado que prohíba las armas autónomas. Están en otra guerra, en la de la competición tecnológica, en la carrera —frenética y carísima— por la superioridad en la Inteligencia Artificial. Y así te lo explican: una cosa son las tecnologías emergentes como la digitalización, la inteligencia artificial y la autonomía de las máquinas, que pueden emplearse respetando plenamente el derecho internacional (por ejemplo, apagando grandes incendios), y otra son esas tecnologías como elementos integrales de los LAWS. 

Nadie duda de eso, pero es conocida la irresistible tendencia del poder a utilizar los desarrollos tecnológicos para aumentar las capacidades militares (el ejército siempre está detrás de las investigaciones más punteras), y pocos necesitan que les expliquen qué es un bien de doble uso, pues se plasmó por primera vez en el Código de Justiniano, allá por el siglo VI. 

En realidad, las justificaciones y los argumentos a favor del uso de LAWS ya se encuentran con facilidad en artículos y conferencias auspiciados por grandes sumas de dinero. Las LAWS impulsan el desarrollo tecnológico para «tomar las mejores decisiones», para «salvar las vidas de nuestros jóvenes» o para hacer la guerra «más precisa y más humana». Tal cual. 

Pero un robot no distingue lo legal de lo correcto, pues no entiende de conflictos morales, y si bien es cierto que muchas veces los humanos tampoco somos capaces de elegir lo justo frente a lo aparentemente legal y a la obediencia debida, llegado el caso, al menos sabremos de quién es la decisión homicida, de quién es la responsabilidad. Porque el arma autónoma letal ni compadece a la víctima ni asume responsabilidades.

Así las cosas, la única posición digna en este asunto pasa por la prohibición de las LAWS, o al menos por su regulación estricta en el marco del Derecho Internacional Humanitario, normativa que trata de limitar los efectos de los conflictos armados, principalmente protegiendo a las personas que no participan en ellos. Por ello, deben prohibirse las armas autónomas que no puedan ser controladas totalmente por los seres humanos, así como las que por estos motivos puedan causar muertes, lesiones y daños incidentales e indiscriminados a civiles. Y deben ser descartadas aquellas que no puedan relacionarse con la responsabilidad de una cadena de mando y control humanos.

En último término, la IA, aplicada a la carrera de armamento, deja de ser inteligencia y pasa a ser estupidez, pues activa la llave de una caja de pandora que, como pasa con estas cajas, una vez se abre, no se cierra.

Telegram Linkedin Url

Si te gusta este artículo, apóyanos con una donación.

€
  • #industria armamentística
  • #robots asesinos

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Suscríbete dona
Artículos relacionados

Robots asesinos: la realidad ya supera la ficción

José Bautista
21 diciembre 2016

Dossier #LaMarea99 | Robots asesinos

La Marea
29 febrero 2024
Comentarios
  1. Carmen C. dice:
    20/03/2024 a las 00:32

    En lugar de tanto invento siniestro o letal, no podrían dirigir sus inquietudes en idear herramientas para hacer del Planeta y de sus criaturas un lugar mejor?; pero eso no interesa a las bestias que tienen sometido al mundo y son ellas las que pagan a estos inventores para someter y sacar aún más provecho del que ya sacan del Planeta y de sus criaturas. Lo propio de estas bestias para sacar beneficios es destruir.
    Pocos son los que se rebelan, por eso los encarcelan, los acosan o los destruyen. Si fuéramos cientos de miles o millones las personas informadas y con ética sabríamos depositar a estas bestias en prisiones de alta seguridad.
    Eso es la democracia: conciencia de la realidad y ética.

    Responder

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Lo más leído

  • Pedro Sánchez pide perdón a la ciudadanía y descarta elecciones: "Hasta esta misma mañana yo estaba convencido de la integridad de Santos Cerdán"
  • Jeff Sharlet: "Hace muchos años que en Estados Unidos la izquierda secular ocupa el margen"
  • Lo de Santos Cerdán (parece que) no es lo de Begoña Gómez
  • Ni reyes ni césares: al desplegar a las Fuerzas Armadas para sofocar la disidencia, Trump ha cruzado el Rubicón
  • Su destino está a la izquierda

Actualidad

  • Internacional
  • Cultura
  • Política
  • Clima
  • Sociedad

Conócenos

  • La Marea
  • Cooperativistas
  • Transparencia
  • Política de cookies
  • Política de privacidad

Kiosco

  • Suscripciones
  • Revistas
  • Libros
  • Cursos
  • Descuentos
  • Contacto

Síguenos

Apúntate a nuestra newsletter

Apúntate
La Marea

La Marea es un medio editado por la cooperativa Más Público. Sin accionistas detrás. Sin publirreportajes. Colabora con una suscripción o una donación

MásPúblico sociedad cooperativa. Licencia CC BY-SA 3.0.

Compartir a través de

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los usuarios sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos. Leer más

AceptarResumen de privacidad
Política de Cookies

Resumen de privacidad

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los usuarios sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos.
Funcionales
Siempre habilitado

Las cookies funcionales son esenciales para garantizar el correcto funcionamiento de nuestro sitio web, ya que proporcionan funcionalidades necesarias. Desactivarlas podría afectar negativamente a la experiencia de navegación y a la operatividad del sitio.

Guardar y aceptar