lamarea.com
  • La Marea
  • Kiosco
  • Climática
DONA SUSCRÍBETE
SUSCRÍBETE
Iniciar sesión
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
ANTERIOR

La amenaza de la proliferación de los drones (2)

SIGUIENTE
SUSCRÍBETE DESDE 17€. Además, si verificas que eres humano con el código HUMANA, te llevas un 10% de descuento en tu suscripción a la revista

Internacional

La amenaza de la proliferación de los drones (2)

La aplicación de la IA a las armas autónomas está propiciando el nacimiento de máquinas que ‘autoaprenden’. Su proliferación plantea muchas dudas sobre su seguridad y su efecto para desencadenar una escalada bélica.

El 'Sea Hunter' se convirtió en 2016 en el primer buque no tripulado de la Marina de EE.UU.
Magda Bandera y Patricia Simón
25 abril 2024 Una lectura de 7 minutos
Telegram Linkedin Url

Este reportaje (el segundo de una serie de tres) forma parte parte del dossier ‘Robots asesinos’ de la revista #LaMarea99. Puedes conseguirla aquí y seguir apoyando el periodismo independiente.

El uso de las armas autónomas letales se ha disparado en los últimos años gracias a los dos grandes laboratorios en los que se están probando: la guerra de Ucrania y la Franja de Gaza. Pero el epicentro sigue siendo Estados Unidos, cuya subsecretaria de Defensa, Kathleen Hicks, anunció en agosto de 2023 que el objetivo del gobierno de Joe Biden es «poner en funcionamiento miles de sistemas autónomos, en múltiples dominios, en los próximos 18 a 24 meses» para hacer frente al expansionismo chino. Una semana después, aclaró que estaba pensando en buques de guerra autónomos, aviones sin tripulación y «grupos» de unidades móviles de propósito general desplegadas en tierra, mar, aire y espacio.

La sección de la Marina de Estados Unidos dedicada al desarrollo de aplicaciones militares con inteligencia artificial (IA) ya tiene una flota autónoma de drones dedicados a la alerta temprana en el estrecho de Ormuz, vital para el tráfico mundial de energía. El pasado 23 de octubre, después de que un soldado le diese la orden desde tierra, pero ninguna información táctica, un barco no tripulado de la Armada atacó con misiles a un falso enemigo.

El 15 de enero de este año se produjo otro hito en la carrera armamentística sin apenas eco: ese día, la empresa más importante del mundo en IA, OpenAI, anunció que eliminaba la prohibición de usar su programa ChatGPT y el resto de sus herramientas en el ámbito militar. Realizó el anuncio justo después de comenzar a trabajar con el Departamento de Defensa de Estados Unidos. En el Foro Económico Mundial, su portavoz, Anna Makanju, justificó la decisión aduciendo «razones de seguridad nacional» y subrayó que han autorizado el uso militar, no así la producción de armas.

Según información de acceso público, el Pentágono cuenta con más de 800 proyectos de IA militar. Todo ello, después de que en enero de 2023 actualizase su política sobre las armas autónomas letales y de que el presidente de China, Xi Jinping, y el de Estados Unidos, Joe Biden, acordasen mantener conversaciones bilaterales sobre los riesgos que estos sistemas plantean y de que reactivasen las líneas directas de emergencia.

Una vía de comunicación importante porque, como responde por correo electrónico Mary Wareham, investigadora de Human Rights Watch y cofundadora de la coalición Stop Killer Robots, las armas autónomas tienen «la capacidad de tomar decisiones complejas en entornos menos estructurados». La velocidad a la que son capaces de actuar también puede provocar «que los conflictos armados se descontrolen rápidamente y desencadenar una serie de consecuencias imprevistas, muchas de las cuales podrían alterar de manera crucial las relaciones entre Estados o la naturaleza de los conflictos en curso», añade.

El filósofo Peter Asaro recuerda que, en 1962, la crisis de los misiles en Cuba se resolvió gracias a las conversaciones privadas entre Nikita Jrushchov y John F. Kennedy. En la actualidad, algunos países han confirmado que van a seguir desarrollando armas autónomas letales. India alega que lo hace para defenderse de China, una potencia en este sector y con la que comparte más de 3.300 kilómetros de frontera.

El riesgo de la rápida escalada y los fallos de ciberseguridad no son los únicos peligros que conlleva el uso de la inteligencia artificial en la industria militar. Otro igual de importante es la imprevisibilidad: su respuesta se basa en complejos cómputos basados en algoritmos que autoaprenden. Esto, que los fabricantes presentan como una ventaja frente al enemigo, es un riesgo de consecuencias imprevisibles en opinión de las fuentes expertas consultadas para este reportaje.

La rápida proliferación de estas armas también supone una amenaza. Una vez que bajan sus costes de producción, no solo se crea un mercado en el que pueden adquirirlas actores al margen de la ley –lobos solitarios, grupos terroristas o bandas de narcotraficantes, como los que llevan años usando drones en México para combatir atacar a bandas rivales–, sino que, antes o después, terminan aplicándose en el ámbito civil de la seguridad, de la vigilancia y del control social.

Ataques selectivos

Combatir la opacidad de la industria armamentística y las políticas de defensa es otro de los grandes desafíos que plantean. Una investigación de una década realizada por The Bureau of Investigative Journalism reveló cómo los asesinatos realizados mediante drones por Estados Unidos, entre 2004 y 2018, acabaron con la vida de entre 10.888 y 20.823 personas en Pakistán, Afganistán, Yemen y Somalia. De estos, entre el 7% y el 15% eran claramente civiles: entre 910 y 2.200 personas. De ellas, entre 283 y 454 eran niños y niñas.

La Casa Blanca y el Pentágono siempre han sostenido que su programa de ataques selectivos con drones, como los denominan, reduce las víctimas de civiles en los conflictos gracias a su precisión. Un extremo que quedó también desmentido tras la investigación The Drone Papers, de la revista digital The Intercept, que accedió a documentos clasificados en los que se describen acciones del Ejército estadounidense a lo largo de cinco meses en el marco de la operación llevada a cabo en Afganistán entre enero de 2012 y febrero de 2013.

En estos papeles puede leerse que 200 personas fueron asesinadas mediante drones, de las cuales solo 35 eran objetivos militares. Es decir, el 82,5% fueron víctimas no buscadas, aunque a todos los fallecidos en estos ataques Estados Unidos los contabiliza como «enemigos muertos en combate».

Presupuesto militar desbocado

Desde la invasión rusa de Ucrania, asistimos a un rearme generalizado. En términos globales, el mundo gastó en 2023 un 9% más en defensa que el año anterior, según el Instituto Internacional de Estudios Estratégicos, con sede en Inglaterra. El objetivo marcado por el secretario general de la OTAN, Jens Stoltenberg, especialmente ante la posible reelección de Donald Trump en Estados Unidos, es que los Estados miembros inviertan un 2% de su PIB en la coalición militar. Un dinero que tendrá que salir de otras partidas presupuestarias y que, a menudo, termina engrasando un triunvirato opaco: el compuesto por los ministerios de Defensa, las universidades y las empresas privadas.

«Hay una desproporción entre los presupuestos que proveen a la investigación militar y la civil. Y muchas veces vemos que cuando la de la empresa privada militar necesita apoyo, se invierte en departamentos de universidades para que hagan desarrollo tecnológico en su provecho», explica en su oficina de Barcelona Caramés Boada, director de la ONG FundiPau.

«A lo largo de la historia, las tecnologías que se desarrollan en la guerra, terminan incorporándose al poder policial, a la seguridad fronteriza… Y la gente empieza a darse cuenta de que el software de reconocimiento facial que se usa en las cámaras de vigilancia de las tiendas, de la policía o en tu teléfono, es el mismo que se usará en los sistemas de las armas autónomas», explica a La Marea, poco después de su intervención en Naciones Unidas, la doctora en Derecho Internacional y Estudios de Seguridad Catherine Connolly, responsable de Investigación de Decisiones Automatizadas de Stop Killer Robots.

Y añade: «Hemos visto cómo en las grandes protestas en Estados Unidos, las fuerzas policiales usan drones para observar a los participantes, como antes hicieron en Afganistán, Irak y Pakistán. ¿Quién puede decir que no los armarán en algún momento?». Pocos días antes, estas periodistas habían sido testigos en Nueva York de cómo varios drones policiales grababan dos concentraciones, una a favor de Palestina y otra de Israel, que tenían lugar a pocos metros de distancia en Times Square.

Telegram Linkedin Url

Si te gusta este artículo, apóyanos con una donación.

€
  • #armas autónomas
  • #drones
  • #gasto militar
  • #gasto militar mundial
  • #inteligencia artificial
  • #Joe Biden
  • #LaMarea99
  • #OTAN
  • #robots asesinos
  • #tecnología
  • #Xi Jinping

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Suscríbete dona
Artículos relacionados

El gasto militar mundial crece por noveno año consecutivo y se sitúa en 2,44 billones de dólares

La Marea
22 abril 2024

Ucrania quiere ser la fábrica de armas de Occidente

Patricia Simón
11 marzo 2024
Comentarios

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Lo más leído

  • Pedro Sánchez pide perdón a la ciudadanía y descarta elecciones: "Hasta esta misma mañana yo estaba convencido de la integridad de Santos Cerdán"
  • Jeff Sharlet: "Hace muchos años que en Estados Unidos la izquierda secular ocupa el margen"
  • Lo de Santos Cerdán (parece que) no es lo de Begoña Gómez
  • Ni reyes ni césares: al desplegar a las Fuerzas Armadas para sofocar la disidencia, Trump ha cruzado el Rubicón
  • Su destino está a la izquierda

Actualidad

  • Internacional
  • Cultura
  • Política
  • Clima
  • Sociedad

Conócenos

  • La Marea
  • Cooperativistas
  • Transparencia
  • Política de cookies
  • Política de privacidad

Kiosco

  • Suscripciones
  • Revistas
  • Libros
  • Cursos
  • Descuentos
  • Contacto

Síguenos

Apúntate a nuestra newsletter

Apúntate
La Marea

La Marea es un medio editado por la cooperativa Más Público. Sin accionistas detrás. Sin publirreportajes. Colabora con una suscripción o una donación

MásPúblico sociedad cooperativa. Licencia CC BY-SA 3.0.

Compartir a través de

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los usuarios sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos. Leer más

AceptarResumen de privacidad
Política de Cookies

Resumen de privacidad

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los usuarios sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos.
Funcionales
Siempre habilitado

Las cookies funcionales son esenciales para garantizar el correcto funcionamiento de nuestro sitio web, ya que proporcionan funcionalidades necesarias. Desactivarlas podría afectar negativamente a la experiencia de navegación y a la operatividad del sitio.

Guardar y aceptar