Killer robots, sin freno a la vista

Plataformas robóticas tácticas (killer robots). Foto: Robobotics (vía Wikimedia Commons / CC BY-SA 4.0). Blog Elcano
Plataformas robóticas tácticas (killer robots). Foto: Robobotics (vía Wikimedia Commons / CC BY-SA 4.0). Blog Elcano
Plataformas robóticas tácticas (killer robots). Foto: Robobotics (vía Wikimedia Commons / CC BY-SA 4.0)

Añadida a otras señales no menos sombrías cuando se vislumbra lo que ya está a la vuelta de la esquina en el campo de la violencia, el pasado día 17 de diciembre se consumó un nuevo fracaso diplomático en Ginebra. Tras cinco días de discusiones, la sexta Conferencia de revisión de la Convención sobre Ciertas Armas Convencionales –en vigor desde 1983 y que también incluye las armas incendiarias, las minas terrestres, los láseres cegadores, las armas trampa y los explosivos remanentes de conflictos pasados– no ha logrado acordar la puesta en marcha de un proceso negociador sobre el desarrollo y empleo de los LAWS (Lethal Autonomous Weapon Systems), más conocidos como killer robots o robots asesinos.

No ha sido suficiente el esfuerzo realizado en su seno desde hace ocho años para frenar el paso a quienes –como ya se constató en Libia en marzo de 2020 con el empleo del sistema turco STM Kargu-2– están decididos a aprovechar el desarrollo tecnológico que ya permite contar con sistemas de armas dotados de sensores y algoritmos informáticos que, una vez activadas, no necesitan ningún tipo de intervención humana para identificar, seleccionar y eliminar a seres humanos. De nada ha servido la apelación del Secretario General de la ONU a los representantes de los 125 países participantes en la reunión, demandando el inicio de un “ambicioso plan” para frenar una dinámica tan inquietante, tanto desde el punto de vista ético como legal. Y menos aún el hecho de que haya 68 Estados y numerosas organizaciones no gubernamentales, el Comité Internacional de la Cruz Roja incluido, abiertamente favorables a dicha negociación.

Frente a ellos, aprovechando que se trata de un marco que exige la unanimidad para aprobar una decisión de ese tipo, ha bastado con la resistencia de países como Estados Unidos, India, Israel, Reino Unido y Rusia para bloquear tal posibilidad, argumentando que ya es suficiente con el tipo de regulación existente en materia legal y de derecho internacional humanitario. Se trata, no por casualidad, de los mismos países que destacan precisamente en el desarrollo de esos mismos sistemas, junto a China, Corea del Sur y Francia. En defensa de sus posiciones, sin que ello signifique que comparten una agenda común al respecto, señalan las ventajas de unos sistemas que sostienen que nunca cometerán errores propios de los humanos (por cansancio, sentimientos, prejuicios…), mucho más precisos (lo que reducirá los daños colaterales), ahorradores de vidas humanas (sobre todo de los soldados propios), y plenamente operativos en situaciones de máximo riesgo. Unos argumentos que tienen mucho más de creencia que de constatación de realidades; por encima de los cuales sobrevuela la postura, tantas veces vista cuando se discute sobre control de armas y desarme, de que, a fin de cuentas y dado que la tecnología lo permite y no existe ningún sistema de vigilancia perfecto, siempre habrá alguien decidido a saltarse el hipotético acuerdo con el objetivo de lograr una ventaja definitiva sobre cualquier posible adversario. A eso se suma el cálculo de que, dado que nada podrá impedir lo que la tecnología ya está ofreciendo, lo mejor es dotarse cuanto antes de esos sistemas para reforzar el instrumental disponible para hacer frente a cualquier circunstancia en el campo de batalla.

Frente a ellos, los que demandan una negociación –sea para prohibirlos, para establecer una moratoria a su fabricación hasta que haya un acuerdo internacional o, al menos, para regular su desarrollo y empleo– aducen que la entrada en servicio de esos sistemas supone un quebrantamiento ético y legal de las normas que regulan las guerras, dejando en manos no humanas la decisión de matar. Manos (artificiales) que no conocen la compasión, y que actúan basándose en procesos de toma de decisión sesgados y arbitrarios. Entienden, asimismo, que incentiva el recurso a la violencia y a la guerra al no poner en juego tropas propias, además de dificultar aún más la asignación de responsabilidades ante un uso incorrecto, sin olvidar que en un mercado tan globalizado como el de las armas, pueden acabar en manos de cualquiera o ser pirateados para asignarles un uso distinto al inicialmente previsto.

Y así, mientras se ha vuelto a confirmar la falta de voluntad para dar un paso decidido para alumbrar algún tipo de acuerdo, obviamente la tecnología sigue su curso, alimentada por consideraciones tanto comerciales como políticas. Quienes ya la poseen están muy interesados tanto en aprovechar este nuevo nicho de mercado para obtener pingües beneficios económicos, como para dotar con esos sistemas a sus propias fuerzas armadas y de seguridad. En definitiva, lo que queda a partir de este serio revés es explorar otras vías. Así ocurrió ya en el pasado ante el rechazo inicial a negociar la prohibición de las minas antipersona, lo que llevó finalmente, con el notable empeño de las organizaciones no gubernamentales que impulsaron la campaña, al Tratado de Ottawa (1999). Ojalá la campaña Stop Killer Robots pueda lograr algo similar.

Jesús A. Núñez Villaverde

Escrito por Jesús A. Núñez Villaverde