Inteligencia artificial y la ética en el conflicto

En contra de lo que se podría pensar, detrás el término LAWS no es el plural de término inglés law (= ley), sino un acrónimo de Lethal Autonomous Weapon Systems, el tema de este artículo. Se suele traducir este término como Sistemas de armas autónomasrobots de combate en el lenguaje diario. Pero LAWS no son nada nuevo, ni provienen de la ciencia ficción. Esta clase armas incluye sistemas tan antiguos como los diferentes tipos de minas (terrestres, navales y antipersonas). Estas armas tienen en común que se activan de forma autónoma, cuando se produce el contacto de un vehículo, un buque o un persona con una mina. Según el informe Landmine monitor 2017, en el año 2016, 8605 personas fueron víctimas de esta clase de “armas autónomas”. En 2089 de las víctimas las lesiones fueron letales. Una parte de las víctimas son niños que se encuentran con este tipo de armas de forma desprevenida, muchas veces cuando el conflicto ya ha terminado.

Los peligros de armas autónomas

Las experiencias con este tipo de armas que, una vez desplegadas, se activan de forma automática y sin decisión humana en este instante, ha llevado a la Convención sobre la prohibición de minas antipersonales, tratado que proscribe las minas antipersonas y que he sido ratificado por 144 Estados. Pero aparte de este ejemplo de armas autónomas, los avances en la tecnología, especialmente en la Inteligencia Artificial, están causando nuevas preocupaciones entre los analistas, con buena razón como veremos.

Inteligencia artificial en las armas

Los sistemas de armas modernos se basan en la automatización de procesos, como por ejemplo la detección y el seguimiento de los objetivos, sean personas o medios de transporte como un avión de transporte. El Eurofighter, caza polivalente europeo, lleva más de 80 ordenadores a bordo, sin los cuales el piloto ni siquiera podría volar el avión, cuando menos utilizar su armamiento. El misil americano Tomahawk fue usado en numerosas ocasiones en Irak, Siria y Libia. Después de su lanzamiento desde un submarino o una fragata en alta mar, este misil recorre distancias de más de 1250 km hacia su objetivo. Una vez en el aire, el misil sobrevuela el mar y la tierra a cotas muy bajas para evitar su detección por los radares. El GPS le ayuda a orientarse durante el vuelo hasta dar con el objetivo cuyas coordinadas se han introducido previamente, basándose en las imágenes de satélite. Vemos que gran parte de estos sistemas usan ya la inteligencia artificial de forma autónoma. Sin embargo, detrás queda siempre la decisión humana, sin la cual no se produciría este lanzamiento.

Las implicaciones éticas de los LAWS

Se diferencia entre sistemas defensivos y sistemas ofensivos, ambos autónomos. Como ejemplo de un sistema defensivo se suele mencionar sistemas de defensa en buques de guerra que se activan de forma autónoma cuando detectan un misil en aproximación. El tiempo de reacción es en estos casos demasiado corto para decisiones humanas. Pero lo que les preocupa a los analistas son los sistemas ofensivos. Tanto Estados Unidos como la Federación Rusa trabajan en drones y vehículos terrestre no tripulados, misiles e incluso robots de combate. Todos estos proyectos tienen el objetivo común de reducir las bajas en las propias filas, mientras su potencial destructivo ha aumentado con las armas de última generación. Las implicaciones éticas son graves: ¿qué probabilidad tienen las personas de escapar cuando ya no hay decisión humana detrás de un ataque? ¿Quién es responsable cuando un dron lanza de forma autónoma un misil aire-tierra a un vehículo que se encuentra en un convoy de civiles huyendo de una zona de combate? ¿Qué ocurre cuando esta decisión se basaba solamente en un cálculo de probabilidad de que dentro de este vehículo se encontraban miembros del Estado Islámico? En este hipotético ejemplo, es la inteligencia artificial que contrasta datos como la posición anterior del vehículo en una ciudad ocupada por el Estado Islámico. Si un ordenador a bordo del dron toma la decisión, las “víctimas colaterales” no importan. Si hasta la entrada en el siglo XX los combates se producían en su mayoría entre ejércitos enfrentados, la distancia del combate personal se ha desplazado hacia un mayor distanciamiento, de modo que, hoy en día, el soldado que acciona un arma no llega a ver su(s) víctimas, personas civiles en su mayoría. Con las armas autónomas, este distanciamiento está entrando en una dimensión más pervertida aún. Si estos sistemas autónomos ofensivos entran algún día en uso, las guerras se volverán más apocalípticas aún, si cabe.

El veto de las grandes potencias

En 2016, los miembros de la Convención sobre ciertas armas convencionales establecieron un Grupo de Expertos Gubernamentales para analizar las consecuencias de las nuevas tecnologías en el área de armas autónomas. En la última conferencia en agosto de 2018, los más de 70 países participantes trataron de llegar a una posición común. Mientras la gran mayoría de los países optaba por exigir la prohibición de estas armas, las grandes potencias Estados Unidos y la Federación Rusa se opusieron a esta propuesta. Les acompañaron otros países más pequeños como IsraelCorea del Sur y Australia, alegando que con armas autónomas sería más fácil proteger a civiles por su mayor capacidad de gestionar informaciones. Como en todos los gremios de envergadura internacional, las decisiones se toman por unanimidad, la posición común a la que finalmente llegaron, no fue más que la firma voluntad de reunirse de nuevo en el futuro. Las reticencias se comprenden delante el fondo que ellos mismo están trabajando en el uso de la inteligencia artificial en los armas autónomos. Recordemos que muchas de estas armas aún se encuentran en fase de pruebas y otras todavía no están disponibles pero se espera su próxima aparición en las noticias. Vemos aquí un ejemplo de robots de combate de la empresa rusa Kalashnikov, el fabricante del famoso fusil de asalto AK-47. Si bien no se sabe si las capacidades descritas en el vídeo son reales, en la presentación hacen hincapié en la capacidad de tomar decisiones de forma autónoma.  

“You can target evil ideology right where it starts …”

Para terminar, propongo este vídeo que, de momento, es pura ciencia ficción, pero sí se puede imaginar que los desarrollos podrían ir en esta dirección. La iniciativa Ban Lethal Autonomous Weapons presenta en este vídeo cómo se pueden usar pequeños cuadricópteros para ataques precisos a personas. Una vez lanzados, estos drones se orientan a través de GPS y el reconocimiento facial hacia la frente de las personas donde hacen explotar tres gramos de un explosivo, suficiente para destrozar el cerebro de la persona. Todo sin la intervención humana, una vez que hayan sido programados y lanzados. La pregunta es: ¿podemos dejar la decisión sobre vida o muerte al cálculo de unos algoritmos?  

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.