Faltan normas específicas que aborden el uso de la IA en la guerra
Faltan normas específicas que aborden el uso de la IA en la guerra

Hacen falta normas específicas que aborden el uso de la IA en la guerra

Oímos cada vez más cerca el sonido de tambores de guerra: Ucrania, Israel… Y nos preguntamos cuál es el papel que está teniendo la inteligencia artificial (IA). Bien es sabido que, al menos durante el tiempo reciente, la punta más avanzada de la innovación tecnológica se forja en las guerras. Nos lo recuerda el pensador francés Paul Virilio: nuestra civilización tecnológica tiene en las guerras su banco de prueba. Desde las lanzas de nuestros ancestros, hasta los satélites, internet y, por supuesto, la IA.

El triángulo del optimismo (1): futuro, ciudad e IA 

Teniendo en cuenta que la IA es una máquina de análisis de gran cantidad de datos, en buena parte depende de los datos disponibles en el conflicto y de los datos disponibles para el conflicto. Desde la primera perspectiva, puede analizar a gran velocidad los múltiples datos que le llegan de distintas fuentes, como satélites, cámaras, reconocimientos del terreno o cualquier huella de los movimientos del enemigo que pueda registrarse y emitirse.

IA guerra

Lo que aporta la IA es análisis instantáneo, con amplia visión de la situación y potenciales alarmas. Ha de resaltarse que tales movimientos no sólo se producen en el mundo físico, que también pueden llevarse a cabo en el mundo digital. Por ejemplo, un intento del enemigo de entrar en el sistema de defensa o un ataque cibernético. Pues bien, la IA puede detectar tales intentos. Incluso en fase de amenaza, ante la identificación de patrones anómalos en la red.

Desde la segunda aplicación, análisis de datos para el conflicto, no puede olvidarse que una guerra es, además de una operación de destrucción y muerte, una gran operación logística. Las guerras se ganan con operaciones militares. Pero la mayor parte de estas operaciones militares pueden entenderse como operaciones logísticas, siendo aquí donde la IA se convierte en un eficaz instrumento. Por ejemplo, permite optimizar la distribución de recursos y suministros, así como de la movilidad de las fuerzas.

El uso de la IA en conflictos armados

En su aplicación más directa al uso de las armas, la IA puede automatizar ciertas funciones del sistema de armas. Por ejemplo, la identificación y seguimiento de objetivos, posibilitando una mayor precisión del uso de esas armas.

El triángulo del optimismo (2): futuro, ciudad e IA 

Hay que constatar que el Derecho Internacional Humanitario establece ciertos límites para el uso de la IA en conflictos armadas. Límites destinados a proteger a los civiles y minimizar el sufrimiento humano. En principio, se trata de aplicar al uso de la IA los límites que tiene el conjunto de actuaciones militares, como: prohibición de utilización si puede causar daño indiscriminado a la población civil, proporcionalidad de la destrucción y el daño causado a bienes y personas civiles en función de la ventaja militar, respecto a los prisioneros de guerra y personas heridas.

Más allá de este marco de principios generales, apenas se encuentran desarrolladas normas específicas que aborden de manera directa el uso de la IA en conflictos armados. De hecho, está por concretarse lo que hoy está en el debate de la ética, como es aquel relativo a la decisión final sobre el uso de fuerzas letales, de ataques letales: ¿pueden dejarse tales decisiones finales a sistemas de IA autónomos o forzosamente esa decisión final ha de ser tomada por humanos?

Precipicio del riesgo

Claro, cuando se piensa en ataques letales viene a la mente la imagen de la bomba nuclear. Pongámonos en un escenario distópico: la IA autónoma puede decidir lanzar una bomba atómica sobre ciudades enemigas si, por ejemplo, no recibe periódicamente la negativa o la retroalimentación adecuada, en los períodos adecuados. Esta retroalimentación no se da porque ha sido destruido -por el propio conflicto armado- el órgano que lo controla. La IA decidirá poner en marcha las armas letales. Y esto en ambas partes o en todas las partes en conflicto. La IA nos lanzaría al precipicio del riesgo existencial del que nos habla Toby Ord (The Precipice)

También puedes seguirnos en nuestros canales de Telegram Twitter

Comparte esto:
Esta web utiliza cookies. Puedes ver aquí la Política de Cookies. Si continuas navegando estás aceptándola   
Privacidad