Uso bélico de la Inteligencia Artificial genera alarma por vacío ético y pérdida de control humano

La Inteligencia Artificial se está imponiendo en el campo de batalla, pero sin que la humanidad sea necesariamente consciente de todas las consecuencias, dicen expertos. Ucrania es ahora «el gran laboratorio».

pero sin saber cuáles son los hechos en los que se ha fundamentado la máquina», explica Laure de Roucy-Rochegonde.

«Aunque sea un operador humano el que aprieta el botón, ese desconocimiento o incomprensión, así como el factor de la rapidez, hacen que su responsabilidad en la toma de decisión sea bastante limitada».

«No sabemos necesariamente lo que [la IA] ha hecho o pensado, ni cómo ha llegado a ese resultado», abunda Ulrike Franke, del European Council on Foreign Relations (ECFR), un centro de reflexión.

Ucrania como laboratorio
Estados Unidos ha venido utilizando algoritmos, por ejemplo, para golpear a los rebeldes hutíes en Yemen, recientemente. Pero «el gran cambio está ocurriendo ahora: Ucrania se ha convertido en un laboratorio del uso militar de la IA», asevera Alessandro Accorsi.

Dede que Rusia invadió Ucrania en febrero de 2022, ambas partes han «desarrollado soluciones de IA para tareas como la inteligencia geoespacial, operaciones con sistemas sin piloto, entrenamiento militar y ciberguerra», escribe Vitali Goncharuk, del Observatorio de Defensa IA (DAIO) en la Universidad Helmut Schmidt de Hamburgo.

Escalada y riesgo nuclear
La figura de Terminator, ese robot asesino sobre el que el hombre pierde el control está en la mente de todos. Y aunque podría considerarse una mera fantasía cinematográfica, la realidad es que los cálculos fríos de las máquinas ignoran la duda y el instinto de supervivencia, que caracteriza profundamente al homo sapiens.

Investigadores de cuatro institutos y universidades norteamericanas publicaron en enero un estudio, en simulaciones de conflicto, de cinco grandes modelos de lenguaje.

Según las conclusiones, dichos modelos «tienden a desarrollar una dinámica de carrera armamentística, que conduce a conflictos más importantes y en casos contados al despliegue de armas nucleares», aseguran.

Las grandes potencias están preocupadas por no verse superadas por sus rivales, y de momento no parecen querer reglamentar demasiado toda esta tecnología. Los presidentes norteamericano Joe Biden y chino Xi Jinping acordaron en noviembre que sus expertos respectivos examinen la cuestión.

Naciones Unidas lleva 10 años abordando estos dilemas, pero sin grandes resultados.

«Hay debates en cuanto a lo que debe hacerse en la industria de la IA civil», apunta Alessandro Accorsi. «Pero muy pocos en lo que atañe a la industria de Defensa».

Fuente: banca y negocio