Periódico Dominicano Libre de Prejuicios; Porque somos Imparcial siendo Objetivo

Imparcial RD

La inteligencia artificial cambiará para siempre la guerra



Un soldado ucraniano transporta un dron cerca de la línea del frente cerca de Avdiivka, región de Donetsk, Ucrania, viernes 17 de febrero de 2023.

Los escenarios inexplorados de la inteligencia artificial en la guerra generan preocupación en la comunidad internacional, pero la carrera tecnológica-armamentística no se detiene: Ucrania ha lanzado su propio proyecto para la creación de estas armas.

Ucrania mira hacia el futuro y se embarca en la misión de desarrollar tecnología militar bajo la iniciativa Brave 1. Un grupo de cooperación internacional para crear todo tipo de sistemas de defensa y armamento no tradicional, como armas automatizadas o autónomas que, gracias a la inteligencia artificial, podrían operar de forma independiente y cambiar para siempre las operaciones militares.

Pero su futura implementación es controversial. El gran debate es cuál será el papel de los humanos. César Pintado, profesor del Observatorio de Inteligencia, Seguridad y Defensa de España (CISDE) considera que es bastante "desaconsejable eliminar el factor humano" ya que el combate se ha vuelto "muy complejo y muy volátil".
Armas diseñadas para "pensar por sí solas", pero "carentes" de moral

"Constantemente hay misiones que se abortan por cuestiones éticas, legales, técnicas o simplemente por la propia evolución del combate”, dice a Euronews.

La investigadora del Centro de Estudios sobre la Guerra y del Departamento de Ciencias Políticas y Gestión Pública de la Universidad del Sur de Dinamarca, Anna Nadibaidze, agrega que recindir de la presencia humana también implica "una pérdida de la capacidad moral" en los combates.


"Un operador humano siempre existe la posibilidad, en teoría, de que un humano pueda ejercer la compasión y la empatía y el juicio humano, y un sistema que está entrenado con datos y preprogramado para hacer algo no tiene esa opción", apunta Nadibaidze.

No obstante, los dos analistas resaltan los beneficios que las "armas disruptivas" -término extendido para referirse al armamento con inteligencia artifical- podrían ofrecer en los conflictos armados, como mayor precisión y un menor número de bajas en las operaciones. La lista incluye perros robots, armas con apariencia humanoide o enjambres de drones autónomos.

Pero existe una serie de riesgos, al utilizar inteligencia artificial los algoritmos podrían tener sesgos en sus modelos de datos, como por ejemplo: errores de identificación facial biométrica o falta de una evaluación profunda de su entorno. Pintado, también analista del Estado Mayor de la Defensa de España, pone de ejemplo un vehículo blindado como el objetivo previamente establecido para el arma autónoma.

“¿Qué pasa si ese blindado de momento ha sido capturado por fuerza propia o aliadas? Qué pasa si ese carro de combate, ese modelo, está siendo usado también por fuerzas aliadas o si está momentáneamente junto a tropas aliadas o contra zonas vedadas, como puede ser un templo o una escuela”, señala.
La carrera tecnológica-armamentística de Rusia, afectada por las sanciones internacionales

Para Ucrania es apenas el comienzo del camino. Para Rusia el desarrollo de armamento con inteligencia artificial es opaco.

“La posición de Rusia en la llamada carrera armamentística de la Inteligencia Artificial ha sido bastante dudosa. Y ahora con la situación económica principal, con las sanciones, con muchas empresas que abandonan el mercado ruso, eso crea muchos problemas para que puedan dar seguimiento a todas estas ambiciosas declaraciones sobre la posible integración de tecnología de IA de vanguardia en su armamento”, explica la investigadora.

Lo más probable, según el analista, es que el uso de estas armas no ocurra en un futuro cercano, especialmente en la guerra de Ucrania.

“No tengo razón para pensar a día de hoy que Ucrania esté planteándose esa clase de soluciones. Al fin y al cabo, también estamos hablando del conflicto, en el que también hay que tener un especial cuidado en evitar una escalada que nos puede llevar a consecuencias inimaginables”, dijo Pintado.
"Hay una necesidad urgente" para regular la inteligencia artificial en la guerra

Los escenarios inexplorados de la inteligencia artificial en la guerra generan una gran preocupación en la comunidad internacional. A nivel civil, el experto en IA Geoffrey Hinton, ha pedido una moratoria de seis meses en el desarrollo de esta tecnología para reflexionar sus posibles consecuencias. Nadibaidze, en la misma línea, pide a los países que aceleren su regulación.

"Los gobiernos de todo el mundo están muy interesados y visiblemente interesados en invertir y seguir invirtiendo mucho dinero en estas tecnologías. Hay una necesidad urgente de abordar esto con normas jurídicamente vinculantes, y hacer frente a estos desafíos, porque actualmente internacional, las normas internacionales actuales y el derecho internacional humanitario no son suficientes para hacer frente a estos desafíos. Estas leyes se hicieron cuando los seres humanos estaban a cargo", dice Nadibaidze.

E insiste: "La idea de que los llamados 'robots asesinos' adquieran conciencia propia y aparezcan en el campo de batalla es algo futurista, propio de la ciencia ficción y de las películas, y el debate no debería centrarse en eso. Debería tratarse de ver lo que ya está sucediendo".