A casi 80 años de la finalización de la más grande guerra del siglo XX, dos cosas son ciertas: los conflictos bélicos continúan ocupando los encabezados de los noticieros y las nuevas generaciones de IA siguen desempeñando un papel crucial en la estrategia y el combate modernos.
En las siguientes líneas exploraremos cómo la IA ha definido el rumbo del conflicto ruso-ucraniano (la primera guerra en la era de esta tecnología) iniciado en 2022, cómo ésta ha resultado clave en la primera línea de estrategia para anticipar riesgos y salvar vidas, así como la reconfiguración de los conflictos bélicos y sus implicaciones éticas.
El uso de la IA ha transformado la naturaleza de la guerra, pues provee a los tomadores de decisiones (en el campo de batalla) de la invaluable capacidad de procesar grandes volúmenes de datos en tiempo real.
La guerra siempre ha sido un motor clave del avance tecnológico y el conflicto en Ucrania se ha convertido en un campo de pruebas para el uso de la IA. Gracias a las herramientas desarrolladas por empresas occidentales para apoyar al país europeo, el uso de esta tecnología representa el cambio fundamental más significativo jamás registrado en la historia de las guerras.
Tras la invasión rusa en febrero de 2022 (el mayor ataque militar convencional en Europa desde la Segunda Guerra Mundial), el gobierno de Ucrania creó Brave1 – Ukrainian Defense Innovations, una plataforma de coordinación unificada para promover la colaboración entre todos los actores de la industria de la tecnología que, mediante apoyo organizativo, informativo y financiero, impulsa proyectos tecnológicos encaminados a defender al país.
Hasta la fecha, Brave1 ha recibido cientos de propuestas y, por supuesto, muchos desarrollos tienen la finalidad de derrotar al enemigo. Uno de los principales avances observados en Ucrania es el uso de drones autónomos; por ejemplo, BAD One es un robot autónomo con forma de perro, diseñado por la empresa británica Alliance, que se mueve sigilosamente por las zonas de combate, detecta las posiciones enemigas y los campos minados mediante visión térmica. BAD One también se utiliza para llevar munición y reabastecer a los soldados mientras están combatiendo (son auténticos robots asesinos).
Pero no todo es IA para la aniquilación del enemigo, pues también se está utilizando con multas humanitarias; un ejemplo es el reasentamiento de refugiados y personas desplazadas por el conflicto mediante el seguimiento del estado de las carreteras y la infraestructura, así como el control de las rutas de suministro utilizadas para la entrega de alimentos y suministros esenciales. Asimismo, se utiliza para analizar flujos de datos aislados que dan pistas que pueden ayudar a desminar zonas del país (que se ha convertido en la nación más minada del mundo).
Por supuesto, no hay tal cosa como una guerra ética. No obstante, desde la perspectiva militar, existe un conjunto de normas y prácticas que determinan las condiciones y criterios que hacen que una guerra sea, al menos, legítima. La teoría de la guerra justa establece que es ética si se libra por una autoridad legítima y por una causa justa.
¿Está justificado (éticamente) que las máquinas tomen decisiones en el campo de batalla? O, más aún, ¿está justificado que una máquina tome la decisión de matar? Existe una fuerte discusión en algunos medios sobre si las empresas tecnológicas deberían desarrollar herramientas que vayan, de manera abierta, en contra de los principios de la IA inofensiva.
Y es que la historia nos ha demostrado que los inventos desarrollados con fines militares han terminado siendo parte de nuestra vida cotidiana. Basta pensar en Internet, los sistemas GPS o el horno de microondas para preguntarnos si, por ejemplo, los sistemas de espionaje y los métodos de vigilancia aumentada se volverán parte del día a día de los Gobiernos con los ciudadanos.
El riesgo de que estas tecnologías se implementen fuera del campo de batalla (en algún momento del futuro) merece una profunda discusión y un cuidadoso escrutinio ético. Además, darle a la guerra un carácter impersonal y sembrar la idea de que está siendo librada por robots y software es restaurarle importancia al horror y la brutalidad inherentes.
El impacto de la IA en los conflictos bélicos es una cuestión compleja que involucra aspectos tecnológicos, éticos y estratégicos; mientras los avances en este campo continúan, también crecen los temores sobre la falta de control y los posibles abusos. El riesgo de que la IA se convierta en un arma fuera de control está más presente que nunca.
Muchos expertos abogan por una regulación internacional estricta que limite el uso de armas autónomas y la IA en la guerra. El desarrollo descontrolado de estas herramientas podría desencadenar una carrera armamentista similar a la de las armas nucleares en el siglo XX, donde las grandes potencias compiten por dominar la tecnología sin tener en cuenta las posibles consecuencias humanitarias y de seguridad. Lo cierto es que, a medida que los gobiernos y las organizaciones internacionales debaten cómo regular el uso de la IA en los conflictos bélicos, queda claro que estamos ante una nueva frontera tecnológica que transformará la manera en que entendemos las luchas armadas.
En la Segunda Guerra Mundial, Alan Turing (padre de la IA) materializó su idea en la incipiente tecnología Enigma, gracias a la cual el ejército aliado pudo tomar decisiones que le permitieron aniquilar a su oponente y, finalmente, ganar la guerra. En ese entonces no pudo prever el futuro distópico en el que la humanidad debe decidir hasta dónde está dispuesta a llegar en esta peligrosa simbiosis entre tecnología y el poder militar. Y es que, después de 80 años, la IA parece estar a punto de emanciparse.
Los datos en tiempo real, así como la analítica vista como un servicio, representan el futuro en el panorama actual de transformación digital.
Christian Vázquez SánchezComo consecuencia de distintos factores económicos a nivel global, las expectativas a futuro advierten una caída en los precios de las acciones de empresas tecnológicas.
José Luis Vásquez CostaLas plataformas tecnológicas han dejado su carácter especulativo y han pasado a ser parte esencial de las organizaciones.
Christian Vázquez SánchezLas mentalidades o “mindsets” ayudan a tomar resoluciones de calidad en las organizaciones, con una perspectiva más objetiva y clara.
Christian Vázquez Sánchez© 2024 Colegio de Contadores Públicos de México, A.C.
Directorio Contacto Aviso legal Acerca de VeritasInicia sesión o suscríbete para continuar leyendo.