La emergencia de la IA en el ámbito militar nos sumerge en un escenario tenebroso en el que el conocimiento de tus propias capacidades y de las de tus posibles enemigos se difumina y se vuelve muy incierto.
Durante la fase inicial de la invasión rusa de Ucrania, los defensores tuvieron que hacer frente a la superioridad numérica y militar de las fuerzas rusas, que avanzaban hacia Kiev. Una noche, soldados ucranianos utilizaron drones equipados con visión nocturna e inteligencia artificial (IA) dotada a su vez de algoritmos que permitieron atacar objetivos críticos como los camiones de combustible. Se lanzó un ataque coordinado con drones equipados con pequeñas cargas explosivas, lo que permitió infligir daños suficientes a los vehículos clave de un convoy ruso, obligándolo a detener su avance y convirtiendo a sus transportes inmovilizados en una presa fácil para las fuerzas ucranianas.
“Conoce a tu enemigo, conócete a ti mismo, y tendrás en cien batallas, cien victorias”, escribió Sun Tzu en su tratado “El arte de la guerra” hace unos 2.500 años. De alguna forma los humanos, incluyendo nuestros antepasados homínidos, han estado haciéndose la guerra unos a otros de una forma continuada. El conocimiento de tus capacidades y de las de tu enemigo ha resultado ser un factor esencial en la victoria, tal y como preconizó el filósofo militar chino. Sin embargo, la emergencia de la IA nos sumerge en un escenario tenebroso en el que el conocimiento de tus propias capacidades y de las de tus posibles enemigos se difumina y se vuelve muy incierto.
Henry Kissinger definió el conocimiento generado por la IA como una época de “ilustración oscura” en el sentido de que seremos testigos de muchas mejoras, sin saber cómo se han alcanzado, debido a nuestra incapacidad para entender cómo llega a ciertas conclusiones la IA generativa. En su obra póstuma “Génesis” publicada junto con Eric Schmidt (ex CEO de Google) y Craig Mundie (exdirector de investigación de Microsoft), los autores dedican un capítulo a analizar las implicaciones que para la seguridad global supondrá el avance de la IA, cuyo papel juzgan fundamental en las guerras futuras.
Entre otros, resaltan los siguientes puntos:
Primero: el equilibrio militar y político logrado con mayor o menor éxito mediante los Estados-nación peligra, a medida que los diferentes países prosigan la búsqueda de superinteligencia artificial con fines militares. La percepción de que un oponente puede ir por delante en este campo puede provocar una acción militar preventiva, incluso nuclear. La capacidad de la IA para tomar decisiones más rápidamente que el ser humano podría desembocar en acciones militares inesperadas con un potencial de escalada muy preocupante.
Segundo: los países buscan lograr la supremacía en la IA, y priman la velocidad para así lograr una ventaja estratégica, pero obviando la seguridad. El riesgo emergente es generar una IA no alineada con los objetivos humanos, algo que podría poner en riesgo a la humanidad.
Tercero: la IA general o la superinteligencia podrían incluso desbordar a actores estatales o a sus servicios de inteligencia, y seguir una agenda propia, especialmente peligrosa si la IA no está alineada con los objetivos humanos y llega a controlar armamento crítico. Entre otros escenarios, la IA podría desarrollar patógenos altamente eficientes, generando un riesgo significativo de pandemia. También podría manipular a los medios de comunicación mediante desinformación, provocando una gran inestabilidad política en países objetivo, o tomar decisiones de ataque y muerte sin intervención humana, algo totalmente inédito y desequilibrado si el enemigo a batir sigue usando fuerzas convencionales.
La solución puede consistir en llegar a un acuerdo internacional sobre el uso de la IA que limite los riesgos asociados a la seguridad. Pero el tiempo para alcanzarla puede resultar excesivo. Eric Schmidt comentó cómo desde la primera explosión nuclear hasta el inicio de la cooperación internacional para controlar el uso de las armas atómicas transcurrieron casi dos décadas. Si hoy en día dejamos pasar ese periodo sin comenzar a coordinar esfuerzos para controlar la seguridad de la IA, posiblemente será demasiado tarde, teniendo en cuenta la velocidad mucho más acelerada a la que progresa la IA. Según Schmidt, si la humanidad no actúa rápidamente, los riesgos de la IA como ciberataques o usos militares autónomos podrían superar la capacidad de respuesta global. Tal es la situación, que el líder chino Xi Jinping pidió a Henry Kissinger, casi centenario, que acudiera a Beijing para ofrecerle su opinión sobre la seguridad de esta tecnología.
El futuro de la guerra y de la paz pasa por la IA. Esto exige en Occidente dotarse de unas fuerzas armadas capacitadas para la guerra futura, no para la pasada. Sin embargo, hacemos lo contrario. Por ejemplo, la actual ley de tropa y marinería de España, de 2006, limita la capacidad de las FFAA para reclutar estos perfiles, ya que exige pruebas físicas. Si queremos cimentar nuestra seguridad, urge adaptar nuestras leyes a la peligrosa realidad a la que nos enfrentamos.
Decía Einstein que no sabía con qué armas se lucharía la tercera guerra mundial, pero que la cuarta sería con palos y piedras. Con la llegada de la IA puede que su pronóstico sea alarmantemente certero.