Los sistemas de alerta nuclear de EEUU no están preparados para la IA

Los deepfakes podrían conducir al fin del mundo

2

Desde los albores de la era nuclear, los responsables políticos y estrategas han intentado evitar que un país despliegue armas nucleares por error. Sin embargo, el riesgo de accidentes sigue siendo tan alto como durante la Guerra Fría.

En 1983, un sistema soviético de alerta temprana indicó erróneamente que se estaba preparando un ataque nuclear estadounidense contra la Unión Soviética; dicha advertencia podría haber desencadenado un catastrófico contraataque soviético. El destino se evitó solo porque el supervisor de turno, Stanislav Petrov, determinó que la alarma era falsa. De no haberlo hecho, los líderes soviéticos habrían tenido motivos para disparar las armas más destructivas del mundo contra Estados Unidos.

Misiles nucleares chinos

La rápida proliferación de la inteligencia artificial ha exacerbado las amenazas a la estabilidad nuclear. Un temor es que un estado con armas nucleares pueda delegar la decisión de usarlas en máquinas. Sin embargo, Estados Unidos ha introducido salvaguardias para garantizar que los humanos sigan teniendo la última palabra sobre si lanzar un ataque.

Según la Estrategia de Defensa Nacional de 2022, un humano permanecerá al tanto de cualquier decisión sobre el uso o la suspensión del uso de armas nucleares. El presidente estadounidense, Joe Biden, y el líder chino, Xi Jinping, coincidieron en declaraciones paralelas en que «debe haber control humano sobre la decisión de usar armas nucleares».

Sin embargo, la IA plantea otro riesgo insidioso para la seguridad nuclear. Facilita la creación y difusión de deepfakes: vídeos, imágenes o audios alterados de forma convincente que se utilizan para generar información falsa sobre personas o acontecimientos. Y estas técnicas son cada vez más sofisticadas. Unas semanas después de la invasión rusa de Ucrania en 2022, un deepfake ampliamente compartido mostró al presidente ucraniano,

Volodymyr Zelensky, instando a los ucranianos a deponer las armas; en 2023, un deepfake llevó a la gente a creer falsamente que el presidente ruso, Vladimir Putin, interrumpió la televisión estatal para declarar una movilización a gran escala. En un escenario más extremo, un deepfake podríaWhen deepfakes go nuclear - Coda Story convencer al líder de un estado con armas nucleares de que un primer ataque de un adversario estaba en marcha, o una plataforma de inteligencia basada en IA podría generar falsas alarmas sobre una movilización, o incluso un ataque con bomba sucia, por parte de un adversario.

La administración Trump quiere aprovechar la IA para la seguridad nacional. En julio, publicó un plan de acción que exige el uso intensivo de la IA en todo el Departamento de Defensa. En diciembre, el departamento presentó GenAI.mil, una plataforma con herramientas de IA para empleados. Sin embargo, a medida que la administración integra la IA en la infraestructura de seguridad nacional, será crucial que los responsables políticos y los diseñadores de sistemas sean cautelosos con el papel que desempeñan las máquinas en las primeras fases de la toma de decisiones nucleares.

Hasta que los ingenieros puedan prevenir los problemas inherentes a la IA, como las alucinaciones y la suplantación de identidad (en las que los modelos de lenguaje a gran escala predicen patrones o hechos inexactos), el gobierno estadounidense debe garantizar que los humanos sigan controlando los sistemas de alerta temprana nuclear. Otros estados con armas nucleares deberían hacer lo mismo.

Trump's telephone un-diplomacy - BBC News

Hoy en día, el presidente Donald Trump usa un teléfono para acceder a deepfakes; a veces los republica en redes sociales, al igual que muchos de sus asesores más cercanos. A medida que se difuminan los límites entre la información real y la falsa, aumenta la posibilidad de que estos deepfakes infecten decisiones cruciales de seguridad nacional, incluyendo las relativas a armas nucleares.

Si la desinformación logra engañar al presidente estadounidense, aunque sea por unos minutos, podría ser un desastre para el mundo. Según la ley estadounidense, un presidente no necesita consultar con nadie para ordenar el uso de armas nucleares, ya sea para un ataque de represalia o un primer ataque. Las fuerzas militares estadounidenses están listas para desplegar aviones, submarinos y misiles terrestres con ojivas nucleares. Un misil balístico intercontinental estadounidense puede alcanzar su objetivo en media hora, y una vez lanzado, nadie puede retirarlo. 

Los deepfakes podrían ayudar a crear pretextos para la guerra.

Tanto las fuerzas nucleares estadounidenses como las rusas están preparadas para «lanzar en caso de alerta», lo que significa que pueden desplegarse en cuanto se detecten misiles enemigos dirigiéndose hacia ellas. Esto deja solo unos minutos para que un líder evalúe si ha comenzado un ataque nuclear de un adversario. (Según la política actual de EE. UU., el presidente tiene la opción de retrasar una decisión hasta que un arma nuclear adversaria impacte en Estados Unidos). 

Si el sistema de alerta temprana estadounidense detecta una amenaza para el país, lasWhen deepfakes go nuclear - Coda Story autoridades intentarán verificar el ataque utilizando fuentes tanto clasificadas como no clasificadas. Podrían consultar datos satelitales para detectar la actividad en instalaciones militares conocidas, monitorear declaraciones recientes de líderes extranjeros y consultar redes sociales y fuentes de noticias extranjeras para obtener contexto e informes sobre el terreno. Los oficiales militares, funcionarios públicos y funcionarios políticos deben entonces decidir qué información comunicar a los niveles superiores y cómo presentarla.

La desinformación impulsada por la IA podría desencadenar crisis en cascada. Si se utilizan sistemas de IA para interpretar datos de alerta temprana, podrían alucinar un ataque que no es real, poniendo a los funcionarios estadounidenses en una posición similar a la de Petrov hace cuatro décadas. Debido a que la lógica interna de los sistemas de IA es opaca, los humanos a menudo desconocen por qué la IA llegó a una conclusión particular. Las investigaciones muestran que las personas con un nivel promedio de familiaridad con la IA tienden a deferir a los resultados de las máquinas en lugar de verificar el sesgo o los falsos positivos, incluso cuando se trata de seguridad nacional.

Sin una capacitación exhaustiva, herramientas y procesos operativos que tengan en cuenta las debilidades de la IA, los asesores de los tomadores de decisiones de la Casa Blanca podrían asumir, o al menos considerar, la posibilidad de que el contenido generado por la IA sea preciso.

Los deepfakes que se transmiten en medios de código abierto son casi igual de peligrosos. Tras ver un video deepfake, un líder estadounidense podría, por ejemplo, malinterpretar las pruebas de misiles rusos como el inicio de ataques ofensivos o confundir los ejercicios con fuego real chinos con un ataque contra aliados de EE. UU. Los deepfakes podrían ayudar a crear pretextos para la guerra, generar apoyo público para un conflicto o sembrar la confusión.

Una mirada crìtica

Como a IA está promovendo avanços na energia nuclear - Olhar DigitalEn julio, la administración Trump publicó un plan de acción de IA que exigía un despliegue agresivo de herramientas de IA en todo el Departamento de Defensa, la burocracia más grande del mundo. La IA ha demostrado ser útil para aumentar la eficiencia de partes del ejército. El aprendizaje automático facilita la programación del mantenimiento de los destructores de la marina. La tecnología de IA integrada en municiones autónomas, como los drones, puede permitir a los soldados mantenerse a distancia del frente.

Y las herramientas de traducción de IA ayudan a los oficiales de inteligencia a analizar datos sobre países extranjeros. La IA incluso podría ser útil en otras tareas estándar de recopilación de inteligencia, como identificar distinciones entre imágenes de bombarderos estacionados en aeródromos de un día para otro.

La bomba atómica sobre Hiroshima

La implementación de la IA en los sistemas militares no tiene por qué ser una cuestión de todo o nada. Existen áreas que deberían estar fuera del alcance de la IA, como los sistemas de alerta temprana nuclear y el comando y control, donde los riesgos de alucinaciones y suplantación de identidad superan los beneficios que podría aportar el software basado en IA. Los mejores sistemas de IA se basan en conjuntos de datos exhaustivos y contrastados. Los sistemas de alerta temprana nuclear carecen de ambos, ya que no se han producido ataques nucleares desde los de Hiroshima y Nagasaki.

Cualquier sistema de detección nuclear con IA probablemente tendría que entrenarse con datos existentes de pruebas de misiles y seguimiento espacial, además de datos sintéticos. Los ingenieros tendrían que programar defensas contra alucinaciones o evaluaciones de confianza inexactas, lo cual supone importantes obstáculos técnicos.

Puede resultar tentador sustituir las comprobaciones realizadas por personal altamente cualificado por herramientas de IA o utilizar la IA para fusionar diversas fuentes de datos y acelerar el análisis, pero eliminar la mirada humana crítica puede dar lugar a errores, sesgos y malentendidos. Así como el Departamento de Defensa exige un control humano significativo de los drones autónomos, también debería exigir que cada elemento de la tecnología de alerta temprana e inteligencia nuclear cumpla con estándares aún más exigentes. Las herramientas de integración de datos de IA no deberían sustituir a los operadores humanos que informan sobre misiles balísticos entrantes.

Los esfuerzos para confirmar la alerta temprana de un lanzamiento nuclear a partir de datos satelitales o de radar deberían seguir siendo solo parcialmente automatizados. Y los participantes en teleconferencias críticas sobre seguridad nacional deberían considerar únicamente datos verificados e inalterados.

En julio de 2025, el Departamento de Defensa solicitó fondos al Congreso para incorporar nuevas tecnologías al comando, control y comunicaciones nucleares. El gobierno estadounidense se beneficiaría más limitando la integración de la IA y la automatización a la ciberseguridad, los procesos de negocio y el análisis, y tareas sencillas, como garantizar que la energía de respaldo se active cuando sea necesario.

Una estrategia clásica

Hoy en día, el peligro de una guerra nuclear es mayor que en décadas. Rusia ha amenazado con usar armas nucleares en Ucrania, China está expandiendo rápidamente su arsenal, Corea del Norte ahora tiene la capacidad de enviar misiles balísticos intercontinentales a Estados Unidos, y las políticas para prevenir la proliferación están flaqueando. En este contexto, es aún más importante garantizar que sean humanos, y no máquinas entrenadas con datos deficientes o incompletos, quienes juzguen las acciones, las intenciones y los objetivos de un adversario.

Las agencias de inteligencia deben mejorar el rastreo de la procedencia de la información derivada de la IA y estandarizar su comunicación con los responsables políticos cuando los datos son aumentados o sintéticos. Por ejemplo, cuando la Agencia Nacional de Inteligencia Geoespacial utiliza IA para generar inteligencia, añade una declaración al informe si el contenido es generado por máquinas.

Los analistas de inteligencia, los responsables políticos y su personal deben recibir formación para aplicar mayor escepticismo y verificación de datos al contenido que no es inmediatamente verificable, al igual que muchas empresas están ahora alertas contra el phishing cibernético. Y las agencias de inteligencia necesitan la confianza de los responsables políticos, quienes podrían estar más inclinados a creer lo que sus propios ojos y dispositivos les dicen, sea cierto o falso, que lo que arroja una evaluación de inteligencia.

Dan consejos sobre qué hacer en caso de un eventual ataque nuclear en ...
La IA ya puede engañar a los líderes para que vean un ataque que no existe

Los expertos y tecnólogos deben seguir trabajando para encontrar maneras de etiquetar y frenar la información, las imágenes y los vídeos fraudulentos que circulan por las redes sociales y que pueden influir en los responsables políticos. Sin embargo, dada la dificultad de controlar la información de código abierto, es aún más importante que la información clasificada sea precisa.

Las actualizaciones de la administración Trump a la postura nuclear estadounidense en la Estrategia de Defensa Nacional deberían proteger contra los riesgos probables y complejos que la información de IA presenta para las armas nucleares, reafirmando que una máquina nunca tomará una decisión de lanzamiento nuclear sin control humano. Como primer paso, todos los estados con armas nucleares deberían acordar que solo los humanos tomarán decisiones sobre el uso de armas nucleares. Posteriormente, deberían mejorar los canales de comunicación para las crisis. Existe una línea directa de diálogo entre Washington y Moscú, pero no entre Washington y Pekín.

La política y la postura nuclear de Estados Unidos han cambiado poco desde la década de 1980, cuando los líderes temían que la Unión Soviética atacara de improviso. Los responsables políticos de aquel entonces no podían comprender la cantidad de desinformación que llegaría a los dispositivos personales de quienes hoy están a cargo de las armas nucleares. Tanto el poder legislativo como el ejecutivo deberían reevaluar las políticas sobre armas nucleares diseñadas para la Guerra Fría.

Por ejemplo, los responsables políticos podrían exigir a los futuros presidentes que consulten con los líderes del Congreso antes de lanzar un primer ataque nuclear, o exigir un plazo para que los profesionales de inteligencia validen la información en la que se basa la decisión. Dado que Estados Unidos cuenta con opciones eficaces para un segundo ataque, la precisión debería primar sobre la velocidad.

La IA ya tiene el potencial de engañar a los principales responsables de la toma de decisiones y a los miembros de la cadena de mando nuclear para que vean un ataque inexistente. En el pasado, solo el diálogo auténtico y la diplomacia evitaron malentendidos entre los estados con armas nucleares. Las políticas y prácticas deberían proteger contra los riesgos perniciosos de la información que, en última instancia, podrían conducir al fin del mundo.

  • Investigadora principal de Seguridad Nuclear Stanton en el Consejo de Relaciones Exteriores de EEUU.
También podría gustarte

Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.