Armas autónomas: El peligro de las máquinas que aprenden a matar solas
Su sigla en inglés es LAWS. Son los sistemas de armas letales autónomas, también llamados robots asesinos. Lejos de ser alucinaciones futuristas de escritores de ciencia ficción, constituyen uno de los núcleos de la carrera armamentista hoy en curso.
EE.UU. está conduciendo un plan agresivo para desarrollar diferentes tipos de armamento semiautónomo y autónomo, realizando tanto investigación básica como aplicada. Entre los aspectos centrales están la mejora de la percepción, razonamiento e inteligencia de máquinas pero también las interacciones de colaboración entre máquinas y humanos.
A modo de ejemplo, uno de los principales programas – conducidos por DARPA (Defense Advanced Research Projects Agency) – es OFFSET (OFFensive Swarm-Enabled Tactics), que apunta a la integración de flotillas de drones “inteligentes” (“drone-swarms”) con robots terrestres y pequeñas unidades de infantería para operar en contextos urbanos.
Otro caso es el Proyecto Maven – recientemente puesto en entredicho por empleados de Google por la participación de esa corporación en el mismo – que involucra el uso de inteligencia artificial para identificar blancos potenciales de bombardeo con drones.
(Extracto The Guardian, clip producido por Campaña StopKillerRobots)
La importancia que adjudica el Departamento de Defensa estadounidense a los sistemas autónomos se ve reflejada en sus planes de inversión. El gasto previsto para su desarrollo entre 2016 y 2020 es de 18 mil millones de dólares[1], a lo que se agregan otras iniciativas de investigación sobre Inteligencia Artificial financiadas por el gobierno (que en 2015 totalizaron unos 1100 millones).
Pero además de la inversión estatal, la industria militar de los EE.UU. se basa en un extendido “ejército de reserva” civil, compuesto por empresas, universidades e individuos innovadores, entramado que diluye la frontera entre aplicaciones comerciales y militares. El caso del armamento autónomo no es una excepción, sobre todo en lo relacionado con los avances de la inteligencia artificial.
La nueva guerra fría tecnológica: la Inteligencia Artificial
Este intento estadounidense por mantener posiciones de ventaja en el campo bélico es desafiado por varios países que también ven en la IA la llave de la supremacía tecnológica y económica futuras.
El Consejo de Estado de China dio a conocer en Julio 2017 una hoja de ruta que aspira a convertir al país en el centro de innovación global en IA para 2030. A tal fin, dispone de un presupuesto de más de un trillón de yuanes (alrededor de 147.8 mil millones de dólares estadounidenses).[2] En Enero 2018 se anunció la construcción de un parque industrial dedicado a 30 km de Beijing, en el que el gobierno aspira a alojar a unas 400 compañías del sector. Según averiguaciones de la revista Nature, se ha desatado una guerra por emplear talentos de IA – relativamente escasos todavía – atrayéndolos con suculentos salarios.
En el campo del armamento, China está decidida a imitar el modelo de EE.UU., abriendo la puerta a un entretejido de investigación y aplicación civil-militar, según lo anuncia el periódico militar PLA Daily en su edición del 7 de Agosto 2016.[3] Incluso poniendo en marcha un organismo de investigación militar de tecnología avanzada (Scientific Research Steering Committee), que es visto por los analistas del sector como el símil chino de la agencia DARPA.
Corea del Sur, Rusia, Israel, India, Francia y Gran Bretaña a su vez tienen sus propios planes. El gobierno surcoreano, siguiendo el modelo japonés, apunta a un poderoso desarrollo de la robótica industrial y de uso doméstico, pero también militar, poniendo el énfasis en los sistemas no tripulados (drones) y de vigilancia, compartiendo con Israel el dudoso honor de haber instalado centinelas robots con poder de fuego autónomo en sus fronteras.
Israel es uno de los principales exportadores de sistemas autónomos armados, tanto en el campo aéreo, como también en el marítimo y terrestre. Rusia tampoco quiere quedarse atrás en esta batalla científico-tecnológica. De allí que lanzó – acorde con el reporte del SIPRI “Mapeando el desarrollo de la autonomía en sistemas de armamento” – el programa Robotics 2025 y creó un Centro de Desarrollo de Robótica en Skolkovo (SRC) en 2014.
Según el informe citado, “el ministro de Defensa francés Jean-Yves Le Drian, anunció en Febrero 2017 que la IA jugará un rol cada vez más importante en el desarrollo de nuevas tecnologías militares para asegurar que Francia no quede en desventaja frente a sus aliados, EE.UU. y Gran Bretaña.” En cuanto a esta última, el reporte señala que “Gran Bretaña es el país de Europa que más invierte en investigación y desarrollo militar (R&D)”. La robótica y los sistemas autónomos “son una de las 10 áreas prioritarias de la Estrategia de Modernización Industrial 2017”, agrega el informe.
Algo similar ocurre en Alemania – segundo productor mundial de robótica industrial – e India, donde la investigación militar en la materia es desarrollada por el Centre for Artificial Intelligence and Robotics, ubicado en Bangalore en el Estado de Karnataka.
Superar al mejor sin conocimientos previos en tan sólo 41 días
Este titular, digno de un aviso publicitario de cualquier mediocre academia de cursos, describe con precisión un dramático avance del conocimiento dado a conocer en Diciembre 2017. Su protagonista no es humano (al menos luego de su creación) y su nombre AlphaGo Zero.
Se trata de un algoritmo de inteligencia artificial aplicado al juego chino de go, que permitió que sin más datos que las reglas de juego, este nuevo “jugador” digital batiera al actual campeón del mundo – su predecesor también electrónico, AlphaGo – venciéndolo en cien partidas sin derrota alguna. Ambos campeones, entrante y saliente, fueron prohijados por la compañía Deep Mind, adquirida por Google (Alphabet Inc.) en 2014.
Lo de “dramático avance” es literal. Hasta ahora, la capacidad de aprendizaje de esta tecnología digital, se basaba en la posibilidad de procesar terabytes de datos suministrados previamente. En el caso de juegos como el go, ajedrez, póker o “tres en línea” se trataba de una gran cantidad de partidas jugadas con anterioridad por los más brillantes contendientes humanos.
AlphaGo Zero no fue alimentado con partida alguna. Jugó contra sí mismo comenzando desde el nivel de novato, hasta lograr en 41 días convertirse – así la nota del sitio web de la compañía – “en probablemente el mejor jugador de go del mundo”. La poderosa estructura informática utilizada es conocida como “redes neuronales”, alimentada con procesos de “reinforcement learning”[4].
Esta fabulosa capacidad de aprendizaje, tan similar al comportamiento humano, no es sin embargo general sino limitada a un problema preciso. ¿Pero si el problema acotado fuera matar enemigos? Si cualquier instrumento mortífero actual tuviera acoplado un algoritmo de estas características, con sistemas de identificación de imagen y lenguaje en base a parámetros específicos – por ejemplo los de una población campesina en una zona clasificada por estrategas militares como “hostil”; si este sistema además pudiera interactuar en segundos con bases de datos en línea o acopiados con anterioridad; ¿Qué impediría que estos sistemas pudieran autoordenarse liquidar a dichos enemigos?
Sin duda que habría “daño colateral” – usando la nefasta jerga militar que separa asesinatos previstos de víctimas no involucradas en el conflicto – pero, ¿no sería más “eficiente” y quirúrgico que simplemente bombardear poblados enteros como se hace hoy en Yemen, Siria, Gaza, Irak, Afganistán o Somalia?
Lo mismo podría imaginarse respecto a la eliminación de infraestructuras críticas, pudiendo así terminar una guerra en cuestión de pocos días. Obviando sus posteriores secuelas, claro.
Precisamente ese argumento, tan cínico y fatídico como suena, es el esgrimido por los que impulsan la inversión, investigación y desarrollo de armas autónomas letales.
Más allá de las argumentaciones, hay claros motivos implícitos en esta mortífera aplicación de sistemas de inteligencia artificial al armamento. Amén de mantener supremacía bélica, lo cual implica la posibilidad de eliminar toda resistencia emergente a la hegemonía geoestratégica, se trata de conservar o acrecentar la supremacía tecnológica. Lo cual supone claros beneficios económicos para los ganadores y enormes perjuicios para los perdedores.
Ganadores que pertenecen al Norte y perdedores que habitan el Sur global, lo cual no hará sino ampliar la brecha socioeconómica y el colonialismo tecnológico.
Las empresas implicadas en esta carrera armamentista se prometen contratos millonarios y ganancias siderales por la utilización de la Inteligencia Artificial tanto en el campo militar como en el civil y los gobiernos invierten para intentar sacar al estancado capitalismo de una inercia económica fatídica.
Es justamente el negocio armamentista, el que echa por tierra el argumento que promueve la autonomía aplicada al armamento. A través de la masiva comercialización de estos sistemas y su correspondiente diseminación, las cosas pueden volverse en contra velozmente, con el peligro asegurado que parte de esta tecnología sea suministrada por cualquier gobierno o mercader de armas a grupos irregulares.
O que, finalmente en versión simplificada y asequible para “uso doméstico”, las armas autónomas puedan ser usadas por cualquier ciudadano ofuscado o alterado psíquicamente para jugar videojuegos tomando como blanco a sus propios conciudadanos.
Máquinas de matar refinadas: hora de parar esta locura
Los locos no son sólo los que aprietan el gatillo – lo cual en el caso del armamento autónomo sería difícil de discernir. Es hora de frenar a los desequilibrados del poder, las corporaciones fabricantes y los gobiernos y bancos que financian su producción.
No se detendrá el enorme avance tecnológico que supone la Inteligencia Artificial, pero sí es posible prohibir internacionalmente la utilización de IA para fines bélicos.
(Clip Campaña StopKiller Robots)
Este 9 de Abril comienza en la sede de Naciones Unidas en Ginebra una nueva ronda de la Convención de Ciertas Armas Convencionales (CCW por sus siglas en inglés), en la que representantes gubernamentales discutirán por quinto año consecutivo el tema del armamento autónomo.
Según informa la Campaña StopKillerRobots, “luego de 3 años de reuniones exploratorias en las que participaron 80 estados, en 2016 se formalizó un Grupo de Expertos Gubernamentales (GGE)” para abordar la cuestión. Además de la reunión a desarrollarse del 9 al 13 de Abril, está prevista una segunda del 27 al 31 de Agosto.
En estas reuniones no se tomarán decisiones de fondo, pero se producirá un informe con propuestas a futuro que será adoptado en el transcurso de la Convención de Partes sobre Ciertas Armas Convencionales que tendrá lugar entre el 21 y el 23 de Noviembre de este año.
Los activistas señalan que “otorgar poder a sistemas de armamento autónomo para decidir blancos y ataques, erosiona la obligación fundamental que rige la Ley Humanitaria Internacional (IHL) y atenta contra los derechos humanos establecidos.”
La Campaña StopKillerRobots, que agrupa a más de 50 organizaciones internacionales no gubernamentales, apunta a lograr la prohibición de desarrollo, producción y uso de sistemas de armas completamente autónomos mediante un tratado internacional vinculante y también a través de leyes nacionales y otras medidas.
Por otra parte, más allá de que las armas logren total autonomía o no, académicos y expertos indican que la aplicación parcial de Inteligencia Artificial en este campo está produciendo ya efectos devastadores.
Del mismo modo, es preciso considerar que la carrera armamentista desatada por estos nuevos desarrollos, dilapida recursos que son urgentes para mejorar la vida de miles de millones de personas desamparadas.
En lo único en que tanto promotores como detractores están de acuerdo, es en que estas armas son la tercera revolución tecnológica de la guerra, luego de la pólvora y el armamento nuclear. Esta vez estamos llamados a impedir que esa revolución se concrete.
Notas
[1] Bornstein, J., ‘DOD autonomy roadmap: autonomy community of interest’, citado en el informe SIPRI, Mapping the development of autonomy in weapons systems, Boulanin V.- Verbruggen M., Noviembre 2017, pág 95
[2] http://english.gov.cn/policies/latest_releases/2017/07/20/content_281475742458322.htm
[3] http://www.americanmilitaryforum.com/forums/threads/china-opens-military-r-d-to-the-private-sector.1410/, citado en el Informe SIPRI, ibídem., página 103
[4] Las redes neuronales son un tipo de estructura de aprendizaje computacional en la que la información fluye a través de una serie de placas conectadas en red. Reinforcement learning es una técnica de autoaprendizaje computacional en la cual el agente aprende interactuando con su medio. (en base al material “The Weaponization of Increasingly Autonomous Technologies: Artificial Intelligence, Nro. 8”, elaborado por United Nations Institute for Disarmament Research (UNIDIR)
Anexo
Expertos en inteligencia artificial piden boicotear a una universidad surcoreana si desarrolla robots asesinos
Benjamin Haas-The Guardian|
Expertos en inteligencia artificial de cerca de treinta países han decidido boicotear a una universidad surcoreana, preocupados por el hecho de que un nuevo laboratorio que la institución académica ha creado en colaboración con una compañía líder en la fabricación de armas pueda desarrollar robots asesinos.
Más de cincuenta académicos de prestigio mundial han firmado una carta en la que piden que se boicotee al Instituto Superior de Ciencia y Tecnología de Corea del Sur (Korea Advanced Institute of Science and Technology, KAIST) y a su socio, el fabricante de material de defensa Hanwha Systems. Los investigadores señalan que no colaborarán con la universidad ni invitarán a profesores de esta institución académica.
«La inteligencia artificial te permite llevar a cabo muchísimos proyectos interesantes para salvar vidas, también en un contexto militar, pero afirmar abiertamente que el objetivo es desarrollar armas autónomas y tener un socio como éste genera mucha preocupación», indica Toby Walsh, el organizador de esta campaña y profesor de la Universidad de Nueva Gales del Sur. «Se trata de una universidad muy respetada que ha decidido colaborar con un socio cuya ética es cuestionable y que continuamente vulnera la normativa internacional», lamenta.
El boicot se produce en vísperas de la reunión del grupo de expertos de Naciones Unidas sobre Sistemas de Armamento Letales y Autónomos que se celebrará en Ginebra la próxima semana. Más de 20 países ya han pedido la prohibición total de los robots asesinos. El uso de la inteligencia artificial en los ejércitos de todo el mundo ha despertado temores sobre que se puedan producir situaciones similares a la que refleja la película Terminator y plantea interrogantes sobre la precisión de dichas armas y su capacidad para distinguir entre amigos y enemigos.
Hanwha es uno de los mayores fabricantes de armas de Corea del Sur y produce municiones en racimo que están prohibidas en 120 países en virtud de un tratado internacional [Convención sobre Municiones en Racimo de 2008]. Corea del Sur, así como Estados Unidos, Rusia y China, no es Estado Parte de la convención.
Walsh empezó a preocuparse cuando un artículo del periódico Korea Times afirmó que el KAIST iba a participar «en la carrera mundial para desarrollar armas autónomas». Escribió a la universidad para pedir más información pero no obtuvo respuesta.
«Nos importan los derechos humanos»
El presidente del KAIST, Sung-Chul Shin, ha manifestado que el boicot le produce tristeza y en un comunicado ha puntualizado que «KAIST no tiene ninguna intención de participar en el desarrollo de sistemas de armas autónomas letales y robots asesinos».
«Como institución académica, nos importan los derechos humanos y los estándares éticos», ha indicado: «Reafirmo una vez más que el KAIST no llevará a cabo ninguna labor de investigación que sea contraria a la dignidad humana, incluyendo el desarrollo de armas autónomas que no sean controladas en gran parte por un humano».
El centro de investigación para la convergencia de la defensa nacional y la inteligencia artificial de la universidad empezó a funcionar el 20 de febrero. Coincidiendo con su inauguración, Shin afirmó que «proporcionaría una base sólida para el desarrollo de tecnología para la defensa nacional».
Según la información que en ese momento proporcionó el centro, la investigación se centra en el desarrollo de «sistemas de mando y decisión basados en inteligencia artificial, algoritmos de navegación para vehículos submarinos no tripulados, sistemas de entrenamiento de aeronaves inteligentes basados en inteligencia artificial y tecnología de seguimiento y reconocimiento de objetos inteligentes basada en inteligencia artificial».
De hecho, Dodaam Systems, una empresa privada de Corea del Sur, ya fabrica un «robot de combate» totalmente autónomo; una torreta fija capaz de detectar objetivos a una distancia de hasta 3 km. Entre sus clientes se incluyen los Emiratos Árabes Unidos y Qatar, y ha sido probado en la frontera con Corea del Norte, una zona muy militarizada. En declaraciones a la BBC en 2015, los responsables de la compañía aseguraron que se había «autoimpuesto restricciones» y era necesaria la orden de un humano para lanzar un ataque letal.
Walsh indica que el avión teledirigido militar Taranis, desarrollado por la empresa del Reino Unido BAE Systems, puede funcionar de forma completamente autónoma. En su opinión, la existencia de robots asesinos aumenta la inseguridad de la población, incluso en un barrio peligroso.
«Lejos de mejorar la seguridad en la Península de Corea, el desarrollo de armas autónomas empeorará la situación», y señala: «Si algún país fabrica estas armas, tarde o temprano Corea del Norte las tendrá y no tendrá reparos en utilizarlas contra Corea del Sur».