Abr 9 2018
2998 lecturas

Ciencia y Tecnolog铆a

Armas aut贸nomas: El peligro de las m谩quinas que aprenden a matar solas

Su sigla en ingl茅s es LAWS. Son los sistemas de armas letales aut贸nomas, tambi茅n llamados robots asesinos. Lejos de ser alucinaciones futuristas de escritores de ciencia ficci贸n, constituyen uno de los n煤cleos de la carrera armamentista hoy en curso.

EE.UU. est谩 conduciendo un plan agresivo para desarrollar diferentes tipos de armamento semiaut贸nomo y aut贸nomo, realizando tanto investigaci贸n b谩sica como aplicada. Entre los aspectos centrales est谩n la mejora de la percepci贸n, razonamiento e inteligencia de m谩quinas pero tambi茅n las interacciones de colaboraci贸n entre m谩quinas y humanos.Resultado de imagen para armas autonomas

A modo de ejemplo, uno de los principales programas 鈥 conducidos por DARPA (Defense Advanced Research Projects Agency) 鈥 es OFFSET (OFFensive Swarm-Enabled Tactics), que apunta a la integraci贸n de flotillas de drones 鈥渋nteligentes鈥 (鈥渄rone-swarms鈥) con robots terrestres y peque帽as unidades de infanter铆a para operar en contextos urbanos.

Otro caso es el Proyecto Maven 鈥 recientemente puesto en entredicho por empleados de Google por la participaci贸n de esa corporaci贸n en el mismo 鈥 que involucra el uso de inteligencia artificial para identificar blancos potenciales de bombardeo con drones.

(Extracto The Guardian, clip producido por Campa帽a StopKillerRobots)

La importancia que adjudica el Departamento de Defensa estadounidense a los sistemas aut贸nomos se ve reflejada en sus planes de inversi贸n. El gasto previsto para su desarrollo entre 2016 y 2020 es de 18 mil millones de d贸lares[1], a lo que se agregan otras iniciativas de investigaci贸n sobre Inteligencia Artificial financiadas por el gobierno (que en 2015 totalizaron unos 1100 millones).

Pero adem谩s de la inversi贸n estatal, la industria militar de los EE.UU. se basa en un extendido 鈥渆j茅rcito de reserva鈥 civil, compuesto por empresas, universidades e individuos innovadores, entramado que diluye la frontera entre aplicaciones comerciales y militares. El caso del armamento aut贸nomo no es una excepci贸n, sobre todo en lo relacionado con los avances de la inteligencia artificial.

La nueva guerra fr铆a tecnol贸gica: la Inteligencia Artificial

Este intento estadounidense por mantener posiciones de ventaja en el campo b茅lico es desafiado por varios pa铆ses que tambi茅n ven en la IA la llave de la supremac铆a tecnol贸gica y econ贸mica futuras.

Resultado de imagen para armas autonomasEl Consejo de Estado de China dio a conocer en Julio 2017 una hoja de ruta que aspira a convertir al pa铆s en el centro de innovaci贸n global en IA para 2030. A tal fin, dispone de un presupuesto de m谩s de un trill贸n de yuanes (alrededor de 147.8 mil millones de d贸lares estadounidenses).[2]聽En Enero 2018 se anunci贸 la construcci贸n de un parque industrial dedicado a 30 km de Beijing, en el que el gobierno aspira a alojar a unas 400 compa帽铆as del sector. Seg煤n averiguaciones de la revista聽Nature, se ha desatado una guerra por emplear talentos de IA 鈥 relativamente escasos todav铆a 鈥 atray茅ndolos con suculentos salarios.

En el campo del armamento, China est谩 decidida a imitar el modelo de EE.UU., abriendo la puerta a un entretejido de investigaci贸n y aplicaci贸n civil-militar, seg煤n lo anuncia el peri贸dico militar PLA Daily en su edici贸n del 7 de Agosto 2016.[3]聽Incluso poniendo en marcha un organismo de investigaci贸n militar de tecnolog铆a avanzada (Scientific Research Steering Committee), que es visto por los analistas del sector como el s铆mil chino de la agencia DARPA.

Corea del Sur, Rusia, Israel, India, Francia y Gran Breta帽a a su vez tienen sus propios planes. El gobierno surcoreano, siguiendo el modelo japon茅s, apunta a un poderoso desarrollo de la rob贸tica industrial y de uso dom茅stico, pero tambi茅n militar, poniendo el 茅nfasis en los sistemas no tripulados (drones) y de vigilancia, compartiendo con Israel el dudoso honor de haber instalado centinelas robots con poder de fuego aut贸nomo en sus fronteras.

Israel es uno de los principales exportadores de sistemas aut贸nomos armados, tanto en el campo a茅reo, como tambi茅n en el mar铆timo y terrestre. Rusia tampoco quiere quedarse atr谩s en esta batalla cient铆fico-tecnol贸gica. De all铆 que lanz贸 鈥 acorde con el reporte del SIPRI 鈥Mapeando el desarrollo de la autonom铆a en sistemas de armamento鈥 鈥 el programa Robotics 2025 y cre贸 un Centro de Desarrollo de Rob贸tica en Skolkovo (SRC) en 2014.

Seg煤n el informe citado, 鈥渆l ministro de Defensa franc茅s Jean-Yves Le Drian, anunci贸 en Febrero 2017 que la IA jugar谩 un rol cada vez m谩s importante en el desarrollo de nuevas tecnolog铆as militares para asegurar que Francia no quede en desventaja frente a sus aliados, EE.UU. y Gran Breta帽a.鈥 En cuanto a esta 煤ltima, el reporte se帽ala que 鈥淕ran Breta帽a es el pa铆s de Europa que m谩s invierte en investigaci贸n y desarrollo militar (R&D)鈥. La rob贸tica y los sistemas aut贸nomos 鈥渟on una de las 10 谩reas prioritarias de la Estrategia de Modernizaci贸n Industrial 2017鈥, agrega el informe.

Algo similar ocurre en Alemania 鈥 segundo productor mundial de rob贸tica industrial 鈥 e India, donde la investigaci贸n militar en la materia es desarrollada por el Centre for Artificial Intelligence and Robotics, ubicado en Bangalore en el Estado de Karnataka.

Superar al mejor sin conocimientos previos en tan s贸lo 41 d铆as

Resultado de imagen para armas autonomasEste titular, digno de un aviso publicitario de cualquier mediocre academia de cursos, describe con precisi贸n un dram谩tico avance del conocimiento dado a conocer en Diciembre 2017. Su protagonista no es humano (al menos luego de su creaci贸n) y su nombre AlphaGo Zero.

Se trata de un algoritmo de inteligencia artificial aplicado al juego chino de go, que permiti贸 que sin m谩s datos que las reglas de juego, este nuevo 鈥渏ugador鈥 digital batiera al actual campe贸n del mundo 鈥 su predecesor tambi茅n electr贸nico, AlphaGo 鈥 venci茅ndolo en cien partidas sin derrota alguna. Ambos campeones, entrante y saliente, fueron prohijados por la compa帽铆a Deep Mind, adquirida por Google (Alphabet Inc.) en 2014.

Lo de 鈥渄ram谩tico avance鈥 es literal. Hasta ahora, la capacidad de aprendizaje de esta tecnolog铆a digital, se basaba en la posibilidad de procesar terabytes de datos suministrados previamente. En el caso de juegos como el go, ajedrez, p贸ker o 鈥渢res en l铆nea鈥 se trataba de una gran cantidad de partidas jugadas con anterioridad por los m谩s brillantes contendientes humanos.

AlphaGo Zero聽no fue alimentado con partida alguna. Jug贸 contra s铆 mismo comenzando desde el nivel de novato, hasta lograr en 41 d铆as convertirse 鈥 as铆 la nota del sitio web de la compa帽铆a 鈥 鈥渆n probablemente el mejor jugador de go del mundo鈥. La poderosa estructura inform谩tica utilizada es conocida como 鈥渞edes neuronales鈥, alimentada con procesos de 鈥渞einforcement learning鈥漑4].

Esta fabulosa capacidad de aprendizaje, tan similar al comportamiento humano, no es sin embargo general sino limitada a un problema preciso. 驴Pero si el problema acotado fuera matar enemigos? Si cualquier instrumento mort铆fero actual tuviera acoplado un algoritmo de estas caracter铆sticas, con sistemas de identificaci贸n de imagen y lenguaje en base a par谩metros espec铆ficos 鈥 por ejemplo los de una poblaci贸n campesina en una zona clasificada por estrategas militares como 鈥渉ostil鈥; si este sistema adem谩s pudiera interactuar en segundos con bases de datos en l铆nea o acopiados con anterioridad; 驴Qu茅 impedir铆a que estos sistemas pudieran autoordenarse liquidar a dichos enemigos?

Sin duda que habr铆a 鈥渄a帽o colateral鈥 鈥 usando la nefasta jerga militar que separa asesinatos previstos de v铆ctimas no involucradas en el conflicto 鈥 pero, 驴no ser铆a m谩s 鈥渆ficiente鈥 y quir煤rgico que simplemente bombardear poblados enteros como se hace hoy en Yemen, Siria, Gaza, Irak, Afganist谩n o Somalia?

Lo mismo podr铆a imaginarse respecto a la eliminaci贸n de infraestructuras cr铆ticas, pudiendo as铆 terminar una guerra en cuesti贸n de pocos d铆as. Obviando sus posteriores secuelas, claro.

Precisamente ese argumento, tan c铆nico y fat铆dico como suena, es el esgrimido por los que impulsan la inversi贸n, investigaci贸n y desarrollo de armas aut贸nomas letales.

Resultado de imagen para armas autonomasM谩s all谩 de las argumentaciones, hay claros motivos impl铆citos en esta mort铆fera aplicaci贸n de sistemas de inteligencia artificial al armamento. Am茅n de mantener supremac铆a b茅lica, lo cual implica la posibilidad de eliminar toda resistencia emergente a la hegemon铆a geoestrat茅gica, se trata de conservar o acrecentar la supremac铆a tecnol贸gica. Lo cual supone claros beneficios econ贸micos para los ganadores y enormes perjuicios para los perdedores.

Ganadores que pertenecen al Norte y perdedores que habitan el Sur global, lo cual no har谩 sino ampliar la brecha socioecon贸mica y el colonialismo tecnol贸gico.

Las empresas implicadas en esta carrera armamentista se prometen contratos millonarios y ganancias siderales por la utilizaci贸n de la Inteligencia Artificial tanto en el campo militar como en el civil y los gobiernos invierten para intentar sacar al estancado capitalismo de una inercia econ贸mica fat铆dica.

Es justamente el negocio armamentista, el que echa por tierra el argumento que promueve la autonom铆a aplicada al armamento. A trav茅s de la masiva comercializaci贸n de estos sistemas y su correspondiente diseminaci贸n, las cosas pueden volverse en contra velozmente, con el peligro asegurado que parte de esta tecnolog铆a sea suministrada por cualquier gobierno o mercader de armas a grupos irregulares.

O que, finalmente en versi贸n simplificada y asequible para 鈥渦so dom茅stico鈥, las armas aut贸nomas puedan ser usadas por cualquier ciudadano ofuscado o alterado ps铆quicamente para jugar videojuegos tomando como blanco a sus propios conciudadanos.

M谩quinas de matar refinadas: hora de parar esta locura聽

Los locos no son s贸lo los que aprietan el gatillo 鈥 lo cual en el caso del armamento aut贸nomo ser铆a dif铆cil de discernir. Es hora de frenar a los desequilibrados del poder, las corporaciones fabricantes y los gobiernos y bancos que financian su producci贸n.

No se detendr谩 el enorme avance tecnol贸gico que supone la Inteligencia Artificial, pero s铆 es posible prohibir internacionalmente la utilizaci贸n de IA para fines b茅licos.

(Clip Campa帽a StopKiller Robots)

Este 9 de Abril comienza en la sede de Naciones Unidas en Ginebra una nueva ronda de la Convenci贸n de Ciertas Armas Convencionales 聽(CCW por sus siglas en ingl茅s), en la que representantes gubernamentales discutir谩n por quinto a帽o consecutivo el tema del armamento aut贸nomo.

Seg煤n informa la Campa帽a StopKillerRobots, 鈥渓uego de 3 a帽os de reuniones exploratorias en las que participaron 80 estados, en 2016 se formaliz贸 un Grupo de Expertos Gubernamentales (GGE)鈥 para abordar la cuesti贸n. Adem谩s de la reuni贸n a desarrollarse del 9 al 13 de Abril, est谩 prevista una segunda del 27 al 31 de Agosto.

En estas reuniones no se tomar谩n decisiones de fondo, pero se producir谩 un informe con propuestas a futuro que ser谩 adoptado en el transcurso de la Convenci贸n de Partes sobre Ciertas Armas Convencionales que tendr谩 lugar entre el 21 y el 23 de Noviembre de este a帽o.

Los activistas se帽alan que 鈥渙torgar poder a sistemas de armamento aut贸nomo para decidir blancos y ataques, erosiona la obligaci贸n fundamental que rige la Ley Humanitaria Internacional (IHL) y atenta contra los derechos humanos establecidos.鈥

La聽Campa帽a StopKillerRobots, que agrupa a m谩s de 50 organizaciones internacionales no gubernamentales, apunta a lograr la prohibici贸n de desarrollo, producci贸n y uso de sistemas de armas completamente aut贸nomos mediante un tratado internacional vinculante y tambi茅n a trav茅s de leyes nacionales y otras medidas.

Resultado de imagen para armas autonomasPor otra parte, m谩s all谩 de que las armas logren total autonom铆a o no, acad茅micos y expertos indican que la aplicaci贸n parcial de Inteligencia Artificial en este campo est谩 produciendo ya efectos devastadores.

Del mismo modo, es preciso considerar que la carrera armamentista desatada por estos nuevos desarrollos, dilapida recursos que son urgentes para mejorar la vida de miles de millones de personas desamparadas.

En lo 煤nico en que tanto promotores como detractores est谩n de acuerdo, es en que estas armas son la tercera revoluci贸n tecnol贸gica de la guerra, luego de la p贸lvora y el armamento nuclear. Esta vez estamos llamados a impedir que esa revoluci贸n se concrete.

Notas

[1]聽Bornstein, J., 鈥楧OD autonomy roadmap: autonomy community of interest鈥, citado en el informe SIPRI,聽 Mapping the development of autonomy in weapons systems, Boulanin V.- Verbruggen M., Noviembre 2017, p谩g 95

[2]聽http://english.gov.cn/policies/latest_releases/2017/07/20/content_281475742458322.htm

[3]聽http://www.americanmilitaryforum.com/forums/threads/china-opens-military-r-d-to-the-private-sector.1410/, citado en el Informe SIPRI, ib铆dem., p谩gina 103

[4]聽Las redes neuronales son un tipo de estructura de aprendizaje computacional en la que la informaci贸n fluye a trav茅s de una serie de placas conectadas en red. Reinforcement learning es una t茅cnica de autoaprendizaje computacional en la cual el agente aprende interactuando con su medio. (en base al material 鈥淭he Weaponization of Increasingly Autonomous Technologies: Artificial Intelligence, Nro. 8鈥, elaborado por United Nations Institute for Disarmament Research (UNIDIR)


Benjamin Haas-The Guardian|

Expertos en inteligencia artificial de cerca de treinta pa铆ses han decidido boicotear a una universidad surcoreana, preocupados por el hecho de que un nuevo laboratorio que la instituci贸n acad茅mica ha creado en colaboraci贸n con una compa帽铆a l铆der en la fabricaci贸n de armas pueda desarrollar robots asesinos.

M谩s de cincuenta acad茅micos de prestigio mundial han firmado una carta en la que piden聽que se boicotee al Instituto Superior de Ciencia y Tecnolog铆a de Corea del Sur聽(Korea Advanced Institute of Science and Technology, KAIST) y a su socio, el fabricante de material de defensa Hanwha Systems. Los investigadores se帽alan que no colaborar谩n con la universidad ni invitar谩n a profesores de esta instituci贸n acad茅mica.

芦La inteligencia artificial te permite llevar a cabo much铆simos proyectos interesantes para salvar vidas, tambi茅n en un contexto militar, pero afirmar abiertamente que el objetivo es desarrollar armas aut贸nomas y tener un socio como 茅ste genera mucha preocupaci贸n禄, indica Toby Walsh, el organizador de esta campa帽a y profesor de la Universidad de Nueva Gales del Sur. 芦Se trata de una universidad muy respetada que ha decidido colaborar con un socio cuya 茅tica es cuestionable y que continuamente vulnera la normativa internacional禄, lamenta.

El boicot se produce en v铆speras de la reuni贸n聽del grupo de expertos de聽Naciones Unidas sobre聽Sistemas de Armamento Letales y Aut贸nomos que se celebrar谩 en Ginebra la pr贸xima semana. M谩s de 20 pa铆ses ya han pedido la prohibici贸n total de los robots asesinos. El uso de la inteligencia artificial en los ej茅rcitos de todo el mundo ha despertado temores sobre que se puedan producir situaciones similares a la que refleja la pel铆cula Terminator y plantea interrogantes sobre la precisi贸n de dichas armas y su capacidad para distinguir entre amigos y enemigos.

Hanwha es uno de los mayores fabricantes de armas de Corea del Sur y produce municiones en racimo que est谩n prohibidas en 120 pa铆ses en virtud de un tratado internacional [Convenci贸n sobre Municiones en Racimo de 2008]. Corea del Sur, as铆 como Estados Unidos, Rusia y China, no es Estado Parte de la convenci贸n.

Walsh empez贸 a preocuparse cuando un art铆culo del peri贸dico聽聽Korea Times afirm贸 que el KAIST iba a participar 芦en la carrera mundial para desarrollar armas aut贸nomas禄. Escribi贸 a la universidad para pedir m谩s informaci贸n pero no obtuvo respuesta.

芦Nos importan los derechos humanos禄

El presidente del KAIST, Sung-Chul Shin, ha manifestado que el boicot le produce tristeza y en un comunicado ha puntualizado que 芦KAIST no tiene ninguna intenci贸n de participar en el desarrollo de sistemas de armas aut贸nomas letales y robots asesinos禄.

芦Como instituci贸n acad茅mica, nos importan los derechos humanos y los est谩ndares 茅ticos禄, ha indicado: 芦Reafirmo una vez m谩s que el KAIST no llevar谩 a cabo ninguna labor de investigaci贸n que sea contraria a la dignidad humana, incluyendo el desarrollo de armas aut贸nomas que no sean controladas en gran parte por un humano禄.

El centro de investigaci贸n para la convergencia de la defensa nacional y la inteligencia artificial de la universidad empez贸 a funcionar el 20 de febrero. Coincidiendo con su inauguraci贸n, Shin afirm贸 que 芦proporcionar铆a una base s贸lida para el desarrollo de tecnolog铆a para la defensa nacional禄.

Seg煤n la informaci贸n聽que en ese momento proporcion贸 el centro, la investigaci贸n se centra en el desarrollo de 芦sistemas de mando y decisi贸n basados en inteligencia artificial, algoritmos de navegaci贸n para veh铆culos submarinos no tripulados, sistemas de entrenamiento de aeronaves inteligentes basados en inteligencia artificial y tecnolog铆a de seguimiento y reconocimiento de objetos inteligentes basada en inteligencia artificial禄.

De hecho, Dodaam Systems, una empresa privada de Corea del Sur, ya fabrica un聽芦robot de combate禄 totalmente aut贸nomo; una torreta fija capaz de detectar objetivos a una distancia de hasta 3 km. Entre sus clientes se incluyen los Emiratos 脕rabes Unidos y Qatar, y ha sido probado en la frontera con Corea del Norte, una zona muy militarizada. En declaraciones a la BBC en 2015, los responsables de la compa帽铆a aseguraron que se hab铆a 芦autoimpuesto restricciones禄 y era necesaria la orden de un humano para lanzar un ataque letal.

Walsh indica que el avi贸n teledirigido militar Taranis, desarrollado por la empresa del Reino Unido BAE Systems, puede funcionar de forma completamente aut贸noma. En su opini贸n, la existencia de robots asesinos aumenta la inseguridad de la poblaci贸n, incluso en un barrio peligroso.

芦Lejos de mejorar la seguridad en la Pen铆nsula de Corea, el desarrollo de armas aut贸nomas empeorar谩 la situaci贸n禄, y se帽ala: 芦Si alg煤n pa铆s fabrica estas armas, tarde o temprano Corea del Norte las tendr谩 y no tendr谩 reparos en utilizarlas contra Corea del Sur禄.

  • Compartir:
X

Env铆e a un amigo

No se guarda ninguna informaci贸n personal


    Su nombre (requerido)

    Su Email (requerido)

    Amigo(requerido)

    Mensaje

    A帽adir comentario