La extrema derecha y el uso de la inteligencia artificial
Los investigadores encuentran un uso generalizado de la inteligencia artificial entre grupos de extrema derecha y organizaciones terroristas.
El 29 de julio, alrededor del mediodía, en la ciudad de Southport, en el noroeste de Inglaterra, un chico de 17 años irrumpió en una fiesta infantil en una escuela de danza y yoga, organizada por uno de sus profesores. Armado con un cuchillo, el joven mató a tres niños, de seis, siete y nueve años, hirió a otros ocho y a dos adultos más que intentaron protegerlos, entre ellos el profesor que había organizado el acto. La policía y las ambulancias llegaron en cuestión de minutos. Detenido en el acto, el joven fue identificado como Axel Rudakubana, de 17 años, ciudadano británico, cuyos padres procedían de Ruanda, África. Como era menor de edad, por motivos legales la policía no reveló de inmediato su identidad. Posteriormente, comenzaron a circular falsas especulaciones en las redes sociales.
En 24 horas proliferaron 27 millones de visitas a un mensaje que identificaba al agresor como musulmán (lo cual no era cierto) y le daba un nombre falso. Otros mensajes lo identificaban como un refugiado ilegal que había llegado a Inglaterra en barco en busca de asilo. “Influencers” y un sitio web identificado como Canal3Ahora (que luego se disculparía) difundió rápidamente dichos mensajes. Uno de estos señaló que “el alma del hombre occidental se desgarra cuando los invasores matan a sus hijas”.
Otro mensaje, generado por inteligencia artificial, presentaba en la plataforma X la imagen de algunos hombres supuestamente musulmanes persiguiendo a un niño, con el parlamento Británico como fondo, con el rótulo “necesitamos proteger a nuestros niños”.
Inmediatamente, en Southport, una multitud, según la policía, animada por personas que no viven en la ciudad, comenzó a atacar una mezquita y se peleó con la policía. Los ataques a mezquitas y centros de recepción de refugiados e inmigrantes se extendieron por varias ciudades de Inglaterra, incluidas las populosas Londres y Manchester.
El caso llamó la atención de investigadores sobre la relación entre grupos extremistas, especialmente de extrema derecha, y el uso de la inteligencia artificial.
Investigadores de Investigación de medios de Oriente Medio, de Estados Unidos, llamó la atención en su informe que mapea decenas de casos similares. Muestra que estos grupos, utilizando herramientas de inteligencia artificial, graban las voces e imágenes de artistas, políticos y otros personajes famosos. Luego difundieron mensajes falsos como si fueran propios, afirmando la supremacía blanca y atacando a negros, musulmanes y judíos.
Los vídeos falsos, los llamados «deep fake», pueden ser la bomba de hidrógeno de la propaganda.
Según el investigador del grupo NETLab, de la Universidad Federal de Río de Janeiro, grupos de extrema derecha difundieron mensajes con instrucciones que llegan incluso a ilustrar la fabricación de armas y explosivos, siempre utilizando herramientas de inteligencia artificial. En América Latina, los destinatarios preferidos de este tipo de mensajes han sido México, Colombia, Ecuador y Argentina.
Los investigadores sobre el tema llaman la atención sobre el hecho de que este uso de la inteligencia artificial también está muy extendido entre organizaciones terroristas como el Estado Islámico y Al Qaeda.
En Inglaterra, los ataques disminuyeron después de que grandes manifestaciones antirracistas tomaran las calles de decenas de ciudades británicas. Las encuestas mostraron que el 85% de la población rechazaba la violencia. Sin embargo, el 42% de los entrevistados reconoció la legitimidad de manifestaciones con esas motivaciones, siempre que fueran pacíficas.
* Periodista y escritor, es profesor jubilado de literatura brasileña en la Universidad de Sao Paulo. Autor, entre otros libros, de Crónicas del mundo al revés (boitempo). Publicado en aterraeredonda.com.br
Los comentarios están cerrados.