La Eurocámara aprueba negociar la primera ley sobre IA del mundo

177

El Parlamento Europeo ha aprobado este miércoles por amplia mayoría su posición final sobre la Ley de Inteligencia Artificial (IA), con lo que se abre la puerta a que comiencen de inmediato las discusiones con los Estados de la Ue y la Comisión, los denominados trílogos. El objetivo es culminar las negociaciones durante la presidencia española de la Ue, que ya ha declarado este reglamento una de sus prioridades. Todo ello para que, como tarde en 2026, pero quizás aún antes, Europa se convierta en la primera región del mundo que cuente con normas en vigor que regulen una tecnología en rápida evolución y que promete tanto como asusta por sus posibilidades infinitas de cambiar la sociedad.Thierry Breton – Der Krisenmanager • Europe.Table

El comisario de Mercado Interior, Thierry Breton, ha celebrado de inmediato una votación cómoda —499 votos a favor, 28 en contra y 93 abstenciones— que convierte a la Eurocámara, ha recordado, en “el primer parlamento del mundo que vota una regulación integral de IA”.“La IA forma ya parte de manera significativa de nuestras vidas y ha provocado una serie de dudas en materia de ética, escrutinio, innovación y la necesidad de dar con el marco regulador correcto”, ha recordado por su parte la presidenta de la Eurocámara, Roberta Metsola, al celebrar el avance logrado con la votación de la posición parlamentaria, con la que “Europa toma la iniciativa y lo hace a nuestra manera, de forma responsable”.

“Si hay algo en lo que no podemos admitir compromisos es en el hecho de que, cada vez que la tecnología avanza, tiene que ir de la mano con nuestros derechos fundamentales y valores democráticos”, ha subrayado Metsola.

La posición final de los eurodiputados es más estricta que la que ya aprobaron los Estados en diciembre y que ahora tendrá que ser negociada para obtener un solo texto final: además de los denominados sistemas de crédito social, ya vetados en la propuesta original de la Comisión, la Eurocámara quiere prohibir también los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas de identificación biométrica remota, la categorización basada en características sensibles como el género, raza, etnia, religión u orientación política.

Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europa, estrecha la mano del secretario de Estado de Estados Unidos, Antony Blinken, durante un evento en Lulea, Suecia, el miércoles 31 de mayo de 2023. (Jonas Ekstromer/TT News Agency vía AP)
Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europa, estrecha la mano del secretario de Estado de EU, Antony Blinken

También prevé vetar la vigilancia policial predictiva para evaluar el riesgo de una persona o grupo de personas de cometer un delito u ofensa (basados en el perfil, la localización de dichas personas o en su pasado criminal), así como los sistemas de reconocimiento de emociones, por ejemplo por parte de la policía, agentes de fronteras o en lugares de trabajo y escuelas.“El mundo ha madurado para que este enfoque basado en el uso y los riesgos sea el que más sentido tiene de cara al futuro”.

El Partido Popular Europeo (PPE) había presentado en el último momento —y rompiendo así, según los negociadores de la ley, un acuerdo para no añadir nada no discutido— una enmienda para recuperar las excepciones previstas originalmente y permitir a las fuerzas del orden usar sistemas biométricos de reconocimiento, como el facial, en lugares públicos en tiempo real para casos muy concretos, como la búsqueda de un niño desaparecido o un ataque terrorista.

Es una posición similar a la que aprobó el Consejo en diciembre. Finalmente, ha sido rechazada en el pleno, pese a que durante el debate de la ley, el martes, el eurodiputado popular Jeroen Lenaers la había defendido como una muestra de que, cuando se trata de IA, “no solo hay que hablar de cómo se protege a la ciudadanía de la IA, sino también de cómo la IA puede proteger a la ciudadanía”.

La propuesta final sí sigue permitiendo el uso “ex post” de este tipo de tecnologías para esos casos contados, siempre y cuando se cuente con una orden judicial para ello. Una medida suficiente, según los ponentes de la propuesta parlamentaria, el italiano Brando Benifei (S&D) y el rumano Dragos Tudorache (Renew) para abordar estos casos.

 Riesgo “inaceptable”

Los sistemas de IA generativa —capaces de crear contenidos originales de audio, texto o imágenes a partir de la observación de otros datos— como el ChatGPT, eran poco conocidos cuando se daban los primeros pasos legislativos, pero ahora están en la mente de todos, incluidos sus creadores, muchos de los cuales son firmes demandantes de una demarcación clara de su uso.

Los eurodiputados han añadido capas extra de seguridad y transparencia a los desarrolladores de estos modelos fundacionales en esta normativa que se basa no en regular tecnologías concretas, sino en cómo se utiliza: la ley crea categorías que van desde el riesgo “inaceptable” (prohibidas por la legislación) a otras menores que son aceptadas, aunque sometidas a rigurosos controles para que no afecten a las libertades y derechos ciudadanos, sobre todo la segunda categoría más alta, la de “alto riesgo”, que es donde entraría la IA generativa.

Los proveedores de estos modelos fundacionales deberán, según la propuesta de los eurodiputados, garantizar una “protección robusta” de los derechos fundamentales ciudadanos, para lo que deberán “evaluar y mitigar riesgos, cumplir con los requisitos de diseño, información y medioambientales” europeos y estar “registrados” en la base de datos de la Ue.

Además, modelos generativos como ChatGPT deberán cumplir requisitos adicionales de “transparencia”: así, tendrán que dejar claro que el contenido fue generado por un sistema de IA, para lo que se les exigirá una marca de agua que los distinga. De igual manera, deberán diseñar sus modelos de forma tal que impidan que estos creen contenido ilegal y, en aras de la protección de los derechos de autor, deberán publicar los datos usados para el entrenamiento de estos sistemas, de manera tal que si un autor considera que se han violado sus derechos mediante el uso de su material por los algoritmos, pueda acudir a las vías legales existentes en la Ue para reclamar o exigir una indemnización.“Queremos que el contenido de la IA sea reconocible y que los deep fakes no envenenen nuestra democracia”

El director general de la firma OpenAI, Sam Altman, habla durante una audiencia sobre Inteligencia Artificial de la Subcomisin Judicial del Senado sobre Privacidad, Tecnologia y la Ley el martes 16 de mayo de 2023, en el Capitolio, en Washington, D.C. (AP Foto/Patrick Semansk)
El director general de la firma OpenAI, Sam Altman

“Queremos que el contenido de la IA sea reconocible y que los deep fakes no envenenen nuestra democracia”, ha indicado Benifei. Durante el debate del martes, la vicepresidenta de la Comisión Europea para el Área Digital y de Competencia, Margrethe Vestager, había destacado la importancia de contar con un marco normativo para la IA porque, dijo en el pleno de la Eurocámara, permite “crear confianza y seguridad jurídica”. Y así, añadió, “se pueden hacer grandes cosas con la IA si se puede confiar en ella”.

La danesa, que a finales de mayo lanzó junto con Estados Unidos una propuesta para crear un “código de conducta” voluntario para la industria de IA generativa en el marco del G-7 que sirva de “puente” hasta que la ley europea y otras en otras zonas del mundo estén en marcha, afirma que ahora es “el momento oportuno” para legislar esta tecnología de la forma en que la aborda la Ue. “El mundo ha madurado para que este enfoque basado en el uso y los riesgos sea el que más sentido tiene de cara al futuro”, afirmó. Por su parte, el comisario Breton consideró que Europa es el continente “más capaz de realizar esta reglamentación de manera equilibrada, transparente y proporcionada”.

“Tenemos la posibilidad de establecer de forma progresiva una norma mundial”, agregó el francés, que este miércoles ha adelantado su intención de celebrar el primer trílogo esta misma noche en Estrasburgo porque “no hay tiempo que perder. Cuento con la próxima presidencia española de la Ue para trabajar en este gran tema para lograr un texto final al término del año”, ha adelantado. Benifei se declara incluso “seguro” de que este plazo será posible incluso si llega a producirse un cambio de Gobierno en España el 23 de julio, ya que, sostiene el socialdemócrata italiano, la presidencia española se ha mostrado “muy comprometida” con este asunto.

Fuentes comunitarias reconocen, no obstante, que no va a ser fácil conciliar la visión más centrada en la seguridad nacional de los Estados con la de la protección de los derechos fundamentales ciudadanos en las áreas de alto riesgo. Pero también se declaran optimistas en vista del contexto en que se producirán las negociaciones: una creciente preocupación por los riesgos que puede implicar la IA generativa, manifestado incluso por sus desarrolladores, muchos de los cuales han pedido explícitamente una regulación, y los mensajes de otras zonas y países del mundo dispuestos ya también a establecer salvaguardias para una tecnología cuyas posibilidades son incluso difíciles de imaginar. La idea básica, señalan, es que ni Europa, ni nadie, se puede permitir no regular una cuestión tan importante. Benifei, de hecho, considera que hay “apetito suficiente” para adelantar incluso los tiempos y que la ley de inteligencia artificial entre en vigor, total o parcialmente, antes de lo previsto por la Comisión, que espera su implementación total en 2026.

 

*Corresponsal de El País en Bruselas. Licenciada en Periodismo por la Universidad Complutense de Madrid, comenzó su carrera en la agencia Efe y continuó en la alemana Dpa, para la que fue corresponsal en Santiago de Chile, La Habana y Washington.

También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.


El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.