La Eurocámara da luz verde a una histórica Ley de Inteligencia Artificial
LA PRIMERA REGULACIÓN MUNDIAL SOBRE LA MATERIA/ La norma prohíbe la categorización biométrica que sirve para obtener datos sensibles, sistemas de puntuación social o de manipulación del comportamiento.
El texto incluye algunas excepciones, como los sistemas de vigilancia antiterrorista
El Parlamento Europeo aprobó ayer el acuerdo histórico alcanzado en diciembre para fijar las primeras reglas que limiten los riesgos de la inteligencia artificial, con lo que la UE se convierte en el primer territorio en regular esta tecnología. La Eurocámara dio luz verde a este nuevo marco regulatorio, cuya aplicación plena está prevista a partir de 2026 tras el respaldo de los Veintisiete, que divide esta tecnología en distintos niveles de riesgo y que la prohíbe en aquellos casos en los que se considere “inasumible”, como es el caso de los sistemas de categorización biométrica. “Democracia 1-Lobbys 0”, celebró Thierry Breton, comisario europeo de Mercado Interior.
El marco regulatorio sobre la inteligencia artificial, que incluye sanciones millonarias para las empresas que las incumplan, salió adelante en el pleno del Parlamento Europeo con el voto a favor de 523 eurodiputados, por solo 46 en contra y 49 abstenciones. El siguiente paso es que los Veintisiete den también su visto bueno y que el reglamento pase una última comprobación jurídico-lingüística antes de su entrada en vigor, prevista para mayo, si bien su implementación efectiva no arrancará hasta el próximo ejercicio, llegando a aplicarse plenamente en 2026.
La nueva norma categoriza las aplicaciones de la IA en distintos niveles de riesgo, con sus consiguientes grados de restricciones que acompañan a la escala. Y esto implica la prohibición en los casos de riesgo “inasumible”, como los sistemas de categorización biométrica (esto es, la clasificación de individuos en base a sus características con el objetivo de deducir datos sensibles protegidos, como la filiación política o religiosa), la extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o sistemas que manipulan el comportamiento.
Con todo, el texto final introduce una serie de excepciones que no se incluían en el documento previo de diciembre y que permitirán el uso de sistemas de vigilancia biométrica en espacios públicos, siempre que haya orden judicial previa y para una lista de delitos estrictamente definidos. De este modo, la supervisión biométrica en tiempo real se limitará en tiempo y ubicación y ello sólo para la búsqueda selectiva de víctimas de secuestro, trata o explotación sexual, para evitar una amenaza terrorista específica y presente y para localizar o identificar a un sospechoso de haber cometido un delito de los recogidos en la norma.
También quedan definidos los sistemas de IA autorizados pero considerados de muy alto riesgo por su importante impacto en la salud, la seguridad, los derechos fundamentales, el medio amde
biente y el Estado de derecho. Asimismo, los sistemas de inteligencia artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo. Con ello, los ciudadanos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.
Además, el texto contempla los riesgos sistémicos de los modelos de inteligencia artificial generativa de uso general, ya que podrían utilizarse para difundir un sesgo negativo entre ciertos grupos
demográficos bien de forma interesada por parte de la empresa o bien por un ciberataque. Por ello, todas las compañías que utilicen la IA deberán estar registrada por una futura Oficina Europea de Inteligencia Artificial y todo el contenido generado por esta vía tendrá que identificarse de forma visible.
Otra de las claves ha sido cómo introducir reglas específicas para los modelos fundacionales (esto es, aquellos que son capaces de generar contenido propio, ya sea en forma de texto, imagen o sonido, y que no se ciñen a tareas específicas), como las plataformas ChatGPT o
DALL-E, que surgieron después de que la Comisión Europea presentara su primera propuesta de regulación por lo que este capítulo se ha ido desarrollando en el curso de la negociación. La legislación pionera también prevé sanciones para los incumplidores que irán desde los 7,5 millones de euros hasta los 35 millones , en función del tamaño de la compañía, o bien hasta el 7% del volumen de negocio en todo el mundo.
El objetivo es fijar estándares de seguridad y de derechos fundamentales que eviten que la tecnología se use con fines represivos, de manipulación o discriminatorios, forma que la regulación europea se vaya conviertiendo en el “estándar global” gracias al elevado peso del mercado comunitario en la economía mundial; pero sin que se traduzca en una hiperregulación que lastre la competitividad de la Unión Europea. “Estamos regulando lo menos posible, pero tanto como sea necesario”, resumió Breton.
Competitividad
Sin embargo, durante la tramitación de esta norma han surgido numerosos temores a que la regulación lastre el emprendimiento en esta área, impidiendo que Europa recorte terreno frente a Estados Unidos y China. Entre estos detractores iniciales se incluían Francia y Alemania, que albergan algunas empresas dedicadas a la IA, pero muy por detrás de Estados Unidos, China e incluso de otros países de mucha menor importancia, como Israel, Canadá, India o Singapur.
En concreto, entre 2013 y 2022 EEUU registró la fundación de 4.643 empresas dedicadas a la IA que recibieron una inversión privada a lo largo de este periodo de 249.000 millones de dólares, de acuerdo con las cifras de la Universidad de Oxford, seguida de China (1.337 empresas con una inversión de 95.000 millones), mientras que Francia cuenta con 338 empresas dedicadas a esta materia y Alemania, con 245, que aglutinan entre ambos países 14.000 millones en inversiones.
Editorial / Página 2
Opinión / Margrethe Vestager Cómo pensar la política europea en torno a la IA / Página 55