El mosaico de la inteligencia artificial
ROMPECABEZAS NORMATIVO La ingente regulación sobre esta tecnología hace aumentar el riesgo de incumplimiento.
La inteligencia artificial está reescribiendo las reglas. Este mes entra en vigor la Ley de Inteligencia Artificial de la Unión Europea, que impone diversas obligaciones y prohibiciones para los próximos años. Se trata sólo de la punta del iceberg, ya que los gobiernos de todo el mundo están regulando la inteligencia artificial de diferentes formas.
Las multinacionales están familiarizadas con los retos que presenta navegar por las normativas transfronterizas. Pero, ahora, la integración de la inteligencia artificial en productos y servicios está abriendo un panorama regulatorio especialmente complejo. Las normas sobre inteligencia artificial abarcan hasta diez ámbitos diferentes –desde la protección de datos hasta la propiedad intelectual– que varían según el país. Una complejidad que convierte el cumplimiento de las normas de la inteligencia artificial en un problema de estrategia para las empresas. Dado que las normas en inteligencia artificial son aún incipientes, navegar por ellas requiere un enfoque prudente.
¿Hasta qué punto es complejo el panorama? El seguimiento de la evolución de la política digital en los países del G20, Europa y el sudeste asiático realizado por Digital Policy Alert muestra que en los últimos doce meses, los gobiernos han avanzado más de 440 novedades normativas que afectan a la inteligencia artificial. Estados Unidos (171), la Unión Europea y sus Estados miembros (99) y Reino Unido (56) fueron las jurisdicciones más activas. Las empresas están expuestas a un entramado cambiante de enfoques reguladores. Los gobiernos siguen experimentando con las normas sobre inteligencia artificial y ni se coordinan entre sí ni las armonizan.
¿Cuáles son las normas más destacadas? Ahora mismo hay pocas normas sobre inteligencia artificial en el radar de los ejecutivos. La ley de inteligencia artificial de la Unión Europea establece un enfoque basado en el riesgo, prohíbe los sistemas de inteligencia artificial que plantean un riesgo inaceptable e impone una serie de obligaciones de cumplimiento para los “sistemas de inteligencia artificial de alto riesgo”. La orden ejecutiva sobre inteligencia artificial de Estados Unidos, adoptada en octubre de 2023, insta a los organismos gubernamentales a que elaboren normas para el uso de la inteligencia artificial en los sectores público y privado. La evolución de estas normas dependerá del resultado de las elecciones presidenciales: la plataforma del Partido Republicano promete derogar la Orden Ejecutiva y priorizar la innovación y el desarrollo de la inteligencia artificial partiendo de la base de “la libertad de expresión y la prosperidad humana”. Por su parte, China ha puesto en marcha tres normativas que abordan la inteligencia artificial generativa, las manipulaciones o deep fakes y los algoritmos de recomendación. Entre otras obligaciones, los proveedores deben garantizar que la producción de inteligencia artificial se alinea con los valores gubernamentales y registrar sus sistemas a través del “archivo de algoritmos” gubernamental.
¿Qué ámbitos políticos son los más relevantes? La base de datos Digital Policy Alert revela que los gobiernos recurren a más de diez ámbitos políticos para elaborar normas sobre inteligencia artificial. Los más comunes son normas de diseño y pruebas, gestión de datos y protección del consumidor. Por ejemplo, las normas de gestión de datos exigen a las empresas que entrenan modelos de inteligencia artificial que comprueben rigurosamente los conjuntos de datos con los que entrenan y confirmen que los datos personales no se utilizan sin una base legal válida. Otros ámbitos políticos son la moderación de contenidos, la competencia y la propiedad intelectual. Por ejemplo, las normas de moderación de contenidos pretenden garantizar que los sistemas de inteligencia artificial no generen contenidos ilegales o perjudiciales y exigen a las empresas que integran inteligencia artificial generativa que apliquen mecanismos de eliminación de contenidos. Así pues, las obligaciones de cumplimiento derivadas de estas normas varían en función de sus motivos subyacentes.
¿Aumenta el riesgo de cumplimiento de las empresas? Sí, porque las normas de inteligencia artificial se desvían al mismo tiempo más allá de las fronteras nacionales y en distintos ámbitos políticos. Estas dos dimensiones aumentan la complejidad y crean un nuevo nivel de riesgo de cumplimiento para las empresas. Si su empresa integra la inteligencia artificial en productos y servicios de toda Asia, debe garantizar el cumplimiento del régimen de datos de China, el marco de protección de los consumidores de la India y las normas de seguridad online de Australia. Cumplir normas nacionales que se solapan ya es bastante difícil. Las empresas ya lidian con un entramado normativo en materia de protección de datos y transferencias transfronterizas de datos; con la inteligencia artificial, esta complejidad se multiplica por el número de ámbitos políticos involucrados.
¿Se aplican las normas de la inteligencia artificial a las empresas tradicionales? Sí, porque todas las compañías que integran la inteligencia artificial están ahora expuestas a un conjunto cada vez mayor de normativas. Esta exposición es un nuevo reto, incluso para las empresas multinacionales expertas en el cumplimiento de reglamentaciones extranjeras.
¿Están los gobiernos imponiendo las normas? Los organismos de control están aplicando rigurosamente normas sobre inteligencia artificial en distintos ámbitos con consecuencias bastante costosas para las empresas. Por ejemplo, este año, California le retiró a Cruise –la filial de General Motors dedicada a la conducción autónoma– el permiso de utilización de vehículos autónomos por incumplimiento de los requisitos de calidad. En la actualidad, observamos que las autoridades se fijan más en los creadores de modelos de inteligencia artificial que en las empresas que la integran. Cuando se lanzó ChatGPT, las autoridades de protección de datos de todo el mundo iniciaron una serie de investigaciones. Los organismos de competencia están investigando las asociaciones entre proveedores de inteligencia artificial para garantizar una competencia leal, y la preocupación por la seguridad online desencadenó investigaciones sobre la inteligencia artificial generativa. Asimismo, los reguladores estadounidenses están investigando la parcialidad política de Gemini de Google.
¿Qué piensan los ejecutivos? Los líderes empresariales deben considerar el riesgo de cumplimiento de la inteligencia artificial como un nuevo elemento de su estrategia de expansión. Los equipos de control deben comprender que las normas contradictorias de múltiples regiones y ámbitos políticos plantean múltiples desafíos. Esto exigirá un enfoque más amplio, desde el área de la protección de datos hasta otra serie de áreas políticas relevantes para el cumplimiento de la inteligencia artificial. Por último, los equipos de operaciones deben ajustarse a la idiosincrasia de cada mercado, para garantizar el cumplimiento a nivel técnico. A medida que la normativa sobre inteligencia artificial vaya creciendo y multiplicándose en nuevas jurisdicciones, también lo harán los retos de cumplimiento.
Las empresas están expuestas a un entramado cambiante de regulación en todo el mundo Las normas deben garantizar que la inteligencia artificial no genere contenidos ilegales