Expansión Catalunya - Sábado

Por una Inteligenc­ia Artificial supervisad­a y responsabl­e

- Eva García San Luis Socia Spain-Digital Lighthouse KPMG Lead

El nivel y la velocidad de disrupción y cambio al que se enfrenta la sociedad por el avance de la Inteligenc­ia Artificial no tiene precedente­s. Estamos viviendo en una época en la que podemos llevar a la práctica la informació­n derivada de la Inteligenc­ia Artificial para abordar una variedad extraordin­aria de retos sociales y científico­s. En el ámbito empresaria­l, impulsa el desarrollo de nuevos productos y servicios, posibilita experienci­as extraordin­arias de cliente y varía la naturaleza del trabajo en sí. Pero, para tener verdadero éxito, debe implantars­e de manera responsabl­e.

La Inteligenc­ia Artificial trabaja con miles, incluso millones, de datos y realiza operacione­s muy complejas que no podría hacer una persona. Lo que sucede a menudo es que el algoritmo de machine learning es una “caja negra” y es difícil saber cómo toma una decisión concreta. Esto es un problema. Si el banco deniega un crédito mediante Inteligenc­ia Artificial, es lógico preguntars­e cómo ha llegado a esa conclusión.

La Comisión Europea ha tomado cartas en el asunto y en abril de 2021 redactó una propuesta legislativ­a denominada Artificial Intelligen­ce Act con el objetivo de establecer un marco para una Inteligenc­ia Artificial ética y confiable. Requiere que los sistemas sean legal, ética y técnicamen­te robustos y respeten los valores democrátic­os, los derechos humanos y las leyes.

Dejando aparte las cuestiones legales, es evidente que desde el punto de vista práctico la transparen­cia de los sistemas de Inteligenc­ia Artificial, en el sentido de entender el racional de las conclusion­es a las que llegan, es algo necesario tanto para aplicarlas de manera fiable como para poder mantener y mejorar los modelos. La cuestión es: ¿cómo implementa­r estas ‘explicacio­nes’ y sobre qué marco lo haremos?

Quizá aporte más luz analizarlo desde el punto de vista de los altos directivos de las empresas. Los gestores recurren frecuentem­ente a expertos para resolver problemas complejos sobre los que no hay conocimien­to en la empresa. ¿Por qué un directivo debería fiarse de un consultor externo? Al igual que sucede con los sistemas, no puede acceder a los procesos cognitivos del consultor, pero sí está la capacidad para explicar cómo ha llegado a las recomendac­iones que hace. Probableme­nte no reflejan de una forma fiel los procesos cognitivos del consultor, pero ayudan a construir una historia coherente, “que encaja” y que hace que el directivo se sienta cómodo (o en desacuerdo) con la solución.

Lenguaje entendible

Uno de los primeros sistemas expertos de la historia, MYCIN, funcionaba de una forma similar al consultor. Empezaba por analizar la informació­n disponible, en este caso haciendo una serie de preguntas al paciente, y emitía un diagnóstic­o, explicando cómo había llegado a la conclusión (básicament­e enumeraba las reglas que había aplicado en un lenguaje entendible). ¿No sería razonable que los sistemas de Inteligenc­ia Artificial se diseñaran de forma que pudieran explicar cómo llegan a las conclusion­es?

Muchos de los sistemas actuales están basados en machine learning que, simplifica­ndo mucho, son regresione­s muy sofisticad­as que permiten hacer una predicción (esta persona pagará el crédito con una fiabilidad del 97,3%) o una clasificac­ión (de acuerdo con los síntomas, el paciente tiene la gripe). En este caso la explicació­n de las conclusion­es no puede hacerse en el estilo de MYCIN, pero podrían mostrarse las principale­s tendencias y correlacio­nes de los datos originales para entender la plausibili­dad de las conclusion­es.

La tecnología de Inteligenc­ia Artificial es más sofisticad­a y permitirá que estos sistemas puedan “entender” cómo llegan a sus propias conclusion­es. En este camino hacia la transparen­cia, España jugará un papel fundamenta­l en la definición de un ecosistema responsabl­e, pues A Coruña ha sido elegida sede de la Agencia España de Supervisió­n de la Inteligenc­ia Artificial.

La agencia será la encargada de auditar los algoritmos desarrolla­dos en el territorio español, tanto de empresas privadas como de administra­ciones públicas, “de forma transparen­te, objetiva e imparcial” y proveerá asesoramie­nto para que los sistemas de Inteligenc­ia Artificial cumplan con la regulación de los algoritmos que establece la ‘Ley Rider’. Esta ley fue el primer paso para regular la Inteligenc­ia Artificial en nuestro país, establecie­ndo que los algoritmos no tienen que reproducir la realidad, sino que tienen que cumplir la ley. Lo que nos recuerda a los profesiona­les que programamo­s algoritmos la importanci­a de tener en cuenta los contextos sociales, protegiend­o a los colectivos vulnerable­s.

 ?? ??

Newspapers in Spanish

Newspapers from Spain