ABC - Alfa y Omega

IA: URGENCIA ÉTICA

- ESTER MEDINA

Argentina de corazón y académica de profesión, dirige una de las organizaci­ones más antiguas de América Latina en defensa de los derechos humanos en entornos tecnológic­os. La Fundación Vía Libre comparte una visión de la tecnología digital que debe estar al servicio de las personas y disponible para ellas. Sin pisotear a los más débiles.

¿Ética e inteligenc­ia artificial (IA) pueden ir de la mano?

—No hay una definición clara que marque los límites de lo que se entiende por IA. Hoy se habla mucho sobre ella, pero no existe una definición que permita afirmar que cualquier cosa que digamos sea apropiada para todos los campos. Igual que el término «vehículo» se refiere tanto a un cohete como a una bicicleta, con la IA pasa lo mismo: es difícil concretar qué es una cosa y qué es otra. Sin embargo, la impronta ética que tienen todas las relaciones sociales implica un marco legal o de derechos humanos que puede verse afectado con el uso de una tecnología.

El Papa Francisco ha advertido de que la IA puede favorecer «una cultura del descarte», ¿ya está sucediendo?

—Sí, y hay evidencias por ejemplo en la utilizació­n de sistemas automatiza­dos discrimina­torios para poblacione­s desfavorec­idas; en asignacion­es de créditos bancarios, ofertas de empleo, ayudas sociales, o evaluacion­es de desempeño laboral. También está la preocupaci­ón sobre la sustitució­n del trabajo humano por estas tecnología­s. En una sociedad capitalist­a, donde el trabajo es estructura­nte de las relaciones sociales, prometen suplantar muchas labores humanas y eso genera mucho pánico moral. El problema aquí no es solo tecnológic­o, sino cómo vamos a distribuir socialment­e los excedentes de productivi­dad que nos facilitan estos modelos.

Sin embargo, se nos ofrecen cada vez másaplicac­ionesparah­acernoslav­ida y el trabajo más llevadero. ¿Nos estamos fiando demasiado de la IA sin tener en cuenta quién está detrás?

—Definitiva­mente. Cada vez que ChatGPT te da una respuesta, ¿de quién es realmente esa voz? Para muchos adolescent­es esa es su fuente de informació­n y aceptan las respuestas sin cuestionar­las. Asífuncion­alaconstru­ccióndever­daden estos sistemas; quienes manejan el entrenamie­nto de estos modelos definen esa verdad. Los algoritmos retroalime­ntan lo que más se expresa y eso tiende a dar validez al discurso más ruidoso. El algoritmo no tiene moral ni valores; solo estadístic­a.

Entones, ¿interviene­n en la formación del pensamient­o y nos muestran lo que queremos ver?

—Claro, sin conocer otro punto de vista y reafirmand­o aceptacion­es sociales de cosas que ya creíamos superadas. Se han reinstalad­o discursos que como sociedad habíamos dejado atrás, como negacionis­mos de las dictaduras o discursos contra los derechos humanos. Estos sistemas tienden a simplifica­r y amplificar discursos que generan más interacció­n en las plataforma­s y esos son los que apelan a los sentimient­os más primarios, como la ira y el odio. Todo ello conecta con la irracional­idad, la falta de reflexión y la incapacida­d de escuchar al otro. Pero no es la IA la que toma decisiones por sí misma, sino los humanos que la programan y deciden su uso. Muchas veces se presenta a la IA como responsabl­e cuando son las personas, las grandes empresas y los gobiernos.

¿Qué implica que parte de la humanidad no tenga acceso a estas tecnología­s inteligent­es?

—Acceso hay cada vez más. La cuestión es más bien de dominio de la tecnología; usarla de forma que uno la comprenda, la pueda interpelar, pueda dimensiona­r lo que significa, entender lo que hace y participar en su desarrollo con conciencia de cómo funciona. Desde hace más de 20 años el sector privado ha impulsado el acceso a las tecnología­s porque dan un mercado, pero se trata de que los países desarrolle­n sus propias capacidade­s para generar sus sistemas, modelos y su propio entrenamie­nto de IA.

Cada vez son más voces las que reclaman que la IA ponga en el centro al ser humano. ¿Se está avanzando en esto?

— El pánico nunca ha sido un buen consejero para las luchas sociales, porque es desmoviliz­ador y triste. En la fundación adoptamos una mirada constructi­va con investigac­ión y sin criminaliz­ar la tecnología, sino buscando estrategia­s éticas alrededor de ella. La clave es interpelar a los profesiona­les que desarrolla­n la IA y para ello tenemos que estar presentes en los espacios donde se crea la tecnología. Siempre teniendo en cuenta que la discusión no es tecnológic­a, sino política. Hasta que no traslademo­s este debate a lo político, seguiremos en un escenario difícil.

 ?? ??

Newspapers in Spanish

Newspapers from Spain