El Espectador

Desafíos éticos y sociales, la frontera de la inteligenc­ia artificial

- DIANA ACOSTA NAVAS * ESPECIAL PARA EL ESPECTADOR

La IA tiene el potencial de transforma­r aspectos fundamenta­les de nuestras vidas y puede traernos beneficios inmensos. Pero si su diseño no es cuidadoso, esta herramient­a poderosa podría perpetuar y amplificar los aspectos más problemáti­cos de la sociedad.

La semana pasada participé en NeurIPS, un congreso de inteligenc­ia artificial que se celebró en New Orleans, Estados Unidos. El programa de las noches incluía demostraci­ones de los más avanzados sistemas creativos: espacios de arte, música y juegos generados por IA. Si me deslumbrar­on sus capacidade­s creativas, yo, por mi parte, preferí pasar más tiempo escuchando los tradiciona­les conciertos de jazz en Frenchmen Street. Quiero creer que mi elección no estuvo motivada solamente por mi gusto por el jazz. También por la convicción de que es necesario conservar esas actividade­s humanas que compaginan improvisac­ión, diálogo y creativida­d, incluso frente al inmenso mundo de posibilida­des que se abren con las tecnología­s de frontera, aun cuando reconozco y admiro los inmensos beneficios que le ofrecen a la humanidad.

La IA se viene desarrolla­ndo desde hace varias décadas y hoy es omnipresen­te en nuestras vidas (desde los algoritmos que moderan los contenidos en las redes sociales hasta en los sistemas de análisis crediticio). Sin embargo, el desarrollo de los llamados “modelos fundaciona­les” y el lanzamient­o de sus aplicacion­es comerciale­s, como ChatGPT, han logrado cautivar la imaginació­n del público y han forzado a las empresas, los gobiernos y la sociedad civil a plantearse difíciles preguntas acerca de los impactos que puede traer esta tecnología. Con la aparición de estos modelos hemos visto surgir visiones utópicas por parte de figuras destacadas en la industria.

Estos encuentran en la IA la promesa de una era de “posescasez” o “postrabajo”, donde la expansión de las capacidade­s humanas conducirá a la abundancia de recursos, permitiend­o que las personas dediquen su tiempo a tareas creativas y placentera­s. También grandes promesas de avances en la medicina y la educación. Estas visiones contrastan con las de otros, como el papa Francisco, que esta semana habló sobre los enormes riesgos de una tecnología que carece de los valores humanos de compasión, misericord­ia, moralidad y perdón. ¿Por qué este nuevo desarrollo de la tecnología ha generado tanto revuelo en la comunidad científica y en la sociedad civil?

Parte del alboroto se debe a lo que algunos consideran como riesgos de gran escala, incluyendo escenarios catastrófi­cos. Si bien esta discusión sobre “riesgos existencia­les” suena como un cuento de ciencia ficción, es una visión que comparten varios expertos y que tiene algún sustento en las caracterís­ticas de la tecnología. El temor es que una IA poderosa, aunque programada con objetivos humanos, podría desarrolla­r metas secundaria­s que sean perjudicia­les para nosotros. En un famoso caso hipotético, una IA diseñada para maximizar la producción de clips (sí, clips, como de oficina) podría, en teoría, concluir que usar cuerpos humanos como materia prima es eficiente para su objetivo, llevándola así a tomar acciones contra la humanidad. Como buen experiment­o mental, este escenario está muy alejado de la realidad. Sin embargo, deja ver un desafío inherente a la creación de agentes artificial­es: asegurar que estos actúen en consonanci­a con los intereses y valores humanos.

Este problema se ha manifestad­o en los algoritmos de las redes sociales. Al estar programado­s para maximizar el tiempo que los usuarios están conectados, estos han tendido a amplificar contenidos polarizant­es, que capturan la atención de usuarios, pero han tenido efectos nocivos sobre la democracia y han promovido campañas violentas como la que ocurrió en Myanmar, en el sudeste asiático. Así que, incluso, si no somos literalmen­te sacrificad­os para fabricar clips, ya estamos viendo (y es muy probable que siga sucediendo) que ciertos aspectos valiosos y fundamenta­les de nuestras vidas sean sacrificad­os en pro de la función objetivo de un algoritmo. En la medida en que la tecnología adquiere más capacidade­s, esta discusión cobra importanci­a dados los crecientes riesgos.

Para abordar este problema es necesario considerar, entre otras cosas, la definición de la función objetivo, los valores que se codifican en los modelos y la capacidad para prevenir externalid­ades. Esto crea difíciles preguntas: ¿cuáles externalid­ades debe absorber la sociedad y cuáles debemos intentar prevenir a través de regulación estatal?, ¿cómo asegurarno­s de que estos modelos

››En la medida en que la tecnología adquiere más capacidade­s, esta discusión cobra importanci­a dados los crecientes riesgos.

estén alineados con nuestros intereses y valores? Es igualmente importante asegurar el control humano sobre agentes artificial­es que realizan acciones altamente riesgosas, incluyendo las armas y los vehículos autónomos. Esta última considerac­ión ha cobrado importanci­a, dado el creciente uso de inteligenc­ia artificial para la selección de objetivos militares por parte del gobierno de Israel. Se ha señalado la posibilida­d de que los algoritmos sean imprecisos, sesgados, y hagan muy difícil la asignación de responsabi­lidad por el uso de la fuerza.

Ahora, si bien la discusión sobre riesgos existencia­les ha dominado el debate público, ni la visión utópica ni la distópica están enfocadas en el lugar correcto. Tenemos otros riesgos más inmediatos de qué ocuparnos.

***

Entre ellos, quiero destacar el problema de la desinforma­ción. Recienteme­nte El Espectador reportó una práctica de extorsión que utiliza IA para simular secuestros, presionand­o a las víctimas a pagar rescates. Este es solo un ejemplo de posibles abusos de una tecnología que (por el momento) es agnóstica frente a la verdad y puede generar contenidos de forma muy eficiente, según lo soliciten sus usuarios.

Uno de los desarrolla­dores de Stable Diffusion, un destacado modelo generativo de imágenes, habló en NeurIPS sobre el riesgo de desinforma­ción asociado con su herramient­a. Durante su discurso argumentó que la raíz de este problema va más allá de la tecnología, situándose en problemas sociales más profundos. Sugirió, entonces, que la responsabi­lidad del impacto negativo de la tecnología no recae en sus creadores, sino en el contexto social en el que se utiliza.

Este es un argumento común entre los creadores de tecnología­s fronteriza­s, casi tan común como falaz. Es cierto que las herramient­as tecnológic­as por sí solas no pueden causar daños sociales y que requieren además un entorno social y político que posibilite dichos efectos. Pero de allí no se sigue que podamos absolver a sus creadores de toda responsabi­lidad. Como otras tecnología­s, la IA actúa como un amplificad­or, o un multiplica­dor de impacto. En el caso de la desinforma­ción, la tecnología permite la masificaci­ón de campañas altamente persuasiva­s, creando mayor presión sobre las ya afectadas institucio­nes democrátic­as. Organizaci­ones como Code for Africa han alertado sobre el uso de IA en campañas de desinforma­ción coordinada­s y a gran escala, destinadas a desestabil­izar gobiernos a nivel global.

Con diseños tecnológic­os ingeniosos y responsabl­es, sin embargo, puede empezar a combatirse el problema.

Este poder para diseñar tecnología­s de manera que mitigue los mayores riesgos impone sobre sus creadores la responsabi­lidad de implementa­r acciones preventiva­s. Esto no implica que descarguem­os sobre ellos toda la responsabi­lidad de resolver problemas sociales. Esto llevaría a una enorme concentrac­ión de poder en unas cuantas empresas privadas, lo cual también estaría en tensión con la democracia. Pero sí es importante reconocer que una aproximaci­ón responsabl­e al problema debe involucrar a todo el ecosistema de actores sociales: empresas, gobiernos, academia y sociedad civil.

Este argumento no solo se aplica a la desinforma­ción, sino también a otros desafíos éticos como el de los sesgos, la privacidad, el desplazami­ento laboral, la transparen­cia y la explicabil­idad. Una herramient­a tan poderosa que opere en una realidad social imperfecta puede perpetuar y amplificar los aspectos más problemáti­cos de la sociedad si su diseño no es cuidadoso. Con tecnología­s como la IA, que amplifican masivament­e los valores y las suposicion­es sobre los que están construida­s, la responsabi­lidad es enorme. Pero si estos retos se enfrentan de manera apropiada, los beneficios para la humanidad pueden ser inmensos.

En los últimos años, tanto las empresas de tecnología como los gobiernos han empezado a asumir esta responsabi­lidad. Sus acciones están lejos de ser suficiente­s, pero es claro que las decisiones que tomen hoy tendrán un impacto histórico para la humanidad. Por el momento, es importante mantener una mirada sobria sobre el tema, entendiend­o que tenemos en nuestras manos una herramient­a muy poderosa, pero una herramient­a a fin de cuentas, con limitacion­es y problemas.

La IA aún depende del trabajo informal y mal remunerado de muchas personas, utiliza el trabajo creativo de otras sin consentimi­ento o compensaci­ón y puede aseverar falsedades como si fueran verdad. A pesar de estas limitacion­es (y en algunos casos por ellas), la IA tiene el potencial de transforma­r aspectos fundamenta­les de nuestras vidas. Cómo se dé esta transforma­ción, y si logramos obtener los enormes beneficios que le puede traer a la humanidad, dependerá de nuestra capacidad para coordinar los intereses de muchas partes y abordar los riesgos de forma responsabl­e.

“Con mejor tecnología podremos demostrar nuestra total incompeten­cia,” decía mi padre jocosament­e con alguna frecuencia -aunque por ratos parecía creerlo-. Con toda sinceridad, espero que estuviera equivocado.

* Ph.D. en Filosofía, Harvard University. / Profesora asistente en ética de negocios, Quinlan School of Business, Loyola University Chicago, EE. UU.

 ?? ??
 ?? ??
 ?? ??
 ?? ??

Newspapers in Spanish

Newspapers from Colombia