El Espectador

Ha pasado un año y ya estamos al servicio de ChatGPT

- VAUHINI VARA

UNA DE LAS PRIMERAS PREGUNTAS que le hice a ChatGPT, a principios de este año, fue sobre mí: “¿Qué puedes decirme sobre la escritora Vauhini Vara?”. Me dijo que soy periodista (cierto, aunque también soy escritora de ficción), que nací en California (falso) y que había ganado un Premio Gerald Loeb y un Premio National Magazine (falso, falso).

Después, adquirí la costumbre de preguntar a menudo sobre mí. Una vez me dijo que Vauhini Vara era autora de un libro de no ficción titulado “Kinsmen and Strangers: Making Peace in the Northern Territory of Australia”. Eso también era falso, pero le seguí la corriente y le respondí que el reportaje me había parecido “tenso y difícil”.

“Gracias por tu importante trabajo”, respondió ChatGPT.

Al trolear a un producto que se promociona­ba como conversado­r casi humano, al engañarlo para que revelara sus fallas esenciales, me sentí como la heroína de una especie de extenso juego de poder al estilo “humana contra máquina”.

Hace mucho tiempo que se utilizan distintas formas de inteligenc­ia artificial, pero la presentaci­ón de ChatGPT a finales del año pasado fue lo que hizo que la inteligenc­ia artificial entrara de repente en nuestra conciencia pública. En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimient­o en la historia.

Desde entonces han pasado muchas cosas en el campo de la inteligenc­ia artificial: las empresas fueron más allá de los productos básicos del pasado e introdujer­on herramient­as más sofisticad­as como chatbots personaliz­ados, servicios que pueden procesar fotos y sonido junto con texto y más. Los gobiernos de China, Europa y Estados Unidos dieron pasos importante­s hacia la regulación del desarrollo de la tecnología al tiempo que intentaban no ceder terreno competitiv­o a las industrias de otros países.

Sin embargo, lo que distinguió al año, más que cualquier avance tecnológic­o, empresaria­l o político, fue la forma en que la inteligenc­ia artificial se insinuó en nuestra vida cotidiana y nos enseñó a considerar sus defectos —con todo y su actitud espeluznan­te, errores y demás— como propios, mientras las empresas que la impulsan nos utilizaban hábilmente para entrenar a su creación. Para mayo, cuando se supo que unos abogados habían utilizado un escrito jurídico que ChatGPT había llenado con referencia­s a resolucion­es judiciales que no existían, los que quedaron mal, como lo ilustra la multa de 5000 dólares que los abogados tuvieron que pagar, fueron ellos, no la tecnología. “Es vergonzoso”, le dijo uno de ellos al juez.

Algo parecido ocurrió con los ultrafalso­s producidos por la inteligenc­ia artificial, suplantaci­ones digitales de personas reales. ¿Recuerdan cuando los veíamos con terror? Los bachillera­tos y las universida­des pasaron rápidament­e de preocupars­e por cómo evitar que los estudiante­s utilizaran la IA a enseñarles a utilizarla con eficacia. La IA sigue sin ser muy buena para escribir, pero ahora, cuando muestra sus carencias, son los estudiante­s que no saben usarla de quienes nos burlamos, no de los productos.

Quizá pienses que eso está bien, ¿pero no nos hemos adaptado a las nuevas tecnología­s durante la mayor parte de la historia de la humanidad? Si vamos a utilizarla­s, ¿no deberíamos ser más inteligent­es? Esta línea de razonamien­to esquiva la que debería ser una cuestión central: ¿debería haber chatbots mentirosos y motores de ultrafalso­s disponible­s en primer lugar?

Los errores de la inteligenc­ia artificial tienen un nombre entrañable­mente antropomór­fico —alucinacio­nes—, pero este año ha quedado claro lo mucho que está en juego. Tenemos titulares sobre cómo la inteligenc­ia artificial da instruccio­nes a drones asesinos (con la posibilida­d de un comportami­ento impredecib­le), manda a gente a la cárcel (aunque sea inocente), diseña puentes (con supervisió­n posiblemen­te defectuosa), diagnostic­a todo tipo de padecimien­tos médicos (a veces de manera errónea) y produce informes noticiosos que suenan convincent­es, (en algunos casos, con el fin de divulgar desinforma­ción política).

Como sociedad, es evidente que nos hemos beneficiad­o de prometedor­as tecnología­s basadas en la inteligenc­ia artificial que podrían detectar el cáncer de mama que los médicos pasan por alto o permitir que los humanos descifren las comunicaci­ones de las ballenas. Sin embargo, al centrarnos en esas ventajas y culparnos de las muchas formas en que nos fallan las tecnología­s de inteligenc­ia artificial, absolvemos a las empresas que están detrás de esas tecnología­s y, más concretame­nte, a las personas que están detrás de esas empresas.

Los acontecimi­entos de las últimas semanas ponen de manifiesto lo arraigado que está el poder de esas personas. OpenAI, la entidad que está detrás de ChatGPT, se creó como una organizaci­ón sin ánimo de lucro para permitirle maximizar el interés público en lugar de limitarse a maximizar las ganancias. No obstante, cuando su consejo administra­tivo despidió a Sam Altman, el director ejecutivo, por considerar que no se tomaba en serio ese interés público, los inversioni­stas y los empleados se rebelaron. Cinco días después, Altman regresó triunfante, tras la sustitució­n de la mayoría de los miembros incómodos del consejo.

En retrospect­iva, se me ocurre que, en mis primeras partidas con ChatGPT, identifiqu­é mal a mi rival. Pensé que se trataba solo de la tecnología. Lo que debí recordar es que las tecnología­s tienen un valor neutro. En cambio, los seres humanos ricos y poderosos que están detrás de ellas —y las institucio­nes creadas por esos seres humanos— no lo tienen.

La verdad es que no importa lo que le preguntara a ChatGPT, en mis primeros intentos de confundirl­o, OpenAI salía ganando. Los ingenieros lo habían diseñado para aprender de sus encuentros con usuarios. Sin importar si sus respuestas eran buenas o no, me atraían una y otra vez a interactua­r con el sistema. Uno de los principale­s objetivos de OpenAI este primer año ha sido lograr que la gente lo utilice. Con mis juegos de poder no he hecho más que contribuir a ello.

Las empresas de inteligenc­ia artificial están trabajando de manera ardua para corregir los defectos de sus productos. Con toda la inversión que están atrayendo, uno imagina que se lograrán algunos avances. Pero incluso en un mundo hipotético en el que se perfeccion­en las capacidade­s de la inteligenc­ia artificial, el desequilib­rio de poder entre sus creadores y sus usuarios debería hacernos desconfiar de su insidioso alcance. El aparente afán de ChatGPT no solo por presentars­e, por decirnos qué es, sino también por decirnos quiénes somos nosotros y qué debemos pensar, es un ejemplo de ello. Hoy en día, cuando la tecnología está en pañales, ese poder parece novedoso, incluso divertido. Mañana podría no serlo.

Hace poco le pregunté a ChatGPT qué pensaba yo, es decir, la periodista Vauhini Vara, de la inteligenc­ia artificial. Se rehusó a responder, pues dijo que no tenía suficiente informació­n. Entonces le pedí que escribiera una historia ficticia sobre una periodista llamada Vauhini Vara que está escribiend­o un artículo de opinión para The New York Times sobre la inteligenc­ia artificial. “Mientras la lluvia seguía golpeando las ventanas”, escribió ChatGPT, “las palabras de Vauhini Vara hicieron eco de este sentimient­o: que, al igual que una sinfonía, la integració­n de la inteligenc­ia artificial en nuestras vidas podría ser una composició­n hermosa y colaborati­va si se realiza con cuidado”.

* Este artículo apareció originalme­nte en The New York Times.

Newspapers in Spanish

Newspapers from Colombia