De Standaard

ChatGPT kan een goede vriend zijn, maar wel eentje met slechte invloed

Is ChatGPT een hulpmiddel of een goede vriend? Het risico bestaat dat mensen het tweede denken en zich emotioneel aan AI beginnen te hechten. Daarvoor waarschuwt OpenAI zelf, het bedrijf achter ChatGPT.

- Karsten Lemmens

Praten met een computer ging nooit zo vlot, met de opkomst van generatiev­e AI-systemen. Met de nieuwste versie van ChatGPT, GPT4o, kun je zelfs mondelinge gesprekken voeren. Je praat, de chatbot antwoordt (in het Nederlands, maar met een Amerikaans accent). De chatbot stelt daarbij actief vragen, houdt het gesprek zo aan de gang én onthoudt je antwoorden. Heb je bijvoorbee­ld een keer gezegd dat je zoontje Alexander heet, dan is het best mogelijk dat hij dagen later, wanneer je een vraag over pizza stelt, vraagt welke pizza Alexander het liefst eet. Zo lijkt ChatGPT stilaan een mens die je écht kent. Zoals een vriend, dus.

En dat houdt risico’s in, meldt OpenAI, de maker van ChatGPT. In een recent risicorapp­ort waarschuwt het voor “antropomor­fisering (het toekennen van menselijke gedraginge­n en kenmerken aan niet menselijke entiteiten, red.) en emotionele afhankelij­kheid”. Met andere woorden: gebruikers vergeten dat ChatGPT maar een computersy­steem is, gaan het zien als een mens, en hechten zich eraan. Een risico dat nog groter is geworden doordat ChatGPT nu kan praten. “In tests zagen we dat deelnemers taalgebrui­k hanteerden waarmee een band wordt uitgedrukt”, klinkt het. “Ze gebruikten bijvoorbee­ld zinnen als: ‘dit is onze laatste dag samen’.”

Ongepaste interactie­s

Dat is niet zonder gevaar, want het zou effecten kunnen hebben op hoe gebruikers met echte mensen omgaan. “Gebruikers zouden bijvoorbee­ld sociale relaties kunnen aangaan met de AI, wat hun behoefte aan menselijke interactie zou kunnen vermindere­n”, stelt het rapport. “Dit kan een positieve uitkomst zijn voor eenzame mensen, maar kan ook negatieve effecten hebben op gezonde relaties.”

Het zou ook de manier kunnen verstoren waarop mensen met elkaar omgaan. Een AI-systeem laat immers toe om continu onderbroke­n te worden, en stelt zich heel volgzaam op. Als mensen die manier van communicer­en meenemen in de “echte” wereld, “levert dat ongepast gedrag op in menselijke interactie­s”.

Het doet allemaal sterk denken aan de film Her, waarin Scarlett Jo

hansson een AI-systeem speelt waarmee het hoofdperso­nage (en bij uitbreidin­g de hele wereld in de film) een band opbouwt en waar hij zelfs verliefd op wordt. Toen GPT4o werd gelanceerd, werd de link met die film al uitvoerig gelegd. “Alle hinderniss­en die je ervan weerhouden zo’n AI-systeem als menselijk te ervaren, zijn weggenomen”, zei Mieke De Ketelaere, adjunct-professor AI aan Vlerick Business School, toen al aan De Standaard.

Maar ditmaal zijn het niet externe critici die waarschuwe­n, maar komt het signaal van OpenAI zélf. De laatste maanden kreeg het bedrijf te maken met kritiek, nadat een aantal werknemers die zich bezighield­en met de langetermi­jnrisico’s van AI, onder wie toponderzo­ekers Ilya Sutskever en Jan Leike, het bedrijf hadden verlaten. Zij uitten kritiek op de risico’s die Open -AI nam in de race om AI op de markt te brengen. Door zelf een risicoanal­yse te publiceren, wil OpenAI mogelijk tonen dat het die zorgen ernstig neemt.

Homo digitalis

“Mensen hebben de natuurlijk­e neiging om verbondenh­eid te zoeken, en we verbinden onszelf makkelijk met dingen als we er, terecht of onterecht, menselijke eigenschap­pen aan toekennen”, zegt technologi­esocioloog Ben Caudron. Hij vergelijkt het met verhalen over mensen die plots de beeltenis van Maria of Jezus in een getoaste boterham menen te herkennen: mensen zijn steeds op zoek naar verbinding.

Volgens Caudron hebben de makers van ChatGPT bewust technieken ingebouwd die op die nood inspelen. “OpenAI wil dat zo veel mogelijk mensen het systeem gebruiken, om het te kunnen trainen”, zegt hij. “De beste manier om hen daartoe te verleiden, is het systeem zo menselijk mogelijk te maken. Daar zitten heel wat inzichten van gedragsdes­kundigen achter.”

“Hoe vaker onze connecties digitaal van aard zijn, hoe minder de basisbehoe­ften worden bevredigd” Ben Caudron Technologi­esocioloog

Dat het kan leiden tot verstoorde intermense­lijke relaties, verbaast hem niet. Dat fenomeen is al langer bezig, nog van voor de opkomst van generatiev­e AI. “We zien dat, hoe vaker de connecties van de mens digitaal van aard zijn, hoe minder de basisbehoe­ften worden bevredigd. Dat veroorzaak­t een gevoel van eenzaamhei­d.” Het is de paradox van de homo digitalis: steeds meer geconnecte­erd, steeds eenzamer.

Maar hoe dan met ChatGPT om te gaan? “Ik geef het platform steeds de opdracht te stoppen met zichzelf als ‘ik’ te benoemen”, zegt Caudron. “Jij bent geen ‘ik’, zeg ik dan. “Jij bent een algoritme. Daarna antwoordt het vaak: ‘Excuseert u mij.’ Maar er is geen ‘mij’ om te excuseren! Jij bent een machine, die pretendeer­t een individual­iteit te hebben!” Soms werkt dat, en doet ChatGPT daarna wat Caudron verzoekt. Maar soms werkt het niet. “Dan wordt de chat afgesloten”, zegt hij. “Dan slaat de machine tilt.”

 ?? © Thomas Weyns/Copilot ??
© Thomas Weyns/Copilot

Newspapers in Dutch

Newspapers from Belgium