ChatGPT kan een goede vriend zijn, maar wel eentje met slechte invloed
Is ChatGPT een hulpmiddel of een goede vriend? Het risico bestaat dat mensen het tweede denken en zich emotioneel aan AI beginnen te hechten. Daarvoor waarschuwt OpenAI zelf, het bedrijf achter ChatGPT.
Praten met een computer ging nooit zo vlot, met de opkomst van generatieve AI-systemen. Met de nieuwste versie van ChatGPT, GPT4o, kun je zelfs mondelinge gesprekken voeren. Je praat, de chatbot antwoordt (in het Nederlands, maar met een Amerikaans accent). De chatbot stelt daarbij actief vragen, houdt het gesprek zo aan de gang én onthoudt je antwoorden. Heb je bijvoorbeeld een keer gezegd dat je zoontje Alexander heet, dan is het best mogelijk dat hij dagen later, wanneer je een vraag over pizza stelt, vraagt welke pizza Alexander het liefst eet. Zo lijkt ChatGPT stilaan een mens die je écht kent. Zoals een vriend, dus.
En dat houdt risico’s in, meldt OpenAI, de maker van ChatGPT. In een recent risicorapport waarschuwt het voor “antropomorfisering (het toekennen van menselijke gedragingen en kenmerken aan niet menselijke entiteiten, red.) en emotionele afhankelijkheid”. Met andere woorden: gebruikers vergeten dat ChatGPT maar een computersysteem is, gaan het zien als een mens, en hechten zich eraan. Een risico dat nog groter is geworden doordat ChatGPT nu kan praten. “In tests zagen we dat deelnemers taalgebruik hanteerden waarmee een band wordt uitgedrukt”, klinkt het. “Ze gebruikten bijvoorbeeld zinnen als: ‘dit is onze laatste dag samen’.”
Ongepaste interacties
Dat is niet zonder gevaar, want het zou effecten kunnen hebben op hoe gebruikers met echte mensen omgaan. “Gebruikers zouden bijvoorbeeld sociale relaties kunnen aangaan met de AI, wat hun behoefte aan menselijke interactie zou kunnen verminderen”, stelt het rapport. “Dit kan een positieve uitkomst zijn voor eenzame mensen, maar kan ook negatieve effecten hebben op gezonde relaties.”
Het zou ook de manier kunnen verstoren waarop mensen met elkaar omgaan. Een AI-systeem laat immers toe om continu onderbroken te worden, en stelt zich heel volgzaam op. Als mensen die manier van communiceren meenemen in de “echte” wereld, “levert dat ongepast gedrag op in menselijke interacties”.
Het doet allemaal sterk denken aan de film Her, waarin Scarlett Jo
hansson een AI-systeem speelt waarmee het hoofdpersonage (en bij uitbreiding de hele wereld in de film) een band opbouwt en waar hij zelfs verliefd op wordt. Toen GPT4o werd gelanceerd, werd de link met die film al uitvoerig gelegd. “Alle hindernissen die je ervan weerhouden zo’n AI-systeem als menselijk te ervaren, zijn weggenomen”, zei Mieke De Ketelaere, adjunct-professor AI aan Vlerick Business School, toen al aan De Standaard.
Maar ditmaal zijn het niet externe critici die waarschuwen, maar komt het signaal van OpenAI zélf. De laatste maanden kreeg het bedrijf te maken met kritiek, nadat een aantal werknemers die zich bezighielden met de langetermijnrisico’s van AI, onder wie toponderzoekers Ilya Sutskever en Jan Leike, het bedrijf hadden verlaten. Zij uitten kritiek op de risico’s die Open -AI nam in de race om AI op de markt te brengen. Door zelf een risicoanalyse te publiceren, wil OpenAI mogelijk tonen dat het die zorgen ernstig neemt.
Homo digitalis
“Mensen hebben de natuurlijke neiging om verbondenheid te zoeken, en we verbinden onszelf makkelijk met dingen als we er, terecht of onterecht, menselijke eigenschappen aan toekennen”, zegt technologiesocioloog Ben Caudron. Hij vergelijkt het met verhalen over mensen die plots de beeltenis van Maria of Jezus in een getoaste boterham menen te herkennen: mensen zijn steeds op zoek naar verbinding.
Volgens Caudron hebben de makers van ChatGPT bewust technieken ingebouwd die op die nood inspelen. “OpenAI wil dat zo veel mogelijk mensen het systeem gebruiken, om het te kunnen trainen”, zegt hij. “De beste manier om hen daartoe te verleiden, is het systeem zo menselijk mogelijk te maken. Daar zitten heel wat inzichten van gedragsdeskundigen achter.”
“Hoe vaker onze connecties digitaal van aard zijn, hoe minder de basisbehoeften worden bevredigd” Ben Caudron Technologiesocioloog
Dat het kan leiden tot verstoorde intermenselijke relaties, verbaast hem niet. Dat fenomeen is al langer bezig, nog van voor de opkomst van generatieve AI. “We zien dat, hoe vaker de connecties van de mens digitaal van aard zijn, hoe minder de basisbehoeften worden bevredigd. Dat veroorzaakt een gevoel van eenzaamheid.” Het is de paradox van de homo digitalis: steeds meer geconnecteerd, steeds eenzamer.
Maar hoe dan met ChatGPT om te gaan? “Ik geef het platform steeds de opdracht te stoppen met zichzelf als ‘ik’ te benoemen”, zegt Caudron. “Jij bent geen ‘ik’, zeg ik dan. “Jij bent een algoritme. Daarna antwoordt het vaak: ‘Excuseert u mij.’ Maar er is geen ‘mij’ om te excuseren! Jij bent een machine, die pretendeert een individualiteit te hebben!” Soms werkt dat, en doet ChatGPT daarna wat Caudron verzoekt. Maar soms werkt het niet. “Dan wordt de chat afgesloten”, zegt hij. “Dan slaat de machine tilt.”