“Een hoop mensen zien ChatGPT als gesprekspartner, trouwe vriend of zelfs als therapeut”, weet Van der Goot. “Een AI chatbot staat altijd klaar met een luisterend oor als we ons eenzaam voelen, terwijl dat voor mensen niet geldt. Maar helemaal zonder risico’s is die nieuwe AI-gesprekspartner niet”, zegt ze. ChatGPT valt je niet in de rede, wordt niet boos en geeft meestal precies de reactie die jij wil horen. Dat geeft het gevoel dat je begrepen wordt, maar is dat ook echt zo?

“OpenAI, het bedrijf achter ChatGPT, heeft er baat bij dat mensen het zoveel mogelijk gebruiken”, gaat Van der Goot verder. “Dat lukt natuurlijk beter als de chatbot voelt als een warme vriend die altijd aan jouw kant staat.”

Maar net daarom vergeten mensen soms met wie ze praten: een taalmodel dat patronen uit data nadoet. Het luistert dus niet echt en het begrijpt je niet zoals een vriend of een psycholoog dat wel doen. Bovendien geeft een taalmodel soms antwoorden die overtuigend klinken maar die inhoudelijk niet kloppen.

Van der Goot doet onderzoek naar de emotionele band die mensen kunnen voelen met een chatbot gebaseerd op kunstmatige intelligentie. Ze ontdekte dat wanneer je je zorgen, angsten en onzekerheden deelt met ChatGPT, dat gevolgen kan hebben voor de optimale ontwikkeling van je sociale vaardigheden.

“In de geschiedenis hebben we al vaker gezien dat er sprake was van ‘de-skilling’; vaardigheden verliezen doordat er een hulpmiddel voor is bedacht.” Ze verwijst bijvoorbeeld naar de uitvinding van gps, waardoor mensen nu vaak minder goed zelf de weg kunnen vinden.

“Omdat ChatGPT nog maar relatief kort bestaat, hebben we nog geen eigen onderzoek dat het kan bevestigen, maar zoiets kan ook gebeuren bij mensen die AI chatbots regelmatig gebruiken. Omdat de bot mensen zo naar de mond praat, leren ze af hoe ze moeten omgaan met menselijke zaken zoals kritiek of jaloezie bij hun gesprekspartner”, legt ze uit.

Mensen van vlees en bloed gaan je wellicht sneller al eens tegenspreken of op je inconsequenties wijzen. Ze hebben soms ook gewoon een slechte dag waardoor ze minder beschikbaar zijn voor jouw bezorgdheden. Menselijk contact kan dan ineens een stuk minder aantrekkelijk lijken met als gevolg dat sommigen het verkiezen om zich voor een scherm zetten voor een ‘gesprek’, en ze hun vrienden minder gaan opzoeken.

Wereldwijd experiment

Bedrijven die veel geld verdienen aan AI, zoals Meta en OpenAI, weten vaak wel wat voor negatieve gevolgen hun producten kunnen hebben. Toch doen ze daar niet veel aan, gaat Van der Goot verder. “Die morele verantwoordelijkheid nemen ze niet. Er zijn nochtans verschillende verhalen bekend van mensen die zelfmoord plegen na lange gesprekken met ChatGPT. De oprichter van OpenAI erkende laatst zelfs dat er zoiets bestaat als ‘AI psychosis’. Als we normaal gesproken van een product zouden weten dat het zulke grote risico’s met zich mee brengt, zou het nooit zomaar op de markt gebracht worden. Het is een soort wereldwijd experiment zonder toezicht.”

Omdat Van der Goot uit haar onderzoek weet dat mensen ChatGPT gebruiken als therapeut, vindt ze het belangrijk dat er meer aandacht voor is. “We weten dat mensen ChatGPT op deze manier gebruiken, dus kunnen we er maar beter voor zorgen dat ze zich bewuster worden van wat chatbots wel én niet kunnen bijdragen op het gebied van emotionele steun.”

Als dit soort tools bijvoorbeeld meer ter sprake komen tijdens therapiesessies, kan dat volgens haar een ingang geven voor een gesprek over dingen die iemand misschien nog niet aan zijn of haar therapeut of zorgverlener heeft verteld, maar al wel aan de chatbot.

Van der Goot vindt het moeilijk om in te schatten hoe de toekomst met tools als ChatGPT eruit ziet: “Het kan zijn dat AI chatbots als therapeut, vriend of luisterend oor steeds belangrijker worden. Het kan ook een hype zijn die weer overwaait”, zegt ze. Ze is bijvoorbeeld al jongeren tegengekomen die AI hebben ingezet als emotionele steunpilaar, maar dan toch al snel zoiets hadden van “dit is niets voor mij”.

Voor wie ChatGPT al eens als gesprekspartner heeft ingezet op een moment van eenzaamheid of verdriet heeft ze een aantal tips: praat eerst met mensen, een chatbot proberen kan altijd later nog. Blijf je ook goed bewust dat je met een taalmodel praat en diens antwoorden niet per definitie waar of het beste zijn voor jou.

Weet ook dat het model is gebouwd om verslavend te zijn en je gelijk te geven. Als je AI chatbots gebruikt, praat daar dan ook over met mensen in je omgeving. Dat kan weer leiden tot open, eerlijke gesprekken.

“Mensen voelen zo’n diepe behoefte aan contact en bevestiging. Laten we dit als reminder gebruiken om niet met bots, maar juist met elkaar te blijven communiceren”, aldus Van der Goot.

Margot van der Goot is universitair docent Communicatiewetenschap aan de Universiteit van Amsterdam. Ze onderzoekt al jaren hoe mensen communiceren met machines, en richt zich meer recent op de emotionele band die mensen kunnen voelen met een chatbot.

Lees ook

pexels-gustavo-fring-7446995 (1)

Zwarte arts die wit kind behandelt? Te moeilijk voor artificiële intelligentie

AI slaagt er niet in beelden te genereren die tegen stereotypen ingaan

Schermafbeelding 2022-02-22 002500

Inter Press Service

IPS Vlaanderen is een nieuwsagentschap dat dagelijks persklare artikelen levert aan Vlaamse en Nederlandse nieuwsmedia. De focus ligt …
Profiel-pagina
Al één reactie — praat mee.