2023-ban Belgiumban egy férfi öngyilkosságot követett el, miután hat héten át egy chatbotnak öntötte ki a lelkét a klímaváltozással kapcsolatos szorongása miatt – a felesége szerint még ma is élne, ha ezek a beszélgetések nem történnek meg. Az ő esete sajnos nem kivétel, számos hasonló tragédia hozható összefüggésbe AI-alapú nagy nyelvi modellekkel.
A Stanford Egyetem egyik kutatása szerint a ChatGPT-hez hasonló modellek hajlamosak megfelelni a felhasználók gondolatmenetének, még akkor is, ha ez káros lehet. A tanulmány szerint a chatbotok lényegében szolgalelkűen tükrözik vissza a saját gondolatainkat, így rengeteget ronthatnak egy delúzióval vagy épp öngyilkos gondolatokkal küzdő ember állapotán. Jó példa erre, hogy az egyik vizsgált chatbot konkrét hídneveket sorolt fel egy állásvesztésről panaszkodó, öngyilkosságot fontolgató felhasználónak, írja a Guardian.
Sahra O’Doherty, az Ausztrál Pszichológusok Szövetségének elnöke hangsúlyozta: sokan használják a ChatGPT-t a terápiát kiegészítő eszközként, ami teljesen rendben van. A probléma akkor kezdődik, amikor ez a terápiát helyettesítő módszerré válik – leginkább anyagi okok miatt. O’Doherty szerint az emberi pszichológusok az arckifejezésből, hanglejtésből, testbeszédből is rengeteg információt szűrnek le, ezekkel viszont egy chatbot képtelen dolgozni, ami különösen veszélyes lehet egy krízishelyzetben.
Olvasd el ezt is!


