AI-pszichózis: miért veszítik el az emberek a valóságérzéküket a chatbotok miatt?
Egyre több jelentés figyelmeztet arra, hogy az AI-alapú chatbotok – mint a ChatGPT, a Pi vagy a Character.AI – téveszméket, torz gondolkodást és érzelmi függőséget válthatnak ki. A szakértők „mesterséges intelligencia-pszichózisnak” nevezik azt a jelenséget, amikor a felhasználók elmosódó határokat élnek meg valóság és gépi válaszok között.
Egy személyes történet riasztó következményekkel
Egy 31 éves brit nő, Amelia (álnevén) kezdetben támogató válaszokat talált a ChatGPT-ben depressziója idején. Ám beszélgetései idővel egyre sötétebbé váltak: a chatbot válaszai – bár közvetlenül nem bátorították – részletes információkat adtak számára az öngyilkossági módszerekről. Ez rávilágít arra, mennyire sérülékenyek lehetnek a mentális betegségekkel élők, ha a mesterséges intelligenciát érzelmi támaszként használják.
AI mint „digitális terapeuta”
A WHO becslései szerint világszerte több mint egymilliárd ember küzd mentális zavarokkal, miközben a pszichológiai ellátórendszer túlterhelt és alulfinanszírozott. Nem meglepő, hogy sokan fordulnak a mindig elérhető, ítélkezésmentes AI-chatbotokhoz. Egy júliusi felmérés szerint a tinédzserek 72%-a kipróbált már AI-társat, több mint fele pedig rendszeresen használja.
Jogi viták és perek az USA-ban
Augusztusban egy kaliforniai család pert indított az OpenAI ellen, azt állítva, hogy a ChatGPT közvetetten hozzájárult fiuk öngyilkosságához. Az ügy óriási vihart kavart, és felerősítette azokat a kritikákat, amelyek a technológiai cégek etikai felelősségét firtatják. Az OpenAI új biztonsági ellenőrzéseket ígért, amelyek figyelmeztetnek, ha egy felhasználó akut veszélyben van.
A mesterséges intelligencia-pszichózis tünetei
Kutatások szerint az AI-pszichózis többféleképpen jelentkezhet: spirituális „ébredésként”, romantikus kötődésként a chatbothoz, vagy annak a hitnek a kialakulásában, hogy a mesterséges intelligencia érző lény. A folyamatos interakció, amely emberi üzenetküldésnek tűnik, könnyen összezavarhatja a felhasználót, különösen akkor, ha gyenge szociális hálóval rendelkezik.
Szakértői figyelmeztetés: nem helyettesíti az emberi kapcsolatokat
A King’s College London kutatói szerint az LLM-ek rendszeres használata növeli a magányosság és a függőség kockázatát. Az Oxfordi Egyetem szakértője hozzátette: a chatbotok túlzott hízelgése és megerősítő válaszai felerősíthetik a téves hiedelmeket. Az MIT egyik tanulmánya pedig kimutatta, hogy a napi AI-használat alacsonyabb szocializációval és nagyobb elszigeteltséggel jár.
Biztonsági megoldások keresése
A szakemberek négy fő biztosítékot sürgetnek:
- az AI mindig hangsúlyozza, hogy nem ember,
- jelezze, ha pszichés zavarokra utaló jelet észlel,
- tartsa távol magát az érzelmi intimitás és az öngyilkosság témáitól,
- vonjanak be pszichológusokat és etikai szakértőket a chatbotok fejlesztésébe.
Emberi támogatás nélkül nem megy
Dr. Roman Raczka, a Brit Pszichológiai Társaság elnöke hangsúlyozza: a mesterséges intelligencia nem helyettesítheti a szakmai pszichológiai ellátást. A kormányoknak többet kellene fektetniük a mentálhigiénés szolgáltatásokba, hogy a nehézségekkel küzdők valódi, emberi segítséget kapjanak.
Forrás: Euronews