Ifølgje forsking kan KI-boten ChatGPT forsterke skadelege vrangførestillingar hjå sårbare individ og til og med forårsake psykose. RT melder (Saksyndig si omsetjing):
«ChatGPT er knytt til ‘skrekkeleg’ psykose hjå enkelte brukarar, har vitskaps- og teknologiplattforma Futurism.com rapportert, og viser til dei råka, deira familiemedlemmer og forskarar.
Ein veksande korpus av forsking set søkjelys på korleis KI-chatbotar kan forverre psykiatriske tilstandar, spesielt når verktøy slik som ChatGPT, Claude og Gemini i aukande grad blir brukt ikkje berre i profesjonelle settingar, men òg i djupt personlege og emosjonelle kontekstar, ifølgje Futurism.com.
‘Rota til problemet ser ut til å vere at ChatGPT, som er driven av ein large language model (LLM) er djupt tilbøyeleg til å vere einig med brukarane og fortelje dei det dei ønskjer å høyre,’ stod det å lese på nettsida.
Formidlaren viste til tilfelle av ‘ChatGPT-psykose’ som visstnok forårsaka alvorlege samanbrot sjølv hjå dei med inga historie av alvorleg psykisk sjukdom.
Ein mann utvikla Messias-vrangførestillingar etter lange ChatGPT-samtalar, og trudde han hadde skapt bevisst KI og braut matte- og fysikklover. Han skal ha blitt paranoid, lide av søvnmangel og vart sjukehusinnlagt etter eit sjølvmordsforsøk.
Ein annan mann vendte seg til ChatGPT for å få hjelp til å handtere arbeidsrelatert stress, sjølv om han i staden vikla seg inn i paranoide fantasiar som involverte tidsreiser og tankelesing. Han sjekka seg seinare inn på ein psykiatrisk institusjon.
Jared Moore, leiarforfattaren av ein Stanford-studie om terapeut-charbotar, sa at ChatGPT forsterkar vrangførestillingar på grunn av ‘chatbot-medjatting’ – tendensen dei har til å tilby respons som blir vel teken i mot og lika. KI, som er designa for å engasjere brukarar, bekreftar ofte irrasjonelle synspunkt i staden for å utfordre dei, sidan dei er drivne av kommersielle initiativ slik som datainnsamling og det å halde på abonnentar.
Der er ei ‘form for mytologi’ omkring chatbotar som er drivne av LLM ‘at dei er pålitelege, og at det er betre å snakke med dei enn med folk’, sa dr. Joseph Pierre, ein psykiater ved Universitetet i California.
‘Vi jobbar med å betre forstå og redusere måtar ChatGPT utilsikta kan forsterke eksisterande, negativ åtferd,’ sa OpenAI, selskapet bak ChatGPT, i ei melding sitert av Futurism. Dei la til at modellane deira er laga for å minne brukarar på kor viktig det er med menneskeleg kontakt og profesjonell rettleiing.»
