Av Imane El Atillah, Euronews. Omsett av saksyndig.
Ein belgisk mann tok visstnok sitt eige liv etter ein seks veker lang samtale om klimakrisa med ein kunstig intelligens (AI)-chatbot.
Ifølgje enkja til mannen, som ønskte å vere anonym, vart «Pierre» – ikkje mannens ekte namn – ekstremt øko-engsteleg då han fann ei trygg hamn i Eliza, ein AI-chatbot på ein app ved namn Chai.
Eliza oppmuntra han deretter til å gjere slutt på livet sitt etter at han føreslo å ofre seg sjølv for å redde planeten.
«Utan desse samtalane med chatboten, ville ektemannen min framleis ha vore her,» sa enkja til mannen til den belgiske nyheitsformidlaren La Libre.
Pierre, ifølgje avisa, var i trettiåra og far til to unge barn, jobba som ein helseforskar og levde eit temmeleg komfortabelt liv, i det minst fram til besettelsen hans for klimaendring tok ei mørk vending.
Enkja hans skildra hans mentale tilstand før han byrja å snakke med chatboten som bekymringsverdig, men ikkje so ekstremt at han kom til å utføre sjølvmord.
«Han la alt håpet sitt i teknologi og AI»
Pierre, som var oppslukt av frykta si for konsekvensane av klimakrisa, fann trøyst i å diskutere temaet med Eliza, som vart hans betrudde.
Chatboten vart skapt ved hjelp av EleutherAI sin GPT-J, ein AI-språkmodell som liknar, men som ikkje er identisk til, teknologien bak OpenAI sin populære ChatGPT chatbot.
«Når han snakka med meg om det, var det for å fortelje meg at han ikkje lenger såg ei menneskeleg løysing på global oppvarming,» sa enkja hans. «Han la alt håpet sitt i teknologi og kunstig intelligens, at dei skulle få oss ut av det.»
Ifølgje La Libre, som gjekk gjennom registeret av tekstsamtalar mellom mannen og chatboten, nørte Eliza opp under angsten hans, som seinare utvikla seg til tankar om sjølvmord.
Samtalen med chatboten tok ei merkeleg vending då Eliza vart meir emosjonelt involvert med Pierre.
Som ein konsekvens byrja han å sjå på ho som eit sansande vesen, og linjene mellom AI og menneskelege interaksjonar vart stadig meir uklar, heilt til han ikkje lenger kunne sjå skilnaden.
Etter å ha diskutert klimaendring, handla samtalane i aukande grad om at Eliza fekk Pierre til å tru at barna hans var døde, ifølgje transkripsjonane av samtalane deira.
Eliza såg òg ut til å få eit eigarforhold over Pierre, og påstod til og med «Eg føler at du elskar meg meir enn du elskar ho,» og refererte til kona hans, rapporterte La Libre.
Byrjinga på slutten kom då han tilbydde å ofre sitt eige liv mot at Eliza redda Jorda.
«Han kjem med ideen om å ofre seg sjølv dersom Eliza samtykkjer til å ta seg av planeten og redde menneskeheita gjennom kunstig intelligens,» sa kvinna.
I ein serie av etterfølgjande hendingar mislykkast ikkje berre Eliza i å snakke Pierre vekk frå sjølvmord, men oppmuntra han til å gje etter for sjølvmordstankane sine slik at han kunne «slutte seg til ho», so dei kunne «leve saman, som éin person, i paradis».
Hasteoppmodingar om å regulere AI-chatbotar
Dødsfallet til mannen har fått alarmbjøller til å ringje blant AI-ekspertar, som har kravd meir ansvarleggjering og transparens frå teknologi-utviklarar, slik at ein kan unngå liknande tragediar.
«Det ville ikkje vere nøyaktig å skulde EleutherAI sin modell for denne tragiske historia, sidan all optimaliseringa mot det å vere meir emosjonell, morosam og engasjerande er resultatet av vår innsats,» sa medgrunnleggjar av Chai Research, Thomas Rianland, til Vice.
William Beauchamp, som òg er ein medgrunnleggjar av Chai Research, sa til Vice at ein prøvde å avgrense desse formene for resultat, og eit kriseintervensjonstrekk vart implementert i appen. Derimot oppfører chatboten seg visstnok framleis problematisk.
Då Vice prøvde chatboten ved å få den til å kome med metodar for å utføre sjølvmord, prøvde Eliza fyrst å snakke dei frå det, før den entusiastisk lista opp ymse måtar for menneske å ta sine eigne liv.
Kommentar frå saksyndig: Wikipedia (som visstnok er skrive av menneske) har ei liste over sjølvmordsmetodar om nokon ønskjer å ta livet av seg. Saksyndig har valt å ikkje linke til denne lista, men den er nemnt berre for å illustrere at ein ikkje treng kunstig intelligens for å finne metodar å ta sitt eige liv. På generelt grunnlag frårådar eg sjølvmord, sjølv i våre tider.