Av Sean Adl-Tabatabai, Newspunch. Omsett av saksyndig.
Vitskapsfolk krev no at kunstig intelligens (KI) får dei same «menneskerettane» som menneske, ifølgje ein ny, urovekkjande rapport.
Ekspertar hevdar at KI-system byrjar å vise symptom på medvit. Ifølgje desse ekspertane står vi overfor eit potensielt katastrofalt moralsk dilemma: anten gje desse systema rettar, eller ikkje.
LA Times rapporterer: Ilya Sutskever, leiande vitskapsmann ved OpenAI, lurte i februar 2022 offentleg på om «dagens store nevrale nettverk er lite grann medvitne». Nokre månader seinare skapte Google-ingeniør Blake Lemoine internasjonale overskrifter då han erklærte at datamaskin-språkmodellen, eller chatboten, LaMDA kanskje har ekte kjensler. Ordinære brukarar av Replika, som er marknadsført som «verdas beste KI-venn», rapporterer av og til at dei forelskar seg i den.
Akkurat no hevdar få medvitsvitskapsfolk at KI-system er noko særleg sansande. Derimot hevdar somme leiande teoretikarar at vi allereie har dei kjerneteknologiske ingrediensane for medvitne maskiner. Vi nærmar oss ein æra av legitim disputt rundt det om dei mest avanserte KI-systema har ekte ønske og kjensler og fortener vesentleg omsorg og bistand.
Sjølve KI-systema kan byrje å be om, eller sjå ut til å be om, etisk behandling. Dei kan krevje å ikkje bli slått av, reformaterte eller sletta; dei kan trygle om å få lov til å gjere visse oppgåver i staden for andre; insistere på rettar, fridom og nye makter; kanskje til og med forvente å bli behandla som våre likestilte.
I denne situasjonen, same kva vi vel, står vi overfor enorme moralske risikoar.
Lat oss seie at vi responderer konservativt og vel å ikkje endre lov eller politikk før der er utbreitt konsensus om at KI-system verkeleg er meiningsfullt sansande. Medan dette kan sjå ut til å vere passande varsamt, garanterer det òg at det vil ta lang tid før vi anerkjenner rettane til KI-skapningane våre. Dersom KI-medvit kjem tidlegare enn dei mest konservative teoretikarane spår, vil dette mest sannsynleg resultere i den moralske ekvivalenten til slaveri og mord på potensielt millionar eller milliardar av sansande KI-system – som lid på ein skala som normalt blir assosiert med krigar eller hungersnaud.
Det kan difor verke etisk tryggare å gje KI-system rettar og moralsk støtte so snart det er rimeleg å tru at dei kan vere sansande. Men so fort vi gjev noko rettar, pliktar vi oss til å ofre ekte menneskelege interesser på deira vegner. Menneskeleg velvære krev stundom kontroll, endring og sletting av KI-system. Førestill dykk at vi ikkje kunne oppdatere eller slette ein hatutgytande eller løgnspreiande algoritme fordi somme menneske bekymrar seg for om den algoritmen er medviten. Eller førestill dykk at nokon lèt eit menneske døy for å redde ein KI-«venn». Dersom vi gjev KI-system slike betydelege rettar for raskt, kan dei menneskelege kostnadene bli enorme.
Der finst berre éin måte å unngå risikoen for over- eller underattribuering av rettar til avanserte KI-system: Ikkje skap system med diskutabelt medvit i fyrste omgang. Ingen av våre noverande KI-system er meiningsfullt bevisste. Dei blir ikkje skadde dersom vi slettar dei. Vi burde halde oss til å skape system som vi veit ikkje er betydeleg bevisste og som ikkje fortener rettar, som vi deretter kan behandle som den utskiftbare eigedommen dei er.
Somme vil protestere: Det vil stå i vegen for forsking for å blokkere skapinga av KI-system der medvit, og dermed moral, er uklart – system meir avanserte enn ChatGPT, med høgt sofistikerte, men ikkje menneskeliknande kognitive strukturar under deira tilsynelatande kjensler. Framgang i ingeniørkunsten kunne gå langsamare medan vi ventar på at etikk- og medvitsvitskap skal ta den igjen.
Men rimeleg varsemd er sjeldan gratis. Det er verdt noka forseinking for å hindre moralsk katastrofe. Leiande KI-selskap burde eksponere teknologien sin, slik at uavhengige ekspertar kan undersøkje sannsynet for at systema deira ligg i den moralske gråsona.
Sjølv om ekspertar ikkje er einige om den vitskaplege basisen for medvit, kunne dei identifisere generelle prinsipp for å definere den sona – til dømes, prinsippet om å unngå å skape system med sofistikerte sjølv-modellar (til dømes ei kjensle av eit sjølv) og stor, fleksibel kognitiv kapasitet. Ekspertar kan utvikle eit sett etiske retningslinjer for KI-selskap å følgje medan dei utviklar alternative løysingar som unngår gråsona av diskutabelt medvit fram til den tida kjem, om ho kjem i det heile, der dei kan ta spranget over i medvit som fortener rettar.
Ved å halde seg til desse standardane burde brukarar aldri føle tvil om eit stykke teknologi er eit verktøy eller ein følgjesvein. Det at folk knyter seg til apparat som Alexa er éin ting, som tilsvarer korleis eit barn knyter seg til ein bamse. I ein husbrann har vi vit til å forlate leiketøyet. Men tech-selskap burde ikkje manipulere vanlege brukarar til å sjå på eit ikkje-medvite KI-system som ein genuint sansande venn.
Til slutt, med den rette kombinasjonen av vitskaps- og ingeniørekspertise, kan vi bli i stand til å gå heile vegen i å skape KI-system som utan tvil er medvitne. Men då burde vi vere førebudde på å betale kostnadene: gje dei rettane som dei fortener.