Rapport frå den australske regjeringa åtvarar mot dei potensielle trugslane til KI

Natural News melder at ein ny rapport frå den australske regjeringa åtvarar folket mot dei potensielle trugslane til kunstig intelligens (KI), og oppmodar dei om å prøve å formilde desse risikoane. Dei skriv (mi omsetjing):

«Rapporten, som vart publisert av Australian Signals Directorate (ASD) og produsert av Australian Cyber Security Centre (ACSC) og partnarar, slo fast at regjeringa, akademia og industrien speler ei viktig rolle i handteringa av KI-teknologi gjennom effektivt lovverk og forvalting. Den kom med fleire potensielle trugslar som burde bli adressert for å sikre trygg omgang med KI, trass evna teknologien har til å forsterke effektivitet og redusere kostnader.

Til dømes åtvara den om ‘data-forgifting’ – som involverer manipulasjon av opptreningsdataa til KI for å lære modellen ukorrekte mønster. Denne manipulasjonen kan resulterte i feilklassifisering av data eller produksjon av partisk, unøyaktig eller vondarta output. Påverknaden til data-forgifting kan negativt påverke alle organisatoriske funksjonar som er avhengige av integriteten til KI-systemoutputs.

‘Opptreningsdataa til ein KI-modell kan bli manipulert ved å setje inn nye data eller modifisere eksisterande data, eller opptreningsdataa kan bli tekne frå ei kjelde som allereie var forgifta frå byrjinga av. Data-forgifting kan òg skje i fin-innstillingsprosessen til modellen,’ står det i rapporten. […]

Manipulasjonsåtak, slik som prompt injection og implementering av vondarta instruksjonar eller skjulte kommandoar i eit KI-system ‘kan gå utanom innhaldsfilter og andre tryggleiksmekanismar, og avgrense funksjonaliteten til KI-systemet.’

Generative KI-system slik som chatbotar kan resulterte i falsk informasjon på grunn av prosessering av ufullstendige eller ukorrekte mønster. Organisasjonar som er avhengige av nøyaktigheita til generative KI-outputs må innføre passande mekanismar for å unngå negative effektar. Organisasjonar blir òg åtvara om informasjonen som blir delt med generative KI-system, sidan den kan påverke outputs og utgjere bekymringar knytt til privatheit og intellektuell eigedom.

Rapporten la vekt på risikoen for modell-stelande åtak, der vondsinna aktørar bruker KI-outputs til å skape etterlikningar, noko som lèt konkurrentar dra nytte av utviklingskostnader utan å ta del i investering tidleg i prosessen. [Dei kjem til duk og dekt bord og tek seg til rette; oms.komm.] […]

Gründeren Ian Hogarth, ein vesentleg investor i KI-sektoren, åtvara offentlegheita i ein meiningsartikkel om dei uvørdne utviklinga til KI, som potensielt kan føre til danninga av ‘ein gudeliknande KI som er i stand til å øydeleggje menneskeheita.’

Hogarth sette søkjelyset på den umiddelbare risikoen sidan KI-system bevegar seg nærare og nærare å oppnå kunstig generell intelligens (AGI [artificial general intelligence]), ein tilstand der maskiner kan fatte og lære alt som menneske kan. Den noverande KI-teknologien har ikkje enno nådd det punktet, men den raske veksten i industrien har som mål å oppnå AGI. Det å oppnå dette målet kjem derimot med ein særs høg og farleg pris.

‘Dei fleste ekspertar ser på det at AGI dukkar opp som eit historisk og teknologisk vendepunkt, lik det å splitte atomet eller det å finne opp trykkpressa. Det viktige spørsmålet har alltid vore kor langt inn i framtida denne utviklinga kan liggje,’ skreiv Hogarth.

Han hevda at KI-forskarar ikkje fokuserer nok på dei potensielle farane til AGI, eller kommuniserer desse risikoane til folket. Hogarth gjenhugsa ein samtale med ein forskar som, medan han spekulerte over ansvaret, verka å følgje straumen når det gjaldt den særs raske framgangen på feltet.

Investoren erkjende si eiga rolle i KI-utviklinga, som hadde vore å hjelpe 50 oppstartsfirma som fokuserte på KI og maskinlæring. Han la vekt på mangelen på oversikt og forståing i det selskap raser i veg mot AGI utan ein klar strategi for korleis dette kan innførast på ein trygg måte.

Hogarth, som refererte til AGI som ‘gudeliknande KI’, såg føre seg ei superintelligent datamaskin som er i stand til sjølvstendig læring og utvikling, som forstod miljøet rundt seg utan overvaking, og som potensielt kunne forvandle verda med uføreseielege konsekvensar.

Dette i sin tur, saman med rapporten til ASD, hevdar at diskusjonen om trugslar har som mål å hjelpe KI-aksjonærar gje seg i kast med teknologien trygt, [målet med diskusjonen er] ikkje å stoppe folket frå å bruke KI.»

Ein har i mange år snakka om den teknologiske singulariteten, det punktet i framtida der teknologisk vekst blir ukontrollerbar og irreversibel. Den dagen maskinene blir bevisste på sin eigen eksistens, og dei skjøner at dei er smartare enn oss, då er vi mest sannsynleg fortapte.

Kommenter innlegget