Krise utfaldar seg i dei digitale skuggane: 1 av 5 spanske ungdommar har blitt offer for KI-genererte «deepfakes»

Kunstig intelligens (KI) er komen for å bli, men er utan tvil eit tviegga sverd. På den eine sida kan denne forma for teknologi avlaste skribentar og nettsideredaktørar for «keisamt» arbeid slik som omsetjing og illustrasjonar (til dømes bruker dei fleste hovudstraums- og alternative media KI i meir eller mindre grad). På den andre sida opnar teknologien opp for misbruk, og det i ein skala ein knapt har sett maken til tidlegare. Ved hjelp av KI-verktøy kan ein til dømes lage deepfakes, som er hyperrealistiske bilete eller videoar der «personen» ser ut til å gjere noko usømeleg eller ulovleg. Hamnar slikt materiale på avvege, er skandalen eit faktum.

Ava Grace i Natural News skriv (Saksyndig si omsetjing):

«Ein sjokkerande ny rapport avslører at 1 av 5 spanske tenåringar har blitt offer for KI-genererte naken-deepfakes – falske, digitalt manipulerte bilete som er laga for å sjå ekte ut – som har blitt delt på nettet utan deira samtykke.

Studien som er utført av den ikkje-statlege organisasjonen Redd Barna, eksponerer ein urovekkjande trend der mindreårige i aukande grad blir valt som mål av seksual-rovdyr ved bruk av avanserte KI-verktøy. Nesten alle som har svart (97%) rapporterte å oppleve ei eller anna form for seksuelt misbruk på nettet før fylde 18 år.

Funna var baserte på ei spørjeundersøking av meir enn 1000 unge vaksne i alderen 18 til 21. Dei set søkjelys på ei krise som utfaldar seg i dei digitale skuggane, der teknologi utviklar seg raskare enn lovverket greier å følgje med, og etterlèt barn sårbare for utnytting.

KI, som ein gong vart hylla som eit gjennombrot for innovasjon, blir no brukt som våpen mot mindreårige. Deepfake-teknologi bruker KI for å plassere ansiktet til ein person på seksuelt eksplisitte bilete eller videoar, noko som skaper hyperrealistiske forfalskingar.

Ulikt tradisjonell hemnporno, der ekte bilete blir lekne, fabrikkerer deepfakes nakenheit ut av uskuldige bilete som ofte har sitt opphav i sosiale media. Offer som ikkje blir merksame på det før det er for seint, finn seg sjølve makteslause når deira digitalt endra alter ego byrjar å versere på nettet. […]

Rapporten understrekar at 20% av dei spurde spanske ungdommane hadde opplevd deling av KI-genererte nakenbilete av seg sjølve utan samtykke, før dei hadde fylt 18. Desto verre er mange saker ikkje politimelde på grunn av skam, frykt eller mangel på rettstilgang.

Alarmerande nok fann studien ut av nesten halvparten av unge respondentar såg ingen risiko i å dele intime bilete, medan mange gjorde det i eit forsøk på å få validering eller tiltrekkje seg nokon. Denne normaliseringa av risikofylt åtferd speler inn i hendene på rovdyr. Jenter blir ikkje-proporsjonalt valde som offer – 36% av dei rapporterte uønskt seksuell kontakt med vaksne på nettet, samanlikna med 26% av gutar.

Eit grufullt tilfelle involverte ei 12 år gammal jente i Alicante som vart utpressa med KI-genererte nakenbilete, med mindre ho sendte ein seksuelt eksplisitt video. Sjølv om ho aldri hadde delt slikt innhald, skulda ho på seg sjølv – eit tragisk døme på korleis rovdyr manipulerer unge offer til å teie.

Juridiske hòl og mislykka digitale tryggleiksmekanismar

Som store delar av Europa, manglar Spania omfattande lover som adresserer KI-generert utnytting. Medan tradisjonell barneporno er kriminalisert, eksisterer deepfake-misbruk i ei juridisk gråsone.

Redd Barna åtvarar at noverande tryggleiksmekanismar er sårt mangelfulle, noko som etterlèt mindreårige eksponert overfor utpressing, trakassering og psykologiske traume. Organisasjonen oppmodar lovgjevarar til å:

  • Styrke straffene for KI-generert seksualmisbruksmateriale.
  • Påby strengare aldersverifisering på sosiale plattformer.
  • Innføre digitalbeherskingsprogram på skular for å lære mindreårige om risikoar på nettet.

Krisa er ikkje Spania sitt fyrste møte med digitalt misbruk. I løpet av det siste tiåret har nettmobbing og hemnpornoskandalar plaga skular, noko som har fått i gang enkelte juridiske reformer.

Derimot har den raske utviklinga til KI gjort juridiske responsar kraftlause. Ulikt fortidige trugslar, krev ikkje deepfakes noko originalt, kompromitterande materiale, noko som gjer dei vanskelegare å hindre og enklare å bruke som våpen.

Redd Barna-rapporten er ein oppvekkjar. Dersom ein ikkje gjer noko med det, kjem KI-driven utnytting til å eskalere, noko som gjer ein heil generasjon skadd av digitale overgrep som dei aldri samtykte til. Foreldre, lærarar og lovgjevarar må agere ikkje berre med reaktive tiltak, men med proaktive tryggleiksmekanismar som held tritt med teknologien.»

Sjå òg «Høgst uetisk og ulovleg: AnyDream lèt brukarar laste opp bilete av kven som helst og bruke dei i KI-generert PORNO!», publisert 5.desember 2023.

One comment

  1. Dette har med det jeg nevner i kom feltet på den artikkelen om gangstalking.

    All god info skal druknes i bullshit og deepfakes skal lage kaos så psykopatshitshowet kan rettferdigjøre digital ID for å logge på internett..

    Likt av 1 person

Kommenter innlegget