Kunstig intelligens (KI) har opna opp for ei verd av bedrag, der ein aldri kan vere sikker på kva som er ekte og kva som er 100% dataskapt. Slike KI-kreasjonar blir på engelsk kalla deepfakes, og ofte krevst det eit trena auge til for å sjå (eller høyre) om personane er ekte, levande menneske. Der finst dataprogram som kan etterlikne ekte stemmer ved hjelp av å høyre stemmene – dermed kan kven som helst «seie» kva som helst. Det kan til og med lagast kanskje truverdige videoar der ein kan få til dømes ein politisk motstandar til å seie horrible ting.
(Sjå òg «Ekspert hevdar at innan ti år vil VR-sex bli det normale«, publisert 21.november 2023, og «Anna Indiana: Artist skapt av kunstig intelligens blir skildra som ein styggedom», publisert 29.november 2023.)
Dette fører oss over til temaet i denne artikkelen, nemleg tilfelle der kven som helst kan bli brukt i pornografisk materiale – mot deira vilje, og utan at dei faktisk er fysisk med i pornomaterialet. 27.november 2023 publiserte gravejournalistikk-nettstaden Bellingcat ein lengre artikkel skriven av Kolina Koltai, som handla om AnyDream. Som ho skriv (mi omsetjing):
«Eit amerikansk kunstig intelligensselskap samla skruppellaust inn pengar for ei teneste som kan skape ikkje-samtykte pornografiske deepfakes gjennom å bruke finansteneste-selskapet Stripe, som forbyr å gjennomføre betalingstransaksjonar for pornografisk materiale, avslører ei etterforsking av Bellingcat.
California-baserte AnyDream køyrde trafikken sin gjennom ei tredjepartsnettside som presenterte seg som eit fjerntilsetjingsnettverk til ein Stripe-konto oppretta i namnet til grunnleggjaren sin Junyu Yang, sannsynlegvis for å unngå å bli teken i å bryte forbodet mot pornografisk materiale. Stripe sa at dei ikkje kunne kommentere individuelle kontoar, men kort etter at betalingsformidlaren vart kontakta for kommentar sist veke, vart kontoen sletta.
AnyDream, som lèt brukarar laste opp bilete av ansikt for å bli brukt i KI-bileteskaping, har dei siste vekene blitt brukt til å skape ikkje-samtykte pornografiske deepfakes med ansiktet til ein skulelærar i Canada, ein profesjonell på den amerikanske austkysten, og ei 17 år gammal skodespelarinne.»
Eit skjermbilete av nettsida til AnyDream kan sjåast her. Den sokalla «karakteren» eller «figuren» kan skapast ved å laste opp eit bilete av ansiktet, før ein kan leggje til eit namn, kjønn, alder, hårfarge, kroppstype og etnisitet. AnyDream skal nyleg visstnok ha fått nye eigarar, som ikkje ser ut til å ville vedkjenne seg kva programmet har blitt brukt til. Den påstått ansvarlege, Junyu Yang, skal visstnok ikkje lenger vere tilsett i selskapet. Dei nye eigarane ville ikkje gje identiteten sin til Bellingcat (men journalisten deira fann ut identiteten til ein av dei likevel).
Problemet er ikkje berre at folk har blitt brukt i kunstig porno mot sin vilje, det skal òg ha blitt brukt mindreårige jenter både på nettsida til selskapet og på sjølve serveren, som heiter Discord. AnyDream påstår til Bellingcat at dei no har gjort det forbode å lage deepfakes til bruk i pornografiske settingar der figuren openbert er under den seksuelle lågalderen.
KI-generatoren til AnyDream krev betaling frå brukarane i form av «tokens» som dei kan kjøpe. Etter at betalinga er gjennomført, står brukarane fritt (?) til å bruke kven dei vil til å lage fotorealistisk eksplisitte bilete av den valde personen, med eller utan samtykke frå vedkomande. Bilete som har blitt laga på Discord-serveren kan dermed delast på selskapet si nettside under nytt og populært innhald. Bellingcat oppdaga fleire døme på at privatpersonar hadde blitt brukt til å skape pornografiske deepfakes, og at desse skal ha blitt delte på sosiale media. Det har òg blitt oppdaga at brukarar som har vendt seg til moderatorar med eit bilete av ein bestemt person, har fått detaljerte instruksar om korleis ein pornografisk deepfake skal lagast. I ettertid har AnyDream uttala at dei arbeider med å avgrense denne KI-genereringa til brukarar som har verifisert identiteten sin. Opphavleg var KI-tenesta meint for Instagram- og OnlyFans-innhaldsskaparar som ønskte å lage deepfakes av seg sjølve, noko som ville spare dei tusenvis av dollar på elles dyre fotoseansar.
Claire Georges i Europol sa til Bellingcat at «biletmanipulasjonsteknologi av denne typen er i ferd med å bli høgst sofistikert og lett tilgjengeleg, noko som gjer det nesten umogleg å skilje ‘ekte’ nakenbilete frå deepfakes». I mange jurisdiksjonar er der ingen lover som forbyr skapinga av KI-porno, men enkelte amerikanske delstatar har gjort det ulovleg å dele slikt innhald.
Heile 96% av deepfake-bilete er pornografiske, og 99% av dei har kvinner som mål – dette ifølgje ein rapport frå Centre for International Governance Innovation. 74% av brukarane av deepfake-porno føler inga skuld av å bruke slik teknologi, ifølgje ei spørjeundersøking gjort av tryggleiksfirmaet Home Security Heroes. Desse to kjeldene fortel både om det enorme omfanget av KI-porno, og den totale mangelen på evne til etisk og moralsk refleksjon blant dei som bruker slik teknologi. På godt norsk er dei nokre ekte rævhol.
I gamle dagar snakka ein om sokalla «hemnporno», der nokon offentleggjer private bilete av ein seksuell natur utan at personen som er med på bileta har gjeve løyve til det, med det vondsinna føremålet å audmjuke personen. I Noreg er hemnporno straffbart med heimel i Straffelova §267, som handlar om krenking av privatlivets fred. Pornografiske bilete har ingenting i offentlegheita å gjere. Personvernlovgjevinga er òg inne i biletet – og interessant nok Åndsverklova; nemnde lov gjev ein rett til å bestemme over bilete av seg sjølv, med mindre personen er på offentleg stad (§104 i nemnde lov).
Hemnporno i «gode, gamle dagar» omfatta bilete tekne av ekte personar i ekte seksuelle situasjonar, og kunne i verste fall øydeleggje karrierane til folk. Med innføringa av KI-generert pornografisk materiale har hemnporno fått ein heilt ny og uhyre skremmande dimensjon. I prinsippet kan kven som helst bli offer for vondsinna aktørar med over snittet gode datakunnskapar; den søte jenta som avviste den litt kleine guten i klassen, avdelingsleiaren som sa opp ein tilsett usakleg, eller nabokjerringa over vegen som har ei bikkje som stadig drit på plenen din. Realistisk overgrepsmateriale av barn kan no lagast utan at offera er fysisk til stade, so det opnar opp for behovet for å setje juridisk presedens.
Dette er ikkje harmlaus moro på guterommet, ein bruker jo bileta til ekte, levande menneske. Her er det fyrst og fremst det uetiske og umoralske konseptet det er å skape ein pornofigur i nokon sitt bilete, og den uheldige konsekvensen slik ei eksponering kan få for offeret både psykologisk og karrieremessig.

Det verserer mange teorier om «eliter» som –for å delta i det gode selskap– er nødt til å la seg avbilde og/eller filmes i kompromitterende situasjoner (for å si det svært pent). Særlig etter at Jeffrey Epstein og Ghislane Maxwell ble kjente navn for flere, har slike rykter nådd ut til et større nedslagsfelt, om enn dette materiale aldri er bekreftet og spredd i større grad. Skildringene er til dels grafisk grufulle og vekker den sterkeste harme og avsky der de finnes troverdige.
AI/KI er slettes ikke nytt hverken som begrep eller teknologi, men den har nå, relativt plutselig, litt overraskende, blitt ’tilgjengeliggjort for alle, over alt», og dermed begynner naturligvis spekulasjonene rundt hvorvidt dette nå rulles ut med et visst hastverk for slik å dressere publikum til å akseptere at «alt kan være AI (og sannsynligvis er det, når ufordelaktige bilder/film/lydopptak av herskerklassen kommer til overflaten)».
Som artikkelen beskriver, vil disse nye verktøy naturligvis kunne brukes til generering av alt slags materiale, også pornografi, noe som forsåvidt kan ha en «positiv» bieffekt ved at det tar brodden av det å henge ut medelever, naboen, eksen, etc. i form av «nakenbilder på nett». Dersom alle vet at slike kan genereres med en liten «søkesetning», vet også alle at materialet sannsynligvis er falsk.
For EKTE overgrepsofre vil imidlertid dette gjøre alt så mye mye verre, da man må leve med erfaringene (de som overlever), uten nubbsjanse til å bli trodd.
Denne plutselige og hastige omnipresensen av AI/KI må kunne sies å komme svært beleilig for en «elite» under stadig strerkere press rundt deres riter og framferd; som konspirasjonsteoretiker™️ kan jeg ikke unngå å kjenne stanken av sammenheng, men vil naturligvis bare avfeies som en paranoid tulling i andre fora enn slike med takhøyde dersom jeg skulle påstå noe.
Jeg synes dog det er verdt å reflektere over.
LikarLikt av 1 person
Dette er ei interessant vinkling, StormFrog. Det er klart at det kan vere ein samanheng mellom KI og eliten sine «kompromitterande» bilete. Dersom teknologien blir so avansert at ein ikkje kan skilje deepfakes frå ekte bilete/videoar/lydopptak, er ein i prinsippet tilbake til førteknologisk tid, der berre ord mot ord gjaldt. Då må ein tilbake til systemet med vitne som forklarer seg, og då gjeld hovudregelen at dersom to eller fleire personar seier det same om ein tredjepart, blir dette rekna som «sant» – på godt og vondt. Dette opnar i sin tur opp for at to eller fleire kan konspirere mot ein tredjepart og kome med usanne påstandar. Bilete, videoar og lydopptak som beviser det motsette blir dermed avvist, «fordi vedkomande jo kan ha laga dette ved hjelp av KI, og det er ingen måte å finne ut om dette er tilfellet».
Dommarar rundt om i rettssalar kjem til å segne saman i avmakt. Dette er eit tviegga sverd og eit digert dilemma. Om ein gjer vitnesbyrd frå to eller fleire partar tilstrekkjeleg som bevismessig dekning (til dømes når det gjeld eliten sine «utskeiingar» rundt sataniske pedofili-ritual), må ein òg opne opp for at det same prinsippet kan gjere at nokon blir uskuldig anklaga og dømt for noko. Det einaste eg kan kome på som kan trumfe vitne-«konspirasjonar», er saker som er avhengige av tekniske bevis, til dømes DNA frå den mistenkte. Men DNA kan som kjent bli planta på åstader.
Slike situasjonar gjer det desto viktigare å motstå det ormebolet som KI opnar opp, og åtvare om farane ved denne teknologien.
LikarLikar