
“Insidious”: cosa succede quando cadi vittima di deepfake porn
Man mano che l’intelligenza artificiale diventa più diffusa, un problema “insidioso” è in aumento: una vittima afferma che è traumatico come un’aggressione sessuale.
Deepfake – una combinazione di “deep learning” e “falso” – i media sovrappongono un’immagine o un video a un’immagine esistente. È stato utilizzato per migliorare sia l’industria dell’intrattenimento che quella dei giochi. Ma ora ci sono crescenti preoccupazioni sul suo potenziale per creare contenuti sessualmente espliciti, senza il consenso delle persone raffigurate.
Tale è stata l’esperienza di Blaire – una streamer di Twitch che online si fa chiamare “QTCinderella” – quando ha ricevuto dozzine di messaggi a febbraio su un suo “video per adulti” che era diventato virale su un sito web pornografico.
Il problema? La 28enne non aveva mai creato un video del genere ed è rimasta sconvolta nell’apprendere che il suo viso era stato incollato al corpo di un’altra donna, facendo sembrare che si stesse legittimamente indulgendo nell’atto rappresentato. Era diventata una vittima del porno deepfake.
Mentre l’abuso basato sull’immagine – comunemente indicato come “revenge porn” – rimane una preoccupazione, specialmente tra le giovani donne, esperienze come quella di Blaire dimostrano che i contenuti sessuali non devono più essere prodotti prima di tutto perché le persone possano condividerli.
La pornografia deepfake non consensuale, ha detto a news.com.au la dott.
È una forma di abuso che il mondo accademico qualifica come violenza di genere facilitata dalla tecnologia (TFGBV) e ha una “storia lunga e deprimente”. Tre decenni dopo il primo stupro ampiamente riportato nel mondo digitale – un incidente del 1993 in un piccolo gioco online multiplayer chiamato LambdaMOO – la dottoressa Jane ha affermato che “è incredibilmente scoraggiante che abbiamo fatto così pochi progressi”.
“Una forma insidiosa di incolpare la vittima”
A contribuire a questa mancanza di progressi è la radicata convinzione che il TFGBV non costituisca un abuso sessuale perché non si verifica nella vita “reale”.
Considerando che “le nostre interazioni quotidiane comportano sempre più una fusione del digitale e del fisico”, ha affermato la dott.ssa Jane, “non penso più che sia utile cercare di fare distinzioni nette tra le nostre vite online e offline”.
“Questo è uno dei motivi per cui non va bene dire alle donne che sono state prese di mira da TFGBV (come il porno deepfake) che la soluzione è semplicemente ‘prendersi una piccola pausa’ dall’uso di Internet”, ha aggiunto.
“Si tratta di suggerire loro di rimanere rinchiusi in casa piuttosto che rischiare di avventurarsi fuori ed è una forma insidiosa di incolpare la vittima”.
Dire alle donne che sono state prese di mira per la pornografia deepfake non consensuale che non è “reale”, ha continuato la dottoressa Jane, potrebbe essere considerata una forma di gaslighting.
“Sfortunatamente, questo ha molti parallelismi con il modo in cui la violenza sessuale e le molestie di genere sono ridotte al minimo nella nostra cultura più ampia. La colpa e la vergogna delle vittime sono prevalenti ovunque “, ha detto.
“I dibattiti sul fatto che la violenza sessuale sia “reale” se si verifica online sono spesso usati come un’opportunità per attaccare ulteriormente coloro che parlano pubblicamente delle loro esperienze… TFGBV può avere un impatto serio – e incarnato – su obiettivi che influiscono sulla loro salute psicologica, mezzi di sussistenza , reputazione e sicurezza fisica.
Ha indicato uno studio del 2020 dell’EIU, che ha rilevato che tra le donne che avevano subito violenza online nell’anno precedente, il 7% aveva perso o aveva dovuto cambiare lavoro, il 35% aveva riferito problemi di salute mentale, una su 10 aveva subito abusi fisici . a seguito di minacce online, e quasi nove su 10 hanno affermato di aver limitato la loro attività online in modi che limitavano il loro accesso al lavoro, all’istruzione, all’assistenza sanitaria e alla comunità.
La natura sessuale dei deepfake riflette la cultura dello stupro a livello globale. Come ha detto Blair La scheda madre di VICEle molestie seguite al suo incidente sono state implacabili e hanno fatto riaffiorare il trauma del suo passato.
“Ti senti così violata… sono stata abusata sessualmente da bambina, ed è stata la stessa sensazione”, ha detto.
“Dove ti senti in colpa, ti senti sporco, sei tipo, ‘Cos’è appena successo?’ Ed è strano che lo faccia [trauma] riemergere. Non sapevo davvero che sarebbe stato così.
Maya Higa, una delle vittime dello streamer di Twitch Atrioc (Brendan Ewing) è stata recentemente sorpresa a guardare un video porno deepfake, ha condiviso una prospettiva simile in una dichiarazione straziante su Twitter.
“Nel 2018 ero ubriaco a una festa e usato per gratificazione sessuale da un uomo senza il mio consenso”, ha scritto.
“Oggi sono stato usato da centinaia di uomini per scopi sessuali senza il mio consenso. Il mondo chiama stupro la mia esperienza del 2018. Il mondo oggi discute sulla validità della mia esperienza.
“Non è qualcosa da cui possiamo semplicemente fermare la nostra uscita”
Come spesso accade con gli abusi e le molestie sessuali, il percorso verso la giustizia per le vittime del TFGBV non è facile. Non solo ricade su di loro l’onere costoso e dispendioso in termini di tempo del ricorso legale; è ulteriormente complicato dal fatto che la maggior parte delle persone che condividono immagini offensive online lo fanno in modo anonimo e può essere più difficile rintracciarle.
Nel Regno Unito, il governo ha recentemente modificato la legge sulla sicurezza online nel tentativo di reprimere i deepfake; negli Stati Uniti, solo la Virginia e la California hanno leggi che vietano il revenge porn falso e deepfake.
A casa, il commissario per l’eSafety Julie Inman Grant ha dichiarato a news.com.au che “i deepfake sono coperti dal programma di abuso basato su immagini di eSafety, che è l’unico programma del suo genere al mondo”.
“Qualsiasi australiano le cui immagini o video sono stati alterati per apparire intimi e vengono pubblicati online senza consenso può contattare eSafety per ricevere assistenza per rimuoverli… Abbiamo una percentuale di successo del 90% nell’ottenere questi ritiri, principalmente da siti stranieri”, Sig.ra Inman disse Grant.
La dottoressa Jane ha affermato che il problema del porno deepfake “non è qualcosa da cui possiamo semplicemente fermare la nostra produzione”.
“Questi sono problemi che coinvolgono complesse combinazioni di persone e tecnologie, quindi non ci sarà mai un’unica soluzione semplice”, ha affermato.
“Penso, tuttavia, che un primo passo importante sia che i governi e gli individui guardino da vicino come i modelli di business dei giganti dei social media come Meta e Alphabet facilitano e aggravano questo tipo di problemi”.
La signora Inman Grant accettò.
“Le innovazioni per aiutare a identificare, rilevare e confermare i deepfake stanno avanzando e le aziende tecnologiche hanno la responsabilità di incorporarle nelle loro piattaforme e servizi”, ha affermato.
“Gli antidoti a questi rischi hanno bisogno di investimenti e innovazione urgenti ora, poiché sono in ritardo rispetto alla rapida proliferazione di queste tecnologie e al danno online che potrebbero causare”.
L’uso improprio delle immagini è una violazione dell’Online Safety Act 2021 e ai sensi di questo atto gli autori possono essere multati o incarcerati in alcune giurisdizioni. Qualsiasi australiano le cui immagini o video sono stati alterati per apparire sessualizzati e sono stati pubblicati online senza consenso può contattare eSafety per ricevere assistenza per rimuoverli.
Originariamente pubblicato come video “per adulti” di Blaire è diventato virale – l’unico problema era che non era lei