Immagini pornografiche realizzate con l’IA: i deepnude sono la nuova frontiera dell’abuso
La parola “deepfake” è ormai entrata saldamente a far parte della quotidianità, indicando uno dei fenomeni cresciuti maggiormente con l’avvento dell’intelligenza artificiale: “falsi d’autore” 2.0, contenuti video e foto creati usando sistemi di IA generativa che, partendo da contenuti reali, riescono a modificare o ricreare in modo estremamente realistico le caratteristiche di un volto o di un corpo.
Come sempre accade quando si parla di nuove tecnologie, anche l’uso dell’intelligenza artificiale dipende dall’utilizzatore. E se è vero che l’intelligenza artificiale, anche nel campo dell’elaborazione delle immagini, può portare benefici e innovazione (come aveva spiegato a The Wom Angela Sebastianelli), è altrettanto vero che troppo spesso viene utilizzata per scopi tutt’altro che nobili. Il deepnude è uno dei peggiori: si tratta di foto o video di nudo realizzati rubando fotografie dai social o da altre piattaforme (anche quelle di messaggistica, se vengono inviate lì), in altre parole di fake porn.
Cosa sono i deepnude e per cosa vengono usati
I deepnude sono infatti realizzati quasi sempre all’insaputa della persona ritratta nelle foto o ripresa nei video originali. Capita che chi li realizza e poi li diffonde in rete utilizzi immagini di celebrity (è capitato, per esempio, a Taylor Swift), ma succede anche (purtroppo) di ritrovarsi in presenza di piaghe come il revenge porn o la sextorsion, entrambi tra l’altro reati penali.
Il primo e ormai tristemente noto caso è quello di immagini private che vengono diffuse in Rete per vendicarsi di qualcuno, magari dopo la fine di una relazione o per quello che la persona che le diffonde percepisce come “un torto”. Il secondo è invece un vero e proprio ricatto, un tentativo di estorcere soldi minacciando di diffondere foto e video se non vengono consegnati.
Per le vittime di questi reati poco importa che le immagini siano elaborate con l’intelligenza artificiale, e dunque non siano foto o video veri. Anzi, se possibile il senso di tradimento, invasione della privacy, vergogna e paura sono ancora più forti, proprio perché si è consapevoli di essere davanti a qualcosa che va oltre il proprio controllo. A rendere il tutto ancora più drammatico, il fatto che il fenomeno dei deepnude si stia diffondendo soprattutto tra adolescenti e giovanissimi, inconsapevoli dei rischi potenziali che corrono mostrandosi online.
Ad Almendralejo, in Spagna, circa un anno fa una ventina di ragazze tra gli 11 e i 17 anni hanno visto circolare in Rete delle fotografie che le ritraevano in topless o completamente nude. Le immagini erano state create utilizzando foto in cui comparivano completamente vestite, normalissimi scatti rubati dai loro account social. Utilizzando un’app di elaborazione di immagini basata sull’intelligenza artificiale, i responsabili avevano creato contenuti pornografici in cui i visi erano quelli delle ragazze.
Casi simili si sono verificati anche a Treviso e a Roma: studentesse, anche giovanissime, che si sono ritrovate davanti immagini in cui comparivano corpi nudi con i loro visi. E questi sono i casi di cui siamo a conoscenza, perché le ragazze hanno deciso di raccontare l’accaduto alle famiglie e denunciare. Il sommerso è in realtà gigantesco e in moti casi chi cade vittima dei deepnude neppure lo scopre o ne è consapevole.
L’Ai Act, un primo (timido) tentativo di regolamentare l’uso dell’intelligenza artificiale
Il proliferare di queste nuove tipologie di reato è dovuto principalmente al recente e rapidissimo sviluppo di tecnologie avanzate di intelligenza artificiale rese accessibili praticamente a tutti attraverso apposite app, spesso molto semplici da utilizzare. Anche per questo l’Europa ha deciso di regolamentare l’utilizzo dell’intelligenza artificiale introducendo l'EU Artificial Intelligence Act (Regolamento UE 2024/1689 del 13 giugno 2024, "EU AI Act”), primo nel suo genere a livello mondiale e finalizzato a regolamentare, a livello generale, l’utilizzo dell’intelligenza artificiale.
Il regolamento ruota intorno all’obbligo di sviluppare e utilizzare sistemi di intelligenza in modo sicuro, etico e rispettoso dei diritti fondamentali e dei valori europei, e li classifica in base al loro livello di rischio, imponendo di rispettare una serie di criteri e requisiti. Pur tentando di responsabilizzare i creatori, resta il nodo dell’utilizzatore: l’AI Act non regolamenta il campo dell’utilizzo, ed è per questo che oggi i deepnude e i deepfake restano in una zona grigia e molto pericolosa.
A oggi infatti il nostro ordinamento non prevede una specifica fattispecie di reato per i deepnude. A seconda dei casi, dunque, questa pratica potrebbe rientrare nel reato di diffamazione, di estorsione o di revenge porn. Chi sa per certo di esserne stato vittima non deve però temere di rivolgersi alle autorità: si può procedere facendo una segnalazione alla Garante della Privacy e alla Polizia Postale, e ai più giovani il consiglio è di parlarne subito con qualcuno, che si tratti dei genitori, di un insegnante o in generale di un adulto che può aiutarli, senza stigma né rimprovero, a risolvere la situazione e a punire i responsabili.