Clothoff rappresenta una delle piattaforme più controverse nel panorama dell’intelligenza artificiale generativa, specializzata nella creazione di deepfake sessualmente espliciti attraverso la manipolazione di foto e video comuni. L’applicazione, sviluppata da una società con sede nelle Isole Vergini Britanniche, consente di “spogliare” digitalmente le persone ritratte nelle immagini, generando contenuti pornografici falsi senza alcun consenso.
Il Garante per la protezione dei dati personali ha disposto un provvedimento d’urgenza per bloccare immediatamente l’utilizzo della piattaforma in Italia, richiamando esplicitamente il GDPR e il nuovo AI Act europeo. La decisione si basa sulla necessità di proteggere la dignità, la privacy e i diritti fondamentali degli utenti italiani, con particolare attenzione ai minori che possono accedere al servizio senza verifiche.
I rischi dei deepfake e la protezione dei minorenni
Le statistiche rivelate dall’organizzazione no profit americana Thorn fotografano un fenomeno allarmante: un adolescente su 17 tra i 13 e i 20 anni è stato vittima di deepfake pornografici. Ancora più preoccupante è il dato che evidenzia come uno su otto degli intervistati conosca personalmente qualcuno colpito da questa forma di abuso digitale.
La facilità d’accesso a piattaforme come Clothoff, BikiniOff e DeepNude rappresenta un pericolo concreto per i giovani. Queste applicazioni trasformano fotografie comuni in immagini sessualmente esplicite senza alcuna verifica dell’età o del consenso, permettendo ai minorenni di accedere liberamente a contenuti inappropriati e di diventare sia vittime che potenziali perpetratori di abusi digitali.
Le implicazioni legali e la responsabilità degli sviluppatori
Il quadro normativo europeo stabilisce precisi obblighi per i servizi basati sull’intelligenza artificiale. Il GDPR richiede il consenso esplicito per il trattamento dei dati personali, mentre il nuovo AI Act impone la marcatura inequivocabile dei contenuti generati dall’IA. Clothoff viola entrambe le normative, operando senza meccanismi efficaci di verifica dell’identità o del consenso degli interessati.
Il watermark applicato alle immagini risulta poco visibile e facilmente rimovibile, facilitando l’uso illecito dei contenuti. Gli sviluppatori hanno trasferito la responsabilità sugli utilizzatori attraverso divieti formali, senza implementare misure tecniche preventive. Per i minori, la legge italiana 132/2025 stabilisce soglie precise: consenso genitoriale sotto i 14 anni e informazioni sui rischi tra 14 e 18 anni, requisiti completamente ignorati dalla piattaforma.
I casi in Italia e le conseguenze sul territorio
Il fenomeno degli abusi digitali tramite deepfake ha già colpito diverse realtà italiane, evidenziando l’urgenza di interventi normativi più stringenti. Nel 2023, due studenti di una scuola media di Roma hanno pubblicato sui social network foto di compagne di classe create artificialmente utilizzando l’app BikiniOff, generando contenuti sessualmente espliciti senza consenso.
Un episodio ancora più recente, verificatosi nel 2024 in provincia di Latina, ha coinvolto cinque studenti minorenni che hanno manipolato immagini di compagne prelevate direttamente dai loro profili Instagram. Questi casi hanno alimentato un intenso dibattito sulla necessità di rafforzare la regolamentazione e la sicurezza digitale, spingendo le autorità a intensificare i controlli su piattaforme simili.
Le prospettive future e le misure da adottare
Il blocco di Clothoff rappresenta solo l’inizio di un’azione più ampia. Il Garante ha già avviato indagini per identificare e bloccare altre applicazioni simili come BikiniOff e DeepNude, che operano con modalità analoghe. L’obiettivo è creare un sistema di controlli più efficaci che preveda verifiche obbligatorie dell’identità degli utenti e meccanismi robusti per ottenere il consenso esplicito prima della manipolazione delle immagini.
Sarà necessario rafforzare la collaborazione internazionale per contrastare piattaforme che operano da giurisdizioni offshore, implementando tecnologie avanzate di watermarking non rimovibile e sviluppando sistemi automatici di rilevamento dei deepfake.