Deepfake e sessismo: il caso SocialMediaGirls e l’AI che “spoglia” le donne
L’intelligenza artificiale non è neutra quando finisce nelle mani sbagliate. SocialMediaGirls è il nuovo caso che esplode online: un sito con milioni di utenti che pubblica immagini non consensuali di donne, “spogliate” digitalmente con tool di AI. La denuncia pubblica di Francesca Barra ha acceso i riflettori su una piattaforma che mostra, ancora una volta, quanto sia facile trasformare la tecnologia in un’arma. La Polizia Postale ha avviato accertamenti. Ma il punto vero è: cosa possiamo fare, subito, come utenti, professionisti e società?
Cos’è SocialMediaGirls e perché fa discutere
SocialMediaGirls è un portale per adulti che raccoglie contenuti caricati dagli utenti. Il problema non è il nudo in sé: è la pubblicazione di immagini di donne senza consenso, spesso “ritoccate” con intelligenza artificiale per simularne la nudità. A far emergere il caso in Italia è stata la denuncia della scrittrice e conduttrice Francesca Barra, che ha trovato foto false e sessualizzate a suo nome, generate con l’AI.
Secondo un’inchiesta de la Repubblica, la piattaforma conta circa 7 milioni di iscritti, con aree e thread in cui compaiono materiali su personaggi pubblici e donne comuni, spesso raccolti senza permesso e alterati digitalmente. L’accesso è banale: un’autodichiarazione di maggiore età e sei dentro. La Polizia Postale ha confermato l’avvio di indagini sui contenuti e sull’uso di strumenti di generazione di immagini pornografiche non consensuali.
Dai precedenti a oggi: “Mia Moglie” e FICA
Non è un fulmine a ciel sereno. La scorsa estate, i casi del gruppo Facebook “Mia Moglie” e del forum FICA hanno mostrato come la cultura dello scambio di contenuti intimi non consensuali sia più diffusa di quanto pensiamo. SocialMediaGirls è un’evoluzione preoccupante: non serve nemmeno avere foto intime reali. Basta una foto qualunque per ottenere un fake “credibile”. E con milioni di utenti, la velocità di diffusione è enorme.
Come funziona la “AI undress” e quali rischi crea
Le cosiddette funzioni di “AI undress” non fanno magie: ricostruiscono una nudità plausibile a partire da una foto, basandosi su modelli statistici. Il risultato può sembrare realistico a uno sguardo distratto. Ed è qui che sta il danno: anche se è falso, l’effetto sociale è vero.
- Reputazione: le vittime possono subire danni professionali e personali, dall’odio online alla perdita di opportunità lavorative.
- Estorsione e stalking: i deepfake diventano leva di ricatto, controllo o molestie.
- Minori a rischio: con foto pubbliche, l’AI può generare materiale che, oltre a essere eticamente inaccettabile, può ricadere in ambiti penalmente rilevantissimi.
- Normalizzazione del sessismo: l’idea che il corpo delle donne sia “usabile” a piacimento, anche quando non esiste un contenuto reale.
Il salto rispetto al passato è chiaro: non si tratta più “solo” di furto di materiale privato, ma di creazione ex novo di immagini sessuali non consensuali. Un moltiplicatore di danni, a costo quasi zero.
Aspetti legali e responsabilità
In Italia la pubblicazione e condivisione di contenuti sessuali non consensuali può integrare reati gravi (come la diffusione illecita di immagini o video sessualmente espliciti, la diffamazione, il trattamento illecito di dati personali). L’uso dell’AI non “pulisce” la responsabilità: il danno rimane, e spesso si aggrava per la capacità di viralità dei contenuti.
La notizia positiva è che le forze dell’ordine stanno attenzionando il fenomeno, come confermato dagli accertamenti già avviati. Quella negativa: la rimozione totale è complessa e richiede tempi, risorse e collaborazione internazionale. Per questo serve prevenzione, risposta rapida e un coordinamento serio tra piattaforme, istituzioni e società civile.
E le piattaforme?
Non basta un form “ho più di 18 anni”. Piattaforme che monetizzano traffico adulto hanno l’obbligo morale (e dovrebbero avere quello operativo) di:
- Implementare filtri proattivi per deepfake e contenuti non consensuali, con sistemi di rilevazione e moderazione potenziati da AI e revisione umana.
- Rendere veloce la rimozione con canali dedicati e tempi garantiti.
- Tracciare gli uploader con verifiche d’identità e registri interni per cooperare con le autorità.
- Watermark e hashing per bloccare le ri-pubblicazioni dei contenuti rimossi.
In assenza di standard seri, continueremo a rincorrere i danni dopo che si sono già prodotti.
Cosa puoi fare se sei colpita o vuoi prevenire
Non esiste una bacchetta magica, ma esistono passi concreti per limitare l’impatto e muoverti nel modo giusto.
- Non trattare con chi ricatta: non pagare e non inviare altro materiale.
- Raccogli prove: screenshot completi (con URL, data/ora), link, ID dei post, nickname degli utenti, eventuali messaggi ricevuti. Archivia su servizi che mantengono metadati.
- Segnala subito alla piattaforma l’abuso come “contenuto sessuale non consensuale” e richiedi la rimozione urgente.
- Denuncia alla Polizia Postale: più elementi fornisci, più è facile intervenire. Se coinvolge minori, agisci immediatamente.
- Attiva gli strumenti di rimozione dei motori di ricerca: oggi è possibile chiedere la deindicizzazione di immagini esplicite non consensuali.
- Cerca supporto: associazioni specializzate, consulenti legali e psicologici possono aiutare nella gestione tecnica, legale ed emotiva.
- Per creator e professionisti: monitora il tuo nome con alert, prepara un protocollo di risposta (comunicazione, legale, IT), definisci policy chiare con il tuo team.
Prevenzione pratica
- Igiene digitale: limita la pubblicazione di immagini ad alta risoluzione se non necessario; rivedi privacy e visibilità dei profili.
- Alfabetizzazione: insegna (in azienda e in famiglia) cos’è un deepfake e come riconoscerlo. L’incredulità selettiva è una skill del 2025.
- Pressione pubblica: chiedi trasparenza a piattaforme e istituzioni. La reputazione è leva: quando tocca il business, le aziende si muovono.
Perché questo caso riguarda tutti
Non è “solo” un tema femminile, anche se le donne sono le prime e principali vittime. È un tema di diritti digitali, di sicurezza e di qualità dell’ecosistema informativo. Il deepfake porn non consuma solo la dignità di chi viene colpita: erode la fiducia collettiva nelle immagini, nella parola e, in ultima analisi, nella realtà condivisa. Se tutto può essere falsificato, tutto può essere messo in dubbio.
Servono regole più chiare, enforcement rapido e tecnologie di difesa all’altezza. Ma serve soprattutto uno shift culturale: smettere di trattare il corpo delle persone come un oggetto, anche quando “è solo digitale”. Perché il digitale, come stiamo imparando, non è mai solo digitale.
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.