Meta, foto di studentesse e pubblicità su Threads: cosa è successo davvero e come difendere i minori online

Un’inchiesta de The Guardian accusa Meta di aver usato foto di studentesse in inserzioni per promuovere Threads. Genitori infuriati, richieste di ritiro delle campagne e un punto chiave: fin dove arriva il consenso quando pubblichiamo immagini di minori sui social? Qui mettiamo ordine: cosa sappiamo, cosa no, e quali impostazioni controllare subito per proteggere la privacy dei ragazzi.

Il caso: inserzioni per Threads con foto di studentesse

Secondo l’esclusiva de The Guardian, alcune inserzioni per promuovere Threads avrebbero incorporato post con immagini di studentesse in uniforme, con volti visibili e, in diversi casi, anche con i nomi. Le foto proverrebbero da contenuti caricati sui profili social dei genitori per il “back to school” e sarebbero state riproposte nel formato pubblicitario come contenuti consigliati o incorporati.

Un punto che ha riacceso il dibattito: una madre avrebbe affermato che, pur avendo il profilo Instagram impostato come privato, i post pubblicati finivano automaticamente su Threads con visibilità aperta. L’episodio sarebbe esploso quando un utente adulto ha visto l’annuncio e ha segnalato la presenza di immagini di ragazze molto giovani in un contesto promozionale.

La reazione è stata immediata: attivisti e genitori chiedono il ritiro delle campagne e più tutele per i minori, mentre la notizia ha superato i confini del Regno Unito, alimentando una discussione globale su consenso, algoritmi e responsabilità delle piattaforme.

La posizione di Meta

Meta, riporta l’inchiesta e le successive repliche, nega violazioni delle policy: si tratterebbe di immagini pubblicate da account adulti, quindi utilizzabili nei formati di raccomandazione/suggerimento previsti dal sistema. L’azienda sottolinea inoltre di avere sistemi che evitano di raccomandare contenuti condivisi da adolescenti e di offrire all’utente controlli per limitare se e come i post pubblici possano essere suggeriti su Instagram/Threads.

Il nodo, però, resta: quando un contenuto tocca i minori — anche se pubblicato da adulti — il livello di attenzione deve salire. E le impostazioni di default, il cross-posting tra app e la logica delle “raccomandazioni” possono generare effetti indesiderati.

Consenso e minori: dove si ferma la piattaforma e inizia la responsabilità

Se pubblichi un contenuto in pubblico, concedi alla piattaforma una licenza molto ampia per visualizzarlo, distribuirlo e — in certi formati — raccomandarlo. È la regola del gioco dei social. Ma quando nelle immagini compaiono minori, siamo su un crinale diverso: c’è un tema etico prima ancora che legale, e non basta dire “era pubblico”.

  • Genitori e tutori: pubblicare foto riconoscibili di minori, con uniformi scolastiche, nomi, luoghi o routine, espone a rischi di privacy e di sicurezza. È una scelta che va pesata due volte, oggi più che in passato, vista la facilità con cui i contenuti vengono ripresi, raccomandati o inseriti in formati promozionali.
  • Piattaforme: l’onere non può scaricarsi tutto sulle famiglie. Se un’immagine ritrae minori, il principio di precauzione dovrebbe valere sempre: esclusione predefinita da ads e suggerimenti, riconoscimento proattivo dei volti dei minori e blocchi automatici, avvisi chiari durante il caricamento di foto sensibili.
  • Inserzionisti e partner: usare UGC (user generated content) in campagne richiede regole più stringenti quando ci sono minori. Non basta l’etichetta “contenuto pubblico”: servono filtri, review editoriali e, se del caso, autorizzazioni esplicite.

Perché il caso Threads fa rumore

Non è “solo” un tema di privacy: è l’effetto combinato di tre fattori. Primo: il cross-posting tra app può cambiare la visibilità del contenuto (privato su una, pubblico sull’altra). Secondo: gli algoritmi di raccomandazione amplificano e ricontestualizzano i post. Terzo: il formato pubblicitario rende la ricomparsa di quelle immagini ancora più sensibile, perché finisce in un contesto commerciale.

Impostazioni da controllare subito (anche se “pensi di essere privato”)

Anche senza entrare nella “filosofia dei social”, ci sono azioni concrete per ridurre il rischio che foto di minori finiscano in contesti indesiderati:

  • Verifica la visibilità su entrambe le app: un post privato su Instagram può avere regole diverse su Threads. Controlla le impostazioni di privacy di ciascuna piattaforma e disattiva il cross-posting automatico se non ti serve.
  • Limita le raccomandazioni: cerca l’opzione che permette di non far suggerire i tuoi post pubblici in sezioni “Esplora”, “Suggeriti” o simili. È un interruttore spesso ignorato, ma fa la differenza.
  • Usa “Amici più stretti” o liste: condividere con cerchie ristrette riduce la circolazione dei contenuti sensibili.
  • Oscura volti e dettagli: emoji, blur, ritagli. Evita loghi scolastici, targhe, cartelli, percorsi casa–scuola.
  • Disattiva la geolocalizzazione: togli location e metadati, soprattutto in tempo reale.
  • Controlla la sincronizzazione automatica: gallerie, archivi e app collegate possono ripubblicare contenuti su più piattaforme senza che te ne accorga.
  • Rivedi periodicamente i post: cancella o archivia contenuti di minori non più necessari. Meno materiale in rete, meno rischio di riuso.
  • Segnala e chiedi rimozioni: se vedi una tua foto usata in un formato che non ti convince, usa gli strumenti di segnalazione e richiedi assistenza al supporto.

Brand e marketer: linee guida minime per non sbagliare

L’UGC è potente, ma quando compaiono minori servono standard più alti. Alcune regole operative:

  • Esclusione predefinita dei minori: niente volti di minori in creatività, né post incorporati che li ritraggano in modo riconoscibile.
  • Checklist di revisione: prima della messa in campagna, controllo manuale su età presunta, contesto scolastico, divise, nomi e tag.
  • Consenso esplicito: se proprio serve un contenuto con minori (per progetti istituzionali), chiedi liberatorie chiare e documentate.
  • Contesto e copy: evita incroci potenzialmente provocatori o sessualizzanti. Il contesto fa il messaggio.
  • Audit dei partner: chiedi alle piattaforme filtri “minori safe” e report su come blocchino raccomandazioni o incorporamenti sensibili.

Cosa resta da chiarire

Il caso solleva domande che meritano risposte pubbliche:

  • Default e trasparenza: quali sono le impostazioni predefinite tra Instagram e Threads? L’utente viene avvisato in modo chiaro dei cambi di visibilità?
  • Filtri sui minori: i sistemi di esclusione funzionano davvero su foto che ritraggono minori, anche se caricate da adulti?
  • Formati pubblicitari: quando un post pubblico può essere incorporato in un annuncio? È previsto un blocco automatico per immagini sensibili?
  • Rimedi rapidi: in presenza di segnalazioni su minori, qual è lo SLA per la rimozione o la sospensione delle creatività?

Al netto delle policy, il punto è culturale: se online “tutto si copia e nulla si cancella”, la regola d’oro per i minori è la massima prudenza. E, lato piattaforma, la scelta etica deve arrivare prima della normativa.

Ricapitolando

La controversia raccontata da The Guardian mette insieme bugie? No. Mettiamo insieme impostazioni poco chiare, cross-posting, algoritmi di suggerimento e un tema delicatissimo: immagini di minori. Meta ribadisce di rispettare le policy e di offrire controlli agli utenti; famiglie e attivisti chiedono però tutele più forti e filtri che evitino a monte l’uso di foto sensibili in contesti pubblicitari.

Tradotto: i genitori devono pubblicare meno e meglio; le piattaforme devono impostare barriere più alte e default più sicuri; i brand devono rinunciare all’UGC quando c’è il minimo dubbio. Tutto il resto è rumore.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.