Bambini sui social: la class action Moige contro Meta e TikTok spiegata e cosa può cambiare

In Italia parte la prima class action inibitoria europea contro Meta e TikTok. Al centro: età minima, algoritmi “aggancianti” e foto dei minori online. E in UK c’è chi chiede di rimuovere le immagini degli alunni dai siti delle scuole.

Perché una class action adesso

Un gruppo di genitori insieme al Moige (Movimento Italiano Genitori) ha avviato un’azione collettiva inibitoria contro Meta (Facebook e Instagram) e ByteDance (TikTok). Obiettivo: imporre misure efficaci per impedire l’accesso ai minori che non hanno l’età prevista per usare i social e ridurre i rischi legati al design delle piattaforme. Secondo le ricostruzioni di stampa, è la prima iniziativa di questo tipo a livello europeo ed è stata depositata a Milano, sezione Imprese. Fonte: la Repubblica Torino.

Il contesto non nasce nel vuoto. La Commissione europea ha già richiamato più volte le big tech, l’ultima volta Meta, per carenze nei controlli sull’età. Il Digital Services Act (DSA) impone obblighi specifici per la tutela dei minori: valutazione e mitigazione dei rischi sistemici, impostazioni “sicure per default”, limitazioni alla profilazione e maggiore trasparenza sugli algoritmi.

Il dato che fa discutere

Secondo alcune stime, in Italia ci sarebbero circa 3,5 milioni di bambini tra 7 e 14 anni presenti sui social. Una quota significativa sarebbe sotto i 13 anni, quindi fuori regola rispetto ai limiti d’età dichiarati dalle piattaforme e alle tutele previste dal DSA. È un numero che, se confermato, disegna un fenomeno strutturale, non casi isolati.

Non solo età minima: il mirino si sposta sul design

La contestazione non riguarda esclusivamente l’accesso dei più piccoli, ma anche i meccanismi che li trattengono online. Nel fascicolo finiscono:

  • Algoritmi di raccomandazione che spingono contenuti potenzialmente inadatti o troppo coinvolgenti per un pubblico under 14;
  • Infinite scroll e notifiche continue progettate per massimizzare il tempo speso in app;
  • Profilazione e raccolta dati che, sui minori, aprono fronti di rischio aggiuntivi;
  • Scarsa efficacia dei sistemi di verifica dell’età, spesso basati su autocertificazioni eludibili.

In sintesi: non basta mettere un cartello “vietato ai minori di 13 anni” se poi l’ingresso è facilmente aggirabile e l’ambiente dentro è pensato per stimolare uso compulsivo. L’azione chiede quindi un divieto di accesso effettivo per chi non ha l’età e correttivi concreti sulle logiche di ingaggio.

Cosa potrebbe essere richiesto alle piattaforme

  • Verifiche dell’età robuste (no alla sola autocertificazione);
  • Impostazioni “minors-first”: profilazione limitata, silenziamento notifiche, feed meno aggressivi;
  • Controlli parentali chiari e facili da usare;
  • Audit e trasparenza algoritmica per monitorare impatti sui minori.

Il fronte UK: foto degli alunni e deepfake

Mentre in Italia si muove la giustizia civile, nel Regno Unito il dibattito tocca le foto degli studenti pubblicate online da scuole e istituti. Diversi esperti invitano a rimuoverle: il timore è che immagini innocue vengano scaricate, manipolate con intelligenza artificiale e trasformate in contenuti sessualmente espliciti o usate per ricatti digitali (sextortion). Non è allarmismo sterile: la capacità dei tool generativi di produrre deepfake realistici è ormai alla portata di molti, e i siti scolastici sono spesso un bersaglio facile.

Questo tema è strettamente legato al punto della class action: non parliamo solo di “tempo speso” sui social, ma della sicurezza dell’identità digitale dei minori, fatta di immagini, dati e tracce online.

Chi deve proteggere davvero i minori online?

La risposta breve: tutti, ma con responsabilità diverse e misurabili.

  • Piattaforme: verifiche d’età serie, design non predatorio per under 18, moderazione dedicata e vie rapide di segnalazione/oscura contenuti.
  • Istituzioni e autorità: vigilanza, sanzioni e linee guida attuative del DSA; standard comuni per la verifica dell’età e controlli periodici.
  • Scuole: policy chiare su foto e comunicazione online; informazione a famiglie e studenti sui rischi dei deepfake e del sextortion.
  • Genitori: consapevolezza digitale, uso di controlli parentali, attenzione alla pubblicazione di immagini dei figli (anche sui propri profili).

Gli effetti possibili della class action

Se il tribunale accogliesse anche solo in parte le richieste, potremmo vedere:

  • Gate d’accesso più severi per gli under 13 e percorsi dedicati per gli under 18;
  • Riduzione di meccanismi di dipendenza (scroll infinito, notifiche) sulle versioni per minori;
  • Maggiore trasparenza su come i feed selezionano i contenuti rivolti ai giovani;
  • Effetto domino su altre piattaforme, con adeguamenti proattivi per evitare contenziosi futuri.

Non c’è bacchetta magica: la tecnologia evolverà ancora e i ragazzi troveranno sempre scorciatoie. Ma se le regole del gioco cambiano a monte (accesso, design, responsabilità) il rischio sistemico può essere ridotto di molto.

Come restare informati e fare la propria parte

  • Genitori: rivedete privacy e impostazioni dei profili familiari; pensate due volte prima di pubblicare foto riconoscibili dei figli.
  • Scuole: mappate dove compaiono le immagini degli alunni online e valutate alternative (aree riservate, sfocature, consensi granulari).
  • Piattaforme: investite in verifica dell’età e minori-by-design. Il DSA non è una raccomandazione, è legge.

La vera domanda è ancora sul tavolo: vogliamo che siano i ragazzi ad adattarsi ai social, o i social ad adattarsi ai ragazzi? La class action Moige prova a spostare l’ago della bilancia.

Iscriviti alla newsletter e ricevi ogni mattina la puntata con le fonti.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.