Minori su Instagram e Facebook: perché l’UE accusa Meta e cosa può succedere ora

La Commissione Europea accusa Meta di non aver bloccato l’accesso a Instagram e Facebook agli under 13. È davvero così? E soprattutto: cosa prevede il DSA, quali sanzioni rischia Meta e cosa cambia per genitori, creator e brand.

Perché l’UE ha puntato i riflettori su Meta

Secondo i risultati preliminari pubblicati dalla Commissione Europea, Meta non avrebbe impedito in modo efficace l’uso di Instagram e Facebook ai minori di 13 anni, come richiesto dalle regole europee a tutela dei minori. La contestazione ricade nell’ambito del Digital Services Act (DSA), il regolamento che impone obblighi chiari alle grandi piattaforme su sicurezza, trasparenza e protezione degli utenti vulnerabili.

La nota ufficiale della Commissione è disponibile qui: comunicato stampa della Commissione Europea.

Verifica dell’età: il nodo centrale

Il cuore della contestazione riguarda la verifica dell’età: per Bruxelles, i sistemi di Meta non sarebbero sufficientemente robusti per prevenire, rilevare e rimuovere gli account di minori di 13 anni. Il tema è noto: la semplice autocertificazione all’iscrizione o controlli a campione non bastano quando si parla di piattaforme usate ogni giorno da centinaia di milioni di persone.

Interfacce, algoritmi e tutela dei minori

Nel mirino anche il modo in cui interfacce e algoritmi possono incidere sull’esperienza dei più giovani: design che favoriscono un uso compulsivo, raccomandazioni poco adeguate all’età, settaggi privacy non sempre perfettamente allineati alla piena protezione dei minori. Per l’UE, questi elementi rientrano nella responsabilità delle VLOPs (Very Large Online Platforms) previste dal DSA.

È una novità? Una questione che va avanti da anni

Non è la prima volta che si discute dell’accesso dei minori ai social. L’indagine europea è stata avviata nel 2024 e la pubblicazione dei risultati è tuttora preliminare. Il punto, però, è che il problema è sul tavolo da molto prima: minorenni attivi sui social tramite autocertificazione, strumenti di controllo non sempre coerenti tra piattaforme e Paesi, aggiornamenti continui che rendono complessa un’applicazione uniforme delle regole.

Nel frattempo, gli ecosistemi digitali si evolvono in fretta: nuovi formati, nuovi sistemi di raccomandazione, nuove funzioni “per teen” che si sommano a meccanismi di verifica sempre più automatizzati. Il rischio è che i tempi regolatori e i tempi delle piattaforme continuino a correre su binari differenti.

Cosa rischia Meta sotto il DSA

  • Sanzioni fino al 6% del fatturato annuo globale in caso di accertata violazione.
  • Ordini di conformità: la Commissione può imporre correzioni specifiche e tempi stringenti.
  • Verifiche continuative e possibili misure aggiuntive se i rischi per i minori restano elevati.

In concreto, Bruxelles può chiedere a Meta di introdurre o potenziare meccanismi di age verification e di rimozione degli account under 13, oltre a ripensare elementi di interfaccia e di raccomandazione che possano incidere negativamente sui minori.

La replica di Meta: “Le piattaforme sono 13+ e i controlli ci sono”

Meta sostiene di indicare in modo chiaro che Instagram e Facebook sono destinati a persone dai 13 anni in su, e di aver già implementato strumenti per individuare e disabilitare gli account under 13. Tra le misure citate: sistemi di AI che stimano l’età in base a segnali comportamentali, esperienze dedicate ai teenager con limiti e settaggi più restrittivi, funzioni per i genitori e maggiori tutele nella messaggistica.

Resta il punto sollevato dall’UE: l’efficacia di questi strumenti. Non basta dichiarare l’esistenza dei controlli; per il DSA contano risultati misurabili, auditabili e coerenti con la riduzione effettiva del rischio per i minori.

Implicazioni pratiche: cosa cambia per genitori, creator e brand

Per genitori e tutori

  • Verificare l’età effettiva dei figli sugli account e usare gli strumenti di supervisione disponibili nelle app.
  • Segnalare account palesemente under 13 e impostare limiti di tempo e privacy più restrittivi.
  • Informarsi sulle regole europee per capire diritti e tutele previste per i minori.

Per creator e brand

  • Fare audit dell’audience per capire la quota di utenti minori di 18 anni e adeguare tono, creatività e frequenza.
  • Rivedere targeting e policy delle campagne per evitare esposizioni non appropriate ai minori.
  • Allineare privacy, moderazione e segnalazioni interne a eventuali nuovi obblighi sulle piattaforme.
  • Prepararsi a possibili limitazioni di funzionalità per i profili teen (notifiche, messaggi, raccomandazioni).

Dove approfondire

Documento ufficiale UE: comunicato della Commissione Europea

Fonte e link utili della puntata: scheda episodio e risorse

Per ricevere ogni mattina la puntata e le fonti, iscriviti alla newsletter: ilcaffettino.it/newsletter/

Conclusione

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.