Social sotto accusa: New York cita Big Tech, mentre Italia e Danimarca rilanciano i divieti under 14

New York apre un fronte legale pesante contro Meta, ByteDance, Alphabet e Snap: piattaforme accusate di creare dipendenza e danneggiare la salute mentale dei giovani. In Europa, intanto, tornano i divieti: la Danimarca propone lo stop sotto i 15 anni, l’Italia valuta nuove soglie e poteri di vigilanza. Due approcci diversi, un’unica domanda: come si protegge davvero chi ha meno di 18 anni senza spezzare il digitale in due?

New York porta i social in tribunale

La città di New York ha avviato una causa federale di oltre 300 pagine contro Meta (Instagram, Facebook), ByteDance (TikTok), Alphabet (YouTube) e Snap (Snapchat). Il cuore dell’accusa: piattaforme progettate per massimizzare il tempo di permanenza e l’engagement, con effetti negativi su sonno, concentrazione e rendimento scolastico dei più giovani. L’amministrazione parla esplicitamente di “crisi di salute pubblica” e punta a far pagare alle Big Tech i costi sanitari e sociali generati.

Secondo i dati citati nell’inchiesta e riportati da Italian Tech, oltre il 77% degli studenti delle scuole superiori trascorre più di tre ore al giorno sui social. Un indicatore che, incrociato con il boom di contenuti raccomandati e notifiche a catena, alimenta la preoccupazione per la salute mentale degli adolescenti.

Le accuse chiave: design persuasivo e crescita a ogni costo

  • Meccaniche di dipendenza: feed infiniti, autoplay, notifiche push e streaks che premiano la presenza quotidiana.
  • Raccomandazioni aggressive: algoritmi ottimizzati su click e watch time, non su benessere e qualità.
  • Protezione minori insufficiente: sistemi di verifica età deboli e controlli parentali non standard.
  • Esternalità sociali: spostamento dei costi su scuole, famiglie e sanità pubblica.

Cosa chiede New York

  • Risarcimenti per coprire i costi sanitari e sociali correlati.
  • Misure correttive sul design: limitazioni a feature “addictive”, più trasparenza sugli algoritmi.
  • Responsabilità nel monitorare e mitigare i rischi per i minori.

È un approccio ex post: rendere conto dei danni già prodotti e finanziare servizi di prevenzione e supporto. Un segnale politico forte che potrebbe spingere le piattaforme verso compromessi operativi, oltre che economici.

Europa tra divieti e consensi: Danimarca e Italia al bivio

Mentre New York cerca accountability in tribunale, in Europa si ragiona su divieti e soglie d’accesso. Il tema non è nuovo: dopo anni di tecno-entusiasmo, il pendolo sta andando verso tutela e controllo. Il Digital Services Act ha già fissato paletti su ads ai minori e valutazioni di rischio, ma la partita vera è l’accesso.

La proposta danese: stop sotto i 15 anni

La Danimarca ha messo sul tavolo una legge che vieta i social sotto i 15 anni, con accesso “controllato” dai 13 in su tramite consenso dei genitori. In pratica:

  • Soglia netta: niente profili e app social per chi ha meno di 15 anni.
  • Finestra 13–14 anni: accesso solo con consenso verificabile dei genitori.
  • Verifica età: il punto critico. Documenti, identità digitale, provider terzi? Serve una soluzione che tuteli privacy e inclusione.

Resta il nodo enforcement: senza standard comuni, il rischio è alimentare soluzioni frammentate, scappatoie (VPN, app non ufficiali) e caricare famiglie e scuole di responsabilità impossibili da gestire da sole.

Le due strade italiane in Parlamento

In Italia sono in discussione due DDL:

  • Disegno bipartisan: soglia a 15 anni, con AGCOM incaricata di vigilare e definire le regole attuative. Obiettivo: una cornice nazionale, poteri sanzionatori e linee guida per piattaforme e genitori.
  • Proposta Lega: divieto sotto i 14 anni per social e app di messaggistica (Facebook, Instagram, TikTok, WhatsApp, Telegram, Signal, ecc.). Approccio più restrittivo e lista di servizi esplicita, ma con il rischio di diventare rapidamente obsoleta.

Entrambe le proposte devono fare i conti con il perimetro europeo: il DSA non impone un’età unica d’accesso, e qualsiasi modello di verifica deve essere proporzionato e privacy-by-design. Senza standard UE condivisi, l’attuazione pratica diventa complicata e disomogenea.

Divieti vs. risarcimenti: due approcci che cambiano il gioco

Il confronto è netto:

  • New York spinge su responsabilità economica e correttivi di design. L’obiettivo è cambiare il prodotto, non solo l’età d’ingresso.
  • Danimarca/Italia puntano sull’accesso: chi può entrare, quando e a quali condizioni. L’obiettivo è ridurre l’esposizione in una fascia d’età sensibile.

Pro e contro? I divieti sono chiari, ma rischiano di spostare i minori verso piattaforme meno controllate e canali alternativi. Le cause costringono le Big Tech a rivedere meccaniche di engagement, ma sono lente e incerte. La vera leva potrebbe essere una combinazione: standard europei per la verifica dell’età, controlli parentali efficaci, valutazioni di rischio indipendenti e sanzioni credibili per chi non si adegua.

Impatto su famiglie, scuole e brand

  • Famiglie: aumento della responsabilità di consenso e vigilanza. Serviranno strumenti semplici (controlli parentali integrati, dashboard trasparenti) e linee guida chiare su tempi, contenuti e segnalazioni.
  • Scuole: più educazione digitale, alfabetizzazione mediatica e supporto psicologico. Senza formazione, i divieti restano sulla carta.
  • Brand e creator: attenzione al target. Niente campagne che intercettano minori in modo improprio, maggior focus su contenuti di qualità e community management responsabile. Il DSA già vieta certe pratiche pubblicitarie sui minori: le sanzioni sono reali.
  • Piattaforme: investimenti in age assurance, verifica del consenso genitoriale e redesign anti-dipendenza. Chi si muove per primo potrebbe trasformare un vincolo in vantaggio competitivo.

Cosa guardare nei prossimi mesi

  • Esito della causa di New York: possibile accordo economico e impegni vincolanti su design e trasparenza.
  • Iter danese e italiano: definizione della soglia, modalità di verifica dell’età, ruolo delle authority (AGCOM in primis).
  • Standard UE: se arriveranno linee guida comuni sull’age verification, l’attuazione sarà più semplice e meno invadente.
  • Tecnologie di verifica: soluzioni privacy-preserving (età sì, identità no) per evitare database sensibili e fughe di dati.
  • Effetti sul prodotto: limiti a notifiche, autoplay e streaks, più controlli per genitori e report d’impatto sul benessere digitale.

Conclusione

La protezione dei minori online non si risolve con una sola leva. Servono responsabilità, standard condivisi e strumenti usabili da genitori e scuole. La mossa di New York può accelerare il cambiamento nelle piattaforme, le proposte europee possono definire confini chiari. L’equilibrio – tra tutela e accesso – è la vera sfida.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.