Social sotto accusa: New York cita Big Tech, mentre Italia e Danimarca rilanciano i divieti under 14
New York apre un fronte legale pesante contro Meta, ByteDance, Alphabet e Snap: piattaforme accusate di creare dipendenza e danneggiare la salute mentale dei giovani. In Europa, intanto, tornano i divieti: la Danimarca propone lo stop sotto i 15 anni, l’Italia valuta nuove soglie e poteri di vigilanza. Due approcci diversi, un’unica domanda: come si protegge davvero chi ha meno di 18 anni senza spezzare il digitale in due?
New York porta i social in tribunale
La città di New York ha avviato una causa federale di oltre 300 pagine contro Meta (Instagram, Facebook), ByteDance (TikTok), Alphabet (YouTube) e Snap (Snapchat). Il cuore dell’accusa: piattaforme progettate per massimizzare il tempo di permanenza e l’engagement, con effetti negativi su sonno, concentrazione e rendimento scolastico dei più giovani. L’amministrazione parla esplicitamente di “crisi di salute pubblica” e punta a far pagare alle Big Tech i costi sanitari e sociali generati.
Secondo i dati citati nell’inchiesta e riportati da Italian Tech, oltre il 77% degli studenti delle scuole superiori trascorre più di tre ore al giorno sui social. Un indicatore che, incrociato con il boom di contenuti raccomandati e notifiche a catena, alimenta la preoccupazione per la salute mentale degli adolescenti.
Le accuse chiave: design persuasivo e crescita a ogni costo
- Meccaniche di dipendenza: feed infiniti, autoplay, notifiche push e streaks che premiano la presenza quotidiana.
- Raccomandazioni aggressive: algoritmi ottimizzati su click e watch time, non su benessere e qualità.
- Protezione minori insufficiente: sistemi di verifica età deboli e controlli parentali non standard.
- Esternalità sociali: spostamento dei costi su scuole, famiglie e sanità pubblica.
Cosa chiede New York
- Risarcimenti per coprire i costi sanitari e sociali correlati.
- Misure correttive sul design: limitazioni a feature “addictive”, più trasparenza sugli algoritmi.
- Responsabilità nel monitorare e mitigare i rischi per i minori.
È un approccio ex post: rendere conto dei danni già prodotti e finanziare servizi di prevenzione e supporto. Un segnale politico forte che potrebbe spingere le piattaforme verso compromessi operativi, oltre che economici.
Europa tra divieti e consensi: Danimarca e Italia al bivio
Mentre New York cerca accountability in tribunale, in Europa si ragiona su divieti e soglie d’accesso. Il tema non è nuovo: dopo anni di tecno-entusiasmo, il pendolo sta andando verso tutela e controllo. Il Digital Services Act ha già fissato paletti su ads ai minori e valutazioni di rischio, ma la partita vera è l’accesso.
La proposta danese: stop sotto i 15 anni
La Danimarca ha messo sul tavolo una legge che vieta i social sotto i 15 anni, con accesso “controllato” dai 13 in su tramite consenso dei genitori. In pratica:
- Soglia netta: niente profili e app social per chi ha meno di 15 anni.
- Finestra 13–14 anni: accesso solo con consenso verificabile dei genitori.
- Verifica età: il punto critico. Documenti, identità digitale, provider terzi? Serve una soluzione che tuteli privacy e inclusione.
Resta il nodo enforcement: senza standard comuni, il rischio è alimentare soluzioni frammentate, scappatoie (VPN, app non ufficiali) e caricare famiglie e scuole di responsabilità impossibili da gestire da sole.
Le due strade italiane in Parlamento
In Italia sono in discussione due DDL:
- Disegno bipartisan: soglia a 15 anni, con AGCOM incaricata di vigilare e definire le regole attuative. Obiettivo: una cornice nazionale, poteri sanzionatori e linee guida per piattaforme e genitori.
- Proposta Lega: divieto sotto i 14 anni per social e app di messaggistica (Facebook, Instagram, TikTok, WhatsApp, Telegram, Signal, ecc.). Approccio più restrittivo e lista di servizi esplicita, ma con il rischio di diventare rapidamente obsoleta.
Entrambe le proposte devono fare i conti con il perimetro europeo: il DSA non impone un’età unica d’accesso, e qualsiasi modello di verifica deve essere proporzionato e privacy-by-design. Senza standard UE condivisi, l’attuazione pratica diventa complicata e disomogenea.
Divieti vs. risarcimenti: due approcci che cambiano il gioco
Il confronto è netto:
- New York spinge su responsabilità economica e correttivi di design. L’obiettivo è cambiare il prodotto, non solo l’età d’ingresso.
- Danimarca/Italia puntano sull’accesso: chi può entrare, quando e a quali condizioni. L’obiettivo è ridurre l’esposizione in una fascia d’età sensibile.
Pro e contro? I divieti sono chiari, ma rischiano di spostare i minori verso piattaforme meno controllate e canali alternativi. Le cause costringono le Big Tech a rivedere meccaniche di engagement, ma sono lente e incerte. La vera leva potrebbe essere una combinazione: standard europei per la verifica dell’età, controlli parentali efficaci, valutazioni di rischio indipendenti e sanzioni credibili per chi non si adegua.
Impatto su famiglie, scuole e brand
- Famiglie: aumento della responsabilità di consenso e vigilanza. Serviranno strumenti semplici (controlli parentali integrati, dashboard trasparenti) e linee guida chiare su tempi, contenuti e segnalazioni.
- Scuole: più educazione digitale, alfabetizzazione mediatica e supporto psicologico. Senza formazione, i divieti restano sulla carta.
- Brand e creator: attenzione al target. Niente campagne che intercettano minori in modo improprio, maggior focus su contenuti di qualità e community management responsabile. Il DSA già vieta certe pratiche pubblicitarie sui minori: le sanzioni sono reali.
- Piattaforme: investimenti in age assurance, verifica del consenso genitoriale e redesign anti-dipendenza. Chi si muove per primo potrebbe trasformare un vincolo in vantaggio competitivo.
Cosa guardare nei prossimi mesi
- Esito della causa di New York: possibile accordo economico e impegni vincolanti su design e trasparenza.
- Iter danese e italiano: definizione della soglia, modalità di verifica dell’età, ruolo delle authority (AGCOM in primis).
- Standard UE: se arriveranno linee guida comuni sull’age verification, l’attuazione sarà più semplice e meno invadente.
- Tecnologie di verifica: soluzioni privacy-preserving (età sì, identità no) per evitare database sensibili e fughe di dati.
- Effetti sul prodotto: limiti a notifiche, autoplay e streaks, più controlli per genitori e report d’impatto sul benessere digitale.
Conclusione
La protezione dei minori online non si risolve con una sola leva. Servono responsabilità, standard condivisi e strumenti usabili da genitori e scuole. La mossa di New York può accelerare il cambiamento nelle piattaforme, le proposte europee possono definire confini chiari. L’equilibrio – tra tutela e accesso – è la vera sfida.
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.