Occhiali smart di Meta: chi può vedere i tuoi video? L’inchiesta che riapre il caso privacy
Gli occhiali con videocamera sono comodi, discreti, quasi “invisibili”. Proprio per questo rischiano di farci abbassare la guardia. Un’inchiesta internazionale sugli occhiali di Meta e la conferma dell’azienda riaccendono le domande su chi guarda davvero i nostri contenuti e con quali tutele.
Cosa ha scoperto l’inchiesta
Due testate svedesi, Svenska Dagbladet e Göteborgs-Posten, hanno ricostruito un flusso di lavoro in cui alcuni video registrati con gli occhiali di Meta vengono esaminati da personale di un’azienda appaltatrice di Meta con sede in Kenya. L’obiettivo dichiarato sarebbe il miglioramento delle prestazioni del prodotto: qualità delle riprese, comprensione dei comandi, affidabilità delle funzioni AI. Non parliamo quindi solo di moderazione, ma di un’ampia attività di “revisione” dei contenuti.
Secondo le ricostruzioni riprese da Il Post, Meta ha confermato che in alcuni casi si avvale di lavoratori esterni per analizzare i contenuti generati dagli utenti. Tradotto: una parte di ciò che inquadriamo può essere vista da persone al di fuori dell’azienda. È una prassi che molti esperti definiscono “non insolita” nel settore tech, ma che solleva interrogativi urgenti quando riguarda dispositivi sempre accesi e indossabili.
Perché è un problema di privacy (non solo per chi indossa gli occhiali)
Gli occhiali smart promettono mani libere e naturalezza. È proprio questa naturalezza a creare il cortocircuito. Quando un oggetto tecnologico diventa parte del quotidiano, non lo percepiamo più come una telecamera. Così finiamo per riprendere ambienti, persone, documenti senza pensarci troppo. E non parliamo solo dell’utente: chi entra nell’inquadratura spesso non sa di essere registrato, né immagina che quel frammento possa essere visto, analizzato e archiviato lontano da dove è stato catturato.
In questo scenario, “intimità” non è solo il momento privato a casa, ma anche la routine di lavoro, una call in ufficio, uno schermo aperto, un badge. Il rischio non è teorico: più un contenuto è realistico e vicino alla vita di tutti i giorni, più può includere elementi sensibili senza che ce ne rendiamo conto.
Dati sensibili a rischio
- Documenti e codici: carte d’identità, carte di credito, biglietti con QR.
- Informazioni aziendali: schermi di computer, dati riservati, sale riunioni.
- Dettagli domestici: interni di casa, abitudini, oggetti di valore.
- Persone inconsapevoli: volti di minori o di terzi non avvisati.
- Momenti privati: conversazioni e situazioni intime.
Dove finiscono questi contenuti?
Il percorso tipico prevede il passaggio dai dispositivi ai server e, in alcuni casi, ai fornitori esterni incaricati della revisione. Qui entrano in gioco contratti, policy e misure di sicurezza. Ma ogni esternalizzazione aggiunge un anello alla catena: più soggetti toccano un contenuto, più crescono superficie d’attacco e possibilità di errore umano. Non serve immaginare complotti: bastano copie temporanee, screenshot impropri, procedure poco chiare.
Il punto non è la geografia (Kenya o altrove), ma il modello: chi può accedere a cosa, per quanto tempo e con quali controlli. Senza risposte trasparenti, gli utenti non hanno modo di valutare il rischio reale né di regolare i propri comportamenti.
Cosa dice Meta e cosa sappiamo ad oggi
Alla luce delle ricostruzioni, Il Post riporta che Meta ha ammesso l’uso di lavoratori esterni per migliorare i prodotti, confermando che in alcuni casi i video generati con gli occhiali possono essere visionati. È una logica simile a quella vista nell’addestramento di sistemi di intelligenza artificiale: serve materiale reale per ottimizzare i modelli e ridurre gli errori.
Resta però una domanda chiave: che cosa viene esattamente osservato, con quali criteri e tutele per gli utenti e i soggetti ripresi? Senza linee guida pubbliche e verificabili, termini di conservazione dei dati e possibilità di esclusione chiare, il bilanciamento tra innovazione e privacy resta sbilanciato. Normalizzare la pratica non basta: serve trasparenza operativa e possibilità di scelta.
Come tutelarti subito
- Attenzione a cosa registri: evita documenti, codici, schermi e conversazioni sensibili.
- Controlla app e servizi collegati: rivedi permessi, backup e condivisioni; disattiva ciò che non ti serve.
- Elimina rapidamente clip superflue o delicate dal dispositivo e dal cloud.
- Aggiorna firmware e leggi periodicamente informativa privacy e termini di servizio.
- Chiedi consenso quando riprendi altre persone; in contesti privati, togli gli occhiali.
- In azienda, stabilisci policy chiare su dove e quando usare gli occhiali smart.
- In caso di problemi, segnala all’assistenza e richiedi la cancellazione dei dati.
La domanda vera: quali limiti vogliamo per la tecnologia indossabile?
La tecnologia indossabile è destinata a crescere. Ma più diventa “invisibile”, più servono regole visibili: report di trasparenza, audit indipendenti sui fornitori, opzioni di elaborazione on-device come impostazione predefinita, controlli granulari sugli upload, informative chiare anche per i soggetti ripresi. Non è un freno all’innovazione: è ciò che la rende sostenibile e affidabile.
Nel frattempo, informarsi fa la differenza. Per ricevere ogni mattina puntata e fonti direttamente nella tua casella email, puoi iscriverti alla newsletter de Il Caffettino.
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.