Il 93% degli italiani usa l’AI al lavoro senza sapere cosa rischia

NordVPN ha diffuso un dato che fa rumore: il 93% degli italiani non è consapevole degli aspetti legati alla privacy da considerare quando usa strumenti di intelligenza artificiale sul lavoro. E non è solo un tema da nerd: è una questione di dati aziendali, responsabilità e truffe che diventano sempre più credibili. Non a caso se ne parla oggi, in occasione del Data Privacy Day. E la domanda che dobbiamo farci è scomoda: quanto stiamo diventando veloci con l’AI, senza diventare altrettanto attenti con i dati?

Perché questa statistica conta più di quanto sembri

L’AI in ufficio viene spesso vissuta come una scorciatoia innocua: “scrivimi una mail”, “riassumi questo documento”, “dammi un’idea per questa proposta”. Il problema è che non è una chiacchierata alla macchinetta del caffè: le interazioni possono essere registrate, archiviate, analizzate e in certi casi persino riutilizzate (a seconda di piattaforme, impostazioni e policy aziendali). Se dentro ci metti dati di clienti, strategie, numeri, nomi, dettagli operativi o altro, hai creato una potenziale fuga di informazioni senza nemmeno accorgertene.

Una distinzione utile è questa: rispetto a un collega, un assistente AI è un sistema che può “trattenere” tracce. E se quell’input è sensibile, il danno non è teorico: è reale, soprattutto in contesti dove la pressione di “fare presto” ti porta a incollare dentro qualsiasi cosa.

Il secondo dato spaventoso: il 59% degli italiani non riconosce le truffe AI

Qui arriva la combo pericolosa: mentre molte persone condividono informazioni con leggerezza, il 59% degli italiani non riesce a riconoscere le truffe più comuni generate dall’AI (deepfake, clonazione vocale e simili). Tradotto: da un lato alimenti involontariamente il rischio con i tuoi dati, dall’altro sei meno capace di riconoscere quando quei meccanismi vengono usati contro di te.

Il parallelo è molto chiaro: più “metti in giro” informazioni (anche in buona fede), più diventi agganciabile. Oggi non serve più essere un criminale “tecnico” per costruire un raggiro credibile: l’AI abbassa la soglia di ingresso.

Dove si rischia davvero (spoiler: non copi solo un testo)

Il rischio non risiede nell’usare l’AI. Il rischio sta in come la usi e in cosa ci metti dentro. Ecco i punti più comuni dove avviene il disastro:

  • Dati cliente: brief, note, obiezioni, prezzi, contatti, problemi aperti.
  • Strategie interne: piani, roadmap, documenti di posizionamento, analisi dei competitor.
  • Informazioni personali: numeri, indirizzi, dati sensibili (tuoi o di terzi).
  • Contenuti quasi anonimi”: anche senza i nomi, spesso bastano contesto e dettagli per rendere identificabile un progetto o una persona.

E attenzione al punto più subdolo: anche quando ti sembra di non aver scritto niente di grave, potresti aver dato abbastanza dettagli da rendere il quadro ricostruibile.

Le VPN: meno culto, più buon senso

Non esiste la soluzione unica che “mette a posto tutto”. L’uso di strumenti di protezione ha senso solo dentro una cornice di comportamento corretto e policy minime.

E c’è anche un tema geopolitico e normativo che vale la pena tenere d’occhio: in alcuni Paesi si discute di possibili restrizioni sull’uso delle VPN per i minori. Al di là del caso specifico, il messaggio è: capire quando una tecnologia protegge, quando è neutra e quando può diventare un problema.

Morale: non esiste il tool miracoloso. Esiste un comportamento corretto più una policy minima.

Cosa fare: pratiche concrete per persone e aziende

Se usi l’AI al lavoro: 3 regole semplici che valgono subito

  • Non incollare mai dati riservati, informazioni sul cliente, numeri interni, dettagli personali.
  • Tratta ogni prompt come se potesse finire in un log: scrivi solo ciò che scriveresti in un documento condivisibile.
  • Se devi lavorare su un caso reale, astrai: sostituisci nomi, importi e dettagli identificabili (Cliente A, Progetto B, range, ecc.).

Se gestisci un team: 4 mosse operative a basso sforzo

  • Policy AI in una pagina: cosa si può inserire e cosa no. Se non esiste, le persone improvvisano.
  • Training anti-truffa: 30 minuti su deepfake, voice cloning, phishing “migliorato” dall’AI. Il dato del 59% dice che serve.
  • Canale di verifica: una procedura standard per richieste anomale (pagamenti, password, accessi, bonifici, cambi IBAN).
  • Separazione degli strumenti: per attività sensibili, usa soluzioni con governance chiara e account aziendali, non strumenti “aperti” personali.

Il punto critico

La domanda non è: l’AI ci fa lavorare meglio? Quello lo stiamo già vedendo. Invece bisogna chiedersi: stiamo diventando produttivi più velocemente di quanto stiamo diventando prudenti?

Se la risposta è sì, il conto arriva sotto forma di dati condivisi troppo in fretta, processi non protetti, truffe più credibili e persone che si fidano “perché sembra vero”.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.