Deloitte rimborsa parte di un report al governo australiano: quando l’IA “allucina” e la governance vacilla

Una delle Big Four è finita nel mirino per una ragione ormai familiare a chi usa l’intelligenza artificiale: citazioni inventate e fonti inesistenti in un report da centinaia di migliaia di dollari. Deloitte ha rimborsato il governo australiano dopo che l’uso di un modello generativo ha introdotto errori gravi in un documento ufficiale. Non è solo una gaffe tecnologica: è una lezione di governance, responsabilità e controllo umano sull’IA.

Cosa è successo (e perché è grave)

Secondo quanto riportato da The Guardian, Deloitte ha accettato di restituire una parte del compenso per un report da 439.000 dollari australiani (circa 250.000 euro), consegnato al governo guidato da Anthony Albanese. All’interno del documento c’erano note a piè di pagina e riferimenti che non esistevano, generati dall’intelligenza artificiale. In più, una citazione attribuita a una sentenza federale risultava inventata.

Le autorità australiane avrebbero chiarito che le raccomandazioni finali del report non cambiavano; il punto è che la solidità del documento viene meno quando le evidenze a supporto sono errate. Per consulenti, PA e aziende significa toccare con mano due rischi: la perdita di credibilità e la necessità di processi di verifica robusti quando si integra l’IA generativa nel lavoro quotidiano.

I dettagli chiave del caso

  • Valore della commessa: 439.000 AUD. Rimborso parziale concordato dopo la contestazione.
  • Natura degli errori: fonti inesistenti in note a piè di pagina e una presunta citazione giuridica non reale.
  • Impatto sul contenuto: secondo il governo le conclusioni non cambiano, ma la qualità delle evidenze è stata compromessa.
  • Elemento abilitante: uso di IA generativa senza controlli sufficienti su fonti e citazioni.
  • Conseguenza: rimborso e riflessione pubblica su procedure, responsabilità e governance dell’IA.

Cos’è un’allucinazione dell’IA (in pratica)

Le “allucinazioni” sono risposte plausibili ma false generate da modelli linguistici. L’IA non “sa”, prevede la parola successiva in base a schemi statistici. Senza un collegamento a fonti verificate, può creare riferimenti, numeri o citazioni dal nulla. Più chiediamo all’IA di produrre testo “autorevole” (con note, sentenze, studi), più il rischio aumenta se:

  • il modello non ha accesso a basi dati affidabili;
  • non c’è una pipeline di verifica umana;
  • si confonde l’output del modello con un fatto dimostrato.

Usare l’IA in ambito professionale richiede tracciabilità delle fonti, limitazioni d’uso e controlli ex ante ed ex post. Non basta “farsi aiutare” per la bozza: bisogna mettere in sicurezza il processo.

Dove si è inceppato il processo

Il caso Deloitte mette a nudo un punto debole ricorrente: la validazione delle evidenze. La costruzione di un report con note e citazioni implica controlli rigorosi su fonti, date, riferimenti giuridici. Se queste verifiche sono affidate a una catena di prompt e copia-incolla, senza un fact-checking sistematico, l’errore è questione di tempo.

Criticità probabili emerse dal caso:

  • Uso non dichiarato o non tracciato dell’IA nelle fasi di ricerca e redazione.
  • Mancanza di linee guida interne vincolanti su quando e come usare modelli generativi.
  • Assenza di audit sulle citazioni: nessuno ha verificato una per una le note a piè di pagina.
  • Overconfidence nell’output dell’IA, scambiato per verità verificata.

Cosa avrebbero dovuto fare (checklist essenziale)

  • Dichiarazione d’uso dell’IA nel report e nel contratto, con limiti espliciti.
  • Fact-checking umano su tutte le citazioni, con approvazione finale “a penna”.
  • RAG (Retrieval-Augmented Generation): generare testo solo da un corpus documentale verificato, con citazioni cliccabili.
  • Policy di citazione: niente riferimenti che non abbiano un URL, DOI o identificatore ufficiale.
  • Red team interno per tentare di “bucare” il documento prima della consegna.
  • Registro delle versioni e tracciabilità delle modifiche prodotte dall’IA.
  • Formazione dei team su bias, allucinazioni e limiti dei modelli.

Il corto circuito della traduzione: “Albanese” non è “Albania”

Il caos non riguarda solo le note inventate. Alcune testate e account social italiani hanno rilanciato la notizia traducendo “Albanese government” come “governo albanese”, confondendo il cognome del primo ministro australiano, Anthony Albanese, con il paese Albania. È il classico effetto collaterale di traduzioni automatiche senza verifica umana. La cura è una sola: aprire la fonte e leggere con attenzione. Qui c’è l’articolo originale: The Guardian.

Morale operativa: non basta affidarsi all’IA per tradurre o sintetizzare; serve controllo editoriale, soprattutto quando nomi propri e contesti istituzionali possono generare ambiguità.

Perché riguarda tutti: aziende, PA e professionisti

Non è un incidente isolato delle Big Four. Qualsiasi organizzazione che usi l’IA per documenti, gare, reportistica o comunicazione corre gli stessi rischi. Tre impatti da non sottovalutare:

  • Reputazione: anche se le conclusioni sono corrette, evidenze sbagliate rovinano la credibilità.
  • Contrattualistica: i clienti possono chiedere rimborsi o penali se i deliverable non rispettano gli standard.
  • Compliance: per settori regolati (sanità, finanza, PA) citazioni false possono avere effetti legali.

La soluzione non è “bandire l’IA”, ma governarla: definire chi può usarla, per quali attività, con quali strumenti, e come si verifica il risultato prima di metterci il logo e la firma.

Cosa cambia da domani: 5 azioni concrete

  • Scrivi una policy IA chiara: cosa è permesso, cosa no, e come va dichiarato al cliente.
  • Implementa RAG e citazioni verificabili: niente testo “creativo” su normative, sentenze e dati sensibili.
  • Istituisci il doppio controllo umano: revisione legale/tecnica per note, numeri e riferimenti.
  • Log e tracciabilità: conserva prompt, fonti e versioni per audit interni ed esterni.
  • Forma il team su allucinazioni e fact-checking: l’IA aiuta, ma la responsabilità resta umana.

Questo caso dovrebbe essere un promemoria: la produttività promessa dall’IA vale solo se sostenuta da qualità e controllo. Altrimenti il costo nascosto arriva, e si paga in rimborsi, tempo perso e fiducia erosa.

Il punto

Deloitte ha rimborsato il governo australiano dopo un report con errori generati dall’IA. Le conclusioni, secondo le autorità, restano valide, ma il danno c’è: citazioni inventate, note inesistenti e un effetto domino sulla credibilità. La tecnologia non sbaglia “da sola”: è compito di aziende e istituzioni mettere in piedi processi, strumenti e persone in grado di prevenire l’errore e correggerlo prima della consegna.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.