Torino, agenti aggrediti e foto “AI”: cosa è vero, cosa no e come difendersi dal caos
Un video, tanti frame estratti e una valanga di sospetti: a Torino l’aggressione agli agenti diventa un caso sull’uso dell’intelligenza artificiale nelle immagini. Facciamo ordine: cosa è stato davvero ritoccato, cosa no e come evitare di cascarci la prossima volta.
Il caso: dal corteo alle immagini virali
Tutto parte dal video dell’aggressione a un poliziotto a Torino, al termine del corteo del 31 gennaio legato al centro sociale Askatasuna. Da quel filmato vengono estrapolati fotogrammi rilanciati ovunque: media, social, canali istituzionali. Poi arrivano le foto della visita di Giorgia Meloni ai due agenti feriti, Alessandro Calista e Lorenzo Virgulti, e il sospetto generalizzato: “È tutto fake?”.
Nel giro di poche ore, compaiono accuse su presunti cerotti “sbagliati”, dettagli anatomici incoerenti, ritocchi realizzati con l’AI spacciati per prove schiaccianti. Il risultato? Il solito cortocircuito: indignazione, complotti, confusione. Serve metodo, non pancia.
Cosa dice il debunking di Open
Secondo l’analisi pubblicata da Open a firma di David Puente e Juanne Pili, le foto della visita di Giorgia Meloni ai due agenti non risultano generate né alterate dall’intelligenza artificiale. L’approfondimento ricostruisce fonti e riscontri, smontando i principali fraintendimenti circolati online. Qui il riferimento completo: l’articolo di Open.
Al contrario, alcune immagini rilanciate sui social — anche da canali ufficiali — mostrano segni di elaborazioni con strumenti AI (ad esempio upscaling, face restoration o filtri di “pulizia” dell’immagine). Questo non significa “immagini inventate da zero”, ma foto derivate e migliorate a partire da frame reali, con il rischio però di alterare dettagli e percezioni.
Dove l’AI c’è davvero e dove no
Le immagini degli agenti feriti
I frame tratti dal video originale sono a bassa qualità. È plausibile che utenti (e pagine) abbiano usato tool di intelligenza artificiale per “ripulirli”, aumentando la definizione e ricostruendo i tratti del volto. Questo tipo di intervento può enfatizzare graffi, lividi o linee della pelle e, in alcuni casi, introdurre elementi ex novo.
Molte anomalie denunciate online, come il “cerotto impossibile”, rientrano nella categoria dei falsi positivi: giochi di luce, compressione, prospettiva, sommate al restauro AI, creano l’illusione di elementi incoerenti. Non sono evidenze di una messinscena.
Le foto della visita di Giorgia Meloni
Il debunking di Open indica che queste immagini sono autentiche. Non emergono manipolazioni riconducibili a generazione o alterazione AI. La confusione nasce dall’aver messo nello stesso calderone foto derivate da frame “potenziati” e scatti professionali provenienti da fonti primarie verificate.
Perché succede: meccanismi social e tecnici
Tre dinamiche alimentano il caos:
- Qualità scarsa all’origine: i frame estratti da video sono poveri di dettaglio; l’AI “ricostruisce” e a volte inventa micro-dettagli plausibili.
- Economia dell’attenzione: un sospetto forte viaggia più veloce di una verifica solida. E gli algoritmi premiano l’engagement, non l’accuratezza.
- Ambiguità delle fonti: se anche canali ufficiali rilanciano immagini AI-enhanced senza specificarlo, il confine tra realtà e finzione si sfoca. Serve trasparenza.
Come difendersi nella post-verità: una checklist pratica
- Aspetta le fonti primarie: cerca video originali, comunicati, scatti multipli dello stesso momento.
- Confronta versioni: la stessa scena vista da più angolazioni riduce i falsi positivi.
- Occhio agli artefatti: pelle simile a cera, bordi troppo netti e pattern ripetuti sono tipici di upscaling/restauro AI.
- Non delegare il fact-checking all’AI: i tool non sono infallibili nel riconoscere manipolazioni; servono tempo e metodo umano.
- Verifica con chi fa debunking: consulta analisi strutturate come quelle di Open.
- Contesto, non solo pixel: chi ha scattato? Dove? Quando? Ci sono metadati o testimoni?
- Allenati alla dieta informativa: diversifica le fonti, iscriviti a newsletter che selezionano e spiegano. Per esempio: La newsletter de Il Caffettino.
Il futuro dell’informazione
La direzione è chiara: più giornalismo sul campo, meno rimbalzo di materiali non verificati. Servono standard di provenance (tracciabilità e certificazione degli scatti), policy chiare su immagini AI-enhanced e una comunicazione trasparente quando si applicano filtri o restauri.
Accanto ai reporter, emerge una figura chiave: una sorta di “nutrizionista dell’informazione”. Un professionista, nella scuola, nelle aziende, nelle redazioni, che aiuta a costruire una dieta informativa sostenibile: quali fonti seguire, come valutarle, come usare la tecnologia senza farsi usare. È qui che si gioca la differenza tra opinioni urlate e conoscenza utile.
La lezione del caso di Torino non è “l’AI mente sempre”, ma il contrario: l’AI amplifica. Se partiamo da fatti solidi, chiarisce. Se partiamo dal caos, lo moltiplica. Il punto non è demonizzare gli strumenti, ma pretendere processi, responsabilità e tempo di verifica.
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.