Riconoscimento facciale nel mirino: arrestato a 100 miglia dal furto per un match sbagliato
Un algoritmo “vede” una corrispondenza, la polizia bussa alla porta e scatta l’arresto. Peccato che il sospetto fosse a 100 miglia dalla scena del furto. Quando l’AI sbaglia, il conto lo paga la libertà delle persone.
Vuoi ricevere ogni mattina la puntata e le fonti? Iscriviti alla newsletter de Il Caffettino.
Il caso: quando l’algoritmo bussa alla porta
Nel Regno Unito un ingegnere 26enne di Southampton è stato ammanettato in casa e trattenuto per ore perché un sistema di riconoscimento facciale lo avrebbe “trovato” tra i volti di un video legato a un furto avvenuto 100 miglia più a nord. Secondo quanto riportato da The Guardian, il sospetto segnalato dall’algoritmo aveva tratti somatici e caratteristiche anagrafiche differenti: più giovane, tonalità di pelle diversa, dettagli del viso non corrispondenti. Eppure la segnalazione automatica è bastata per far partire l’azione operativa, culminata nell’arresto e in circa 10 ore di custodia.
Cosa non ha funzionato
Il problema non è solo l’errore dell’algoritmo, ma la catena decisionale che lo ha “assorbito” senza filtri. Una corrispondenza di riconoscimento facciale dovrebbe essere trattata come un indizio investigativo da verificare, non come una prova. Qui sembra siano mancati controlli basilari: confronto umano sui tratti, coerenza temporale e geografica, riscontri indipendenti.
Cos’è il riconoscimento facciale “retrospettivo”
Il riconoscimento facciale non è tutto uguale. Esiste quello “dal vivo” (telecamere che scandagliano volti in tempo reale) e quello “retrospettivo”, che analizza immagini o video dopo il fatto alla ricerca di somiglianze con database esistenti. Nel caso britannico parliamo proprio di riconoscimento retrospettivo, ormai diffuso tra le forze dell’ordine. Il Ministero dell’Interno ha fatto sapere che sono in corso revisioni di linee guida e formazione per ridurre al minimo gli errori e preservare la fiducia pubblica, come ricorda The Guardian.
Bias e falsi positivi: il nodo critico
La comunità scientifica lo segnala da anni: i sistemi di riconoscimento facciale hanno tassi di falsi positivi più alti per alcune categorie di persone, in particolare per chi ha la pelle scura e per i volti asiatici. Non è un dettaglio statistico, è un rischio concreto di ingiustizia. Se il sistema sbaglia più spesso su certi gruppi, aumentano le probabilità che proprio quei cittadini vengano fermati, interrogati o arrestati senza motivo.
Gli errori nascono da un mix di fattori:
- Qualità delle immagini: inquadrature scadenti, poca luce, angoli estremi aumentano l’ambiguità.
- Database e addestramento: se i dati non rappresentano adeguatamente la diversità reale dei volti, l’algoritmo generalizza male.
- Somiglianze fuorvianti: tratti superficiali condivisi (acconciatura, postura, accessori) possono pesare indebitamente.
- Overconfidence umana: quando arriva un “match”, gli operatori tendono a dargli troppo credito, riducendo lo scetticismo necessario.
Perché l’errore “pesa” 100 miglia
La distanza geografica non è una prova di innocenza, ma dovrebbe attivare una verifica immediata: orari, alibi, spostamenti possibili. Se un presunto colpevole si trova a 100 miglia di distanza nel momento del reato, serve un controllo extra prima di passare alle manette. In questo caso la scorciatoia tecnologica ha superato il buon senso operativo.
Dove si traccia il limite: pause e divieti
Negli Stati Uniti alcune città, come San Francisco, hanno limitato o vietato l’uso del riconoscimento facciale da parte delle autorità, proprio per evitare abusi e falsi positivi non gestiti. In Europa e nel Regno Unito il pendolo oscilla tra sperimentazione e cautela regolatoria. Il punto non è demonizzare la tecnologia: è fissare regole chiare su quando e come usarla, con controlli indipendenti e responsabilità trasparenti.
Come usare (bene) il riconoscimento facciale
- Mai prova, solo spunto investigativo: il match va corroborato da elementi esterni (testimoni, tracciati, evidenze forensi).
- Human-in-the-loop: revisione umana competente e documentata prima di qualsiasi azione restrittiva.
- Audit e metriche pubbliche: tassi di errore per gruppi demografici, qualità dei dataset, report periodici indipendenti.
- Formazione degli operatori: conoscere limiti, bias e soglie di confidenza, non “fidarsi” del software a scatola chiusa.
- Garanzie legali: tracciabilità delle decisioni, registri di consultazione, diritto alla contestazione e alla difesa.
- Valutazione di proporzionalità: reati gravi, contesti ad alto rischio e standard probatori più alti per attivare la tecnologia.
Perché ci riguarda (anche se non viviamo nel Regno Unito)
Quando un algoritmo entra nella catena che può limitare la libertà, la fiducia pubblica è tutto. Un singolo errore eclatante scalfisce sia l’immagine della tecnologia sia quella delle forze dell’ordine. Il risultato? Più diffidenza, più contenziosi, meno collaborazione dei cittadini. La lezione è semplice: se vogliamo sfruttare l’AI per la sicurezza, servono precisione, trasparenza e responsabilità. Altrimenti l’efficienza promessa diventa un boomerang.
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.