Caso Trump–Iran: l’AI di Anthropic sarebbe stata usata dopo il ban. Che cosa ci dice davvero

Un divieto annunciato in pompa magna e, poche ore dopo, l’uso della stessa tecnologia in operazioni militari. Qui non si parla di gossip tech: è un crash test su governance, responsabilità e controllo quando la guerra corre più veloce delle policy.

Vuoi ricevere ogni mattina la puntata e le fonti? Iscriviti alla newsletter.

Cosa è successo, in breve

Secondo il Wall Street Journal, durante gli attacchi in Medio Oriente le forze statunitensi avrebbero utilizzato Claude di Anthropic per attività di analisi d’intelligence, selezione degli obiettivi e simulazioni tattiche. Il tutto sarebbe avvenuto poche ore dopo un ban annunciato da Donald Trump sull’uso della tecnologia di Anthropic in ambito governativo e militare.

Il nodo è come funzionano davvero policy, enforcement e catene di comando quando l’AI entra nei processi operativi. Perché, sempre secondo le ricostruzioni riportate dal giornale, Claude era l’unico modello pienamente approvato per i sistemi classificati del Dipartimento della Difesa: toglierlo all’improvviso non era tecnicamente e operativamente possibile. Tempi di rimozione? Si parla di settimane, se non mesi, vista la pervasività d’uso.

Le certezze (poche) e le zone grigie (molte)

  • Sappiamo che l’uso dell’AI in contesti militari è già realtà e non teoria da convegno.
  • Non sappiamo l’esatto perimetro d’uso: quali moduli di Claude, con quali prompt, con quali dati classificati e controlli umani.
  • Sappiamo che il ban è stato comunicato rapidamente.
  • Non sappiamo quanto e come il divieto sia stato tradotto in revoche di accesso, dismissioni tecniche e procedure sul campo.

Perché il divieto non ha funzionato (subito)

Qui entra in scena l’attrito tra annunci politici e realtà operativa. Anthropic aveva definito limiti d’uso: niente sorveglianza di massa e niente armi autonome senza supervisione umana. A fronte delle pressioni a rimuovere quei paletti, il CEO Dario Amodei ha ribadito che i sistemi attuali non sono abbastanza affidabili da governare armi totalmente autonome e che l’azienda non intende offrire prodotti che mettano a rischio civili e militari.

Ma l’infrastruttura del Pentagono, con policy di accreditamento lunghe e integrazioni profonde, non si riconfigura a colpi di tweet. Se un modello è integrato in flussi classificati, scollegarlo di punto in bianco è rischioso quanto non scollegarlo: significa toccare toolchain, addestramento del personale, certificazioni e procedure di sicurezza. Tradotto: la policy è istantanea, l’enforcement è un progetto.

Policy vs. enforcement: cosa manca davvero

  • Controllo accessi granulare: chi, cosa, quando, con quali dataset e con quale giustificazione operativa.
  • Audit trail obbligatori e verificabili per ogni richiesta AI sensibile.
  • Kill switch tecnici coordinati (revoca token, deprovisioning, blocchi di rete) allineati a ordini politici.
  • Eccezioni codificate con scadenza e approvazioni multilivello, non “deroghe informali”.
  • Piani di uscita e modelli alternativi già pre-accreditati per evitare lock-in operativo.

AI e guerra: tra etica e realpolitik

Che piaccia o no, l’AI è già nel ciclo decisionale militare. Dallo screening di immagini satellitari alle simulazioni tattiche, l’obiettivo è comprimere i tempi e aumentare la precisione. Funzionari del Dipartimento della Difesa americana sottolineano che contro sciami di droni o missili ipersonici serve una velocità che spesso supera quella umana: è qui che l’AI diventa edge operativo.

Il rovescio della medaglia? Rischi sistemici: bias nei dati, allucinazioni del modello, overreliance sul suggerimento dell’AI, escalation non intenzionali. E quando gli errori non sono un’opzione, servono supervisione umana reale, test d’affidabilità e accountability lungo tutta la catena di comando.

Il ruolo (scomodo) delle big tech

Secondo indiscrezioni di stampa, il Dipartimento della Difesa avrebbe dialoghi in corso anche con altri fornitori come Google e OpenAI; internamente, i leader delle big tech cercano di rassicurare i dipendenti sulle linee etiche e sui paletti d’uso. Ma il punto resta: quando la sicurezza nazionale bussa, la governance aziendale regge? Senza clausole chiare su casi d’uso, escalation e audit indipendenti, le policy rischiano di diventare teatro comunicativo.

Cosa guardare adesso

  • Mappatura delle dipendenze AI: quali modelli vengono usati, dove sono integrati, quali dati toccano.
  • Regole chiare di human-in-the-loop: quando l’AI suggerisce e quando decide qualcuno in carne e ossa.
  • Contratti con paletti: use case vietati, audit terzi, SLO di sicurezza, diritto di spegnimento.
  • Piano B: alternative prequalificate per evitare blocchi se un modello viene bannato.
  • Trasparenza interna: log e report condivisi quando l’AI entra in processi critici.

Morale: se i divieti durano meno di un ciclo di news, contano solo accessi, audit e responsabilità. Il resto è storytelling.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.