ChatGPT, boom di disinstallazioni dopo l’accordo col Pentagono: cosa significa per fiducia e privacy

Un dato fa rumore: le disinstallazioni di ChatGPT sarebbero schizzate del 295% subito dopo la notizia dell’accordo tra OpenAI e il Dipartimento della Difesa USA. Non è solo polemica social: è un campanello sulla fiducia nell’AI, su chi la governa e su come vengono usati i nostri dati.

295% di disinstallazioni: il dato e cosa ci dice

Secondo un’analisi riportata da TechCrunch, l’ondata di disinstallazioni dell’app mobile di ChatGPT è arrivata in concomitanza con l’annuncio della partnership tra OpenAI e il Dipartimento della Difesa statunitense. È un segnale forte che mostra quanto la percezione pubblica possa cambiare in base al contesto d’uso di una tecnologia.

  • Impennata di disinstallazioni: +295% su base giornaliera dopo la notizia dell’accordo.
  • Recensioni negative in crescita: incremento rilevante delle valutazioni a una stella, sintomo di malcontento espresso direttamente negli app store.
  • Effetto concorrenza: nello stesso periodo, sempre secondo TechCrunch, app e servizi alternativi avrebbero registrato un incremento dei nuovi utenti, con particolare attenzione per chi ha comunicato distanza da partnership militari.

Attenzione: parliamo di correlazioni temporali e di dati da marketplace mobile. Non sono “sentenze”, ma indicatori attendibili del sentiment degli utenti.

Quando un prodotto diventa “infrastruttura”

L’AI generativa è passata in pochi mesi da “giocattolo brillante” a strumento di lavoro quotidiano. Quando entra in ambiti istituzionali e strategici, gli utenti reagiscono perché cambiano le aspettative. Non basta più che funzioni bene: serve capire chi controlla i dati, per quali fini e con quali limiti.

Privacy e controllo dei dati

Il primo tema è sempre lo stesso: che cosa succede ai miei prompt, ai miei file, alle mie conversazioni? La partnership con un attore governativo porta molti a chiedersi se le regole sull’uso dei dati resteranno identiche o se esisteranno utilizzi per nuove finalità. Anche se tecnicamente i perimetri sono separati, la percezione fa la differenza.

Neutralità percepita e “mission drift”

Un tool di produttività, quando entra in contesti militari, perde parte dell’aura di neutralità. Le persone temono il cosiddetto “mission drift”: obiettivi che cambiano nel tempo, con effetti a cascata su policy, moderazione e priorità di prodotto. Questo può spingere una parte dell’utenza a fare scelte valoriali e cercare alternative.

Sicurezza, governance e comunicazione

Partnership di questo tipo richiedono livelli più alti di governance: audit indipendenti, limiti d’uso chiari, tracciabilità dei modelli e dei dataset. Ma soprattutto servono comunicazione e timing: se l’annuncio arriva senza un pacchetto trasparente di “cosa cambia e cosa no”, lo spazio lo riempiono sospetti e fraintendimenti. I marketplace lo riflettono in modo brutale.

Perché le disinstallazioni crescono (e cosa imparano le aziende)

Gli utenti non sono più spettatori: votano con il pollice, disinstallando. È un segnale di mercato e un promemoria per chi costruisce piattaforme AI.

  • Trasparenza proattiva: spiegare in modo semplice cosa succede ai dati, come vengono separati i contesti d’uso (consumer vs. istituzionale), quali audit sono in corso e con quali risultati.
  • Policy pubbliche e verificabili: linee guida d’uso ampie ma chiare, limiti espliciti e meccanismi di enforcement. Non promesse vaghe, ma impegni verificabili da terze parti.
  • Comunicazione prima del “go live”: quando entri in un’area sensibile, prepari FAQ, changelog, note legali in chiaro e un “cosa non cambia” per il pubblico consumer.
  • Opt-out e controllo granulare: consentire all’utente di escludere i propri dati dal training, di gestire retention e cancellazione, e di migrare facilmente i contenuti.
  • Segmentazione dell’offerta: separare brand, app o piani per usi critici/governativi da quelli consumer, così da ridurre la contaminazione percettiva.
  • Coerenza tra valori dichiarati e partnership: se comunichi responsabilità e sicurezza, le collaborazioni devono allinearsi a quei principi. Ogni incoerenza si paga in recensioni e retention.

Un mercato che cambia in tempo reale

L’AI è diventata un mercato sensibile agli eventi geopolitici. Lo vediamo dall’effetto immediato su installazioni, recensioni e migrazioni verso alternative. Non è solo protesta: è gestione del rischio individuale. Le persone scelgono l’AI come scelgono una banca o un sistema operativo: valutando fiducia, stabilità e reputazione.

Questo episodio mette a fuoco un punto: l’AI è ormai “infrastruttura sociale”. Le aziende che la sviluppano devono giocare su due tavoli insieme: innovazione veloce e governance credibile. Senza la seconda, la prima non regge alla prova del pubblico.

Iscriviti alla newsletter e ricevi ogni mattina la puntata con le fonti.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.