Trump minaccia Netflix, Altman difende l’AI: perché il potere comunica come un bambino
Donald Trump minaccia Netflix, Sam Altman difende l’AI con un paragone spiazzante e, intanto, emerge un caso di allarmi ignorati su contenuti violenti. Che cosa ci dice tutto questo sul modo in cui il potere comunica oggi? E perché suona così infantile?
Trump vs Netflix: il caso Susan Rice e il linguaggio dell’ultimatum
Donald Trump ha chiesto la rimozione di Susan Rice dal CDA di Netflix, arrivando a dire che la piattaforma “pagherà le conseguenze” se non la licenzierà. Rice, ex consigliera per la sicurezza nazionale di Obama e oggi nel board della società, è finita nel mirino dopo aver criticato Trump e alcune big tech in un podcast. Il racconto dettagliato è stato pubblicato da The Verge.
Al di là del merito, il punto è il metodo: il potere che parla per ultimatum, come un bambino che pretende una soluzione semplice e immediata a una questione complessa (governance, indipendenza dei CDA, libertà di espressione dei singoli). Il messaggio è chiaro, la realtà molto meno. Eppure è proprio la semplicità aggressiva del messaggio a funzionare: polarizza, fa notizia, sposta l’attenzione dal piano dei fatti a quello del tifo.
- Corporate governance: i CDA dovrebbero rispondere a strategia e risultati, non a pressioni politiche contingenti.
- Libertà di espressione: dove finisce l’opinione personale di un membro del board e dove inizia la responsabilità della società?
- Agenda setting: minacce e slogan occupano il ciclo mediatico più di report, dati e decisioni formali.
Sam Altman dall’India: “Anche gli umani consumano energia per diventare intelligenti”
Nel frattempo, dal palco di un summit sull’AI in India, Sam Altman ha liquidato come “ingiusta” la critica sull’impatto energetico dell’intelligenza artificiale, sostenendo che anche gli esseri umani impiegano anni di vita e molto cibo prima di diventare intelligenti. Una frase che punta dritta all’immaginario, più che alla precisione tecnica: rassicura i sostenitori, irrita i critici, ottiene titoli facili.
- Il nodo reale: addestrare e far girare modelli di AI richiede energia e acqua; il tema è ridurre l’impatto per unità di valore generato.
- Il paragone: mettere sullo stesso piano crescita umana e consumo dei data center è una semplificazione retorica, non un’analisi ambientale.
- La posta in gioco: servono metriche trasparenti (mix energetico, PUE, efficienza per inferenza) e obiettivi misurabili, più che battute a effetto.
La realtà che bussa: l’allarme su contenuti violenti ignorato
Nello stesso contesto di dichiarazioni muscolari, la cronaca riporta tutti a terra: secondo quanto emerso da uno scoop citato nella puntata, alcuni dipendenti di OpenAI avrebbero segnalato mesi fa contenuti violenti riconducibili a Jesse Van Rootselaar, sospettata poi di una sparatoria in Canada, senza che l’azienda informasse le autorità. Un promemoria scomodo: dietro ai grandi discorsi ci sono processi di moderazione, scelte operative e responsabilità concrete.
- Safety e soglie di escalation: quando e come una piattaforma deve coinvolgere le autorità? Le policy vanno chiarite e applicate in modo coerente.
- Impatto sulla fiducia: la credibilità dell’AI non dipende solo da “vision” e keynote, ma da come gestisce i casi difficili nel quotidiano.
Perché il potere parla come un bambino?
Perché funziona. L’ecosistema dell’attenzione premia messaggi semplici, emotivi, binari. Gli algoritmi amplificano il contenuto che divide. E i leader – politici e tech – rispondono con semplificazioni, minacce, paragoni facili. È la grammatica perfetta per occupare spazio mentale, catturare l’attenzione e rinviare la complessità a un altro giorno.
Il risultato? La discussione pubblica si sposta dai fatti alle posizioni, dalla sostanza ai simboli. Nel caso Netflix si parla di “caccia alla strega” più che di governance; nel caso Altman si dibatte sulla battuta, non sui KPI ambientali; nel caso OpenAI ci si accorge che le procedure di safety sono noiose da raccontare ma decisive per la realtà. Chi gestisce aziende, progetti o community digitali lo sa: comunicare bene è indispensabile, ma senza processi solidi la narrazione si sbriciola al primo fatto.
Il punto non è smettere di semplificare; è farlo con responsabilità. Chiedere responsabilità alle piattaforme senza trasformare i CDA in ring politici. Discutere dell’energia dell’AI con dati, non con metafore. E costruire sistemi di segnalazione ed escalation che funzionino anche quando le telecamere sono spente.
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.