OpenAI tra rinvii e scosse interne: la “modalità adulti” di ChatGPT slitta, mentre crescono dimissioni e dubbi
La “modalità adulti” di ChatGPT non arriva e OpenAI perde altri profili chiave dopo l’accordo con il Pentagono. Segnali chiari: priorità che cambiano, pressioni legali e una fiducia, interna ed esterna, da riconquistare.
Vuoi ricevere ogni mattina la puntata e le fonti? Iscriviti alla newsletter de Il Caffettino.
ChatGPT, modalità adulti: da promessa a rinvio senza data
A ottobre, Sam Altman aveva annunciato lo sblocco di una “modalità adulti” per ChatGPT, pensata per consentire a utenti verificati la creazione e l’interazione con contenuti erotici generati dall’AI. Il lancio era previsto per dicembre. Poi lo spostamento al primo trimestre 2026. Oggi, un nuovo rinvio, questa volta senza una data ufficiale.
Il messaggio, tra le righe, è piuttosto chiaro: la priorità di OpenAI non è questa funzione. Nel frattempo, l’azienda è alle prese con cause legali e interrogativi su sicurezza, moderazione e impatto psicologico, soprattutto quando si parla di minori e di gestione dei contenuti sensibili. Integrare un livello “18+” dentro un prodotto usato da centinaia di milioni di persone non è un dettaglio tecnico: è un tema di policy, governance e responsabilità pubblica.
Perché è un tema così delicato
Una modalità per adulti in un assistente conversazionale pone sfide su più livelli:
- Compliance e tutela dei minori: verifica dell’età, tracciabilità e barriere efficaci per evitare abusi.
- Moderazione scalabile: regole chiare su ciò che è ammesso, cosa no e come intervenire in tempo reale.
- Rischi reputazionali: l’associazione tra un brand mainstream e contenuti erotici può pesare su partnership, aziende clienti e investitori.
- Standard globali: normative che cambiano Paese per Paese rendono il rollout particolarmente complesso.
Morale: se non si è pronti su sicurezza, verifiche e policy, meglio non lanciare. E infatti il rinvio a data da destinarsi va letto come una scelta di risk management prima che come uno slittamento tecnico.
Pentagono e dimissioni: la frattura interna che fa rumore
La pressione non arriva solo dall’esterno. Dopo l’annuncio di un accordo con il Pentagono, in OpenAI sono arrivate nuove dimissioni eccellenti. Tra queste, quelle di Caitlin Kalinowski, figura di punta nell’hardware e nella robotica, che ha lasciato OpenAI proprio in risposta alla partnership militare. La notizia è stata riportata da TechCrunch, con dettagli e dichiarazioni pubbliche che chiamano in causa questioni etiche come la sorveglianza senza supervisione giudiziaria e l’ipotetica autonomia letale senza controllo umano (fonte).
Al netto delle posizioni individuali, il punto è un altro: il dibattito sull’uso militare dell’AI non è più teorico. È operativo, urgente e divisivo. E quando tocca la cultura aziendale, i suoi effetti si vedono subito: clima interno più teso, rumor su cambi di strategia, fatica nel trattenere talenti di primo piano.
Cosa rischia OpenAI sul piano culturale
Ogni azienda tech ha un’etica fatta di policy, governance e leadership. Se questa etica vacilla, arrivano:
- turnover strategico nei team critici (hardware, sicurezza, ricerca),
- perdita di allineamento su missione e road map,
- messaggi contraddittori verso community, partner e clienti enterprise.
È qui che un rinvio come quello della modalità adulti diventa un segnale: priorità rimesse in fila, ma anche una gestione reattiva più che proattiva. E nel medio periodo il conto, in termini di brand e fiducia, può essere salato.
Segnali dal mercato: disinstallazioni in aumento e fiducia da ricostruire
Dopo l’accordo con il Pentagono, sono cresciute le disinstallazioni dell’app di ChatGPT e si registra più scetticismo tra alcuni utenti. È il classico “effetto fiducia”: quando la percezione di rischio supera il valore percepito, soprattutto su temi etici, il mercato reagisce. E reagisce in fretta.
Attenzione: gli utenti hanno memoria corta quando arrivano novità forti o prezzi aggressivi. Ma se la narrativa pubblica rimane frammentata, tra ricorsi legali, incertezze di prodotto e usi militari, la retention ne risente. Questo vale anche lato enterprise: chi integra l’AI nei propri processi chiede stabilità di roadmap, chiarezza d’uso e policy solide.
Che scenario si apre adesso
Il rinvio della modalità adulti dice che OpenAI sta riposizionando le priorità. In cima alla lista: compliance, sicurezza, reputation management e clienti business. La scelta è sensata sul breve periodo, ma per essere credibile serve coerenza su tre pilastri:
- Governance: regole trasparenti su cosa l’AI può e non può fare, con controlli indipendenti.
- Road map chiara: meno annunci “aspettati” e più rilasci maturi, con metriche pubbliche di sicurezza e qualità.
- Ascolto della community: coinvolgere utenti e sviluppatori su funzionalità sensibili, spiegandone limiti e garanzie.
In questo quadro, la modalità adulti non scompare: viene deprioritizzata finché l’azienda non potrà gestirla con standard robusti. È una mossa prudente. Ma i nodi veri – etica, usi militari, cultura interna – restano sul tavolo. E da come OpenAI li affronterà dipenderanno fiducia del mercato, capacità di attrarre talenti e traiettoria dell’innovazione nei prossimi mesi.
Ascolta e resta aggiornato
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.