No, non c’è nessuna “stretta”: perché ChatGPT può ancora parlare di salute e diritto

Un post su Reddit fa il botto, i social rilanciano, i titoli corrono: “ChatGPT non darà più pareri medici e legali”. Peccato che sia falso. OpenAI ha smentito: il modello non cambia comportamento. Niente blocchi, niente nuove regole dell’ultimo minuto. Qui trovi i fatti, cosa puoi (e non puoi) fare e perché questa storia ci dice molto più di quanto sembri sul nostro rapporto con l’AI.

Da dove nasce il caso: un post su Reddit diventa virale

Tutto parte da un thread su Reddit: si parla di un presunto aggiornamento che avrebbe vietato a ChatGPT di rispondere su temi medici e legali, con una fantomatica data di entrata in vigore. La miccia perfetta per i social: il contenuto viene rilanciato da giornalisti e creator, e nel giro di poche ore la narrativa è fatta. Il risultato? Confusione, allarmismo e l’ennesimo esempio di quanto il ciclo dell’informazione sull’AI sia fragile.

Peccato che, alla verifica, non ci sia traccia di una “nuova policy” che imponga un bavaglio al modello su salute o diritto. La data circolata online non corrisponde a nessun cambio reale e le regole restano quelle di sempre.

La smentita ufficiale e cosa significa “comportamento invariato”

La correzione arriva da OpenAI. Karen Segal, responsabile dei contenuti salute di OpenAI, ha chiarito su X (ex Twitter) che il comportamento del modello resta invariato: ChatGPT non sostituisce il parere di un professionista, ma continua a essere una risorsa per comprendere informazioni di carattere medico e legale. Niente svolte segrete, niente tagli: solo un richiamo a un principio che esiste da sempre.

Anche Repubblica riporta la smentita: nessun giro di vite, nessun nuovo divieto generalizzato. Tradotto: puoi continuare a chiedere spiegazioni, contesto, riepiloghi di norme o linee guida; non puoi pretendere diagnosi o consulenze legali personalizzate. Era vero ieri, lo è oggi.

Niente “nuova versione”, solo allineamento delle policy

Vale la pena fissarlo: non c’è un aggiornamento “drastico” del modello. C’è l’ennesimo allineamento comunicativo su policy già note, quelle che distinguono informazione da consulenza professionale. E qui sta il punto: quando l’AI entra in campi ad alto impatto sulla vita delle persone, l’approccio deve essere prudente. Non perché “non serve”, ma perché serve nel modo giusto.

Perché tutti ci sono cascati? Il miraggio del “blocco tecnico”

Questa storia funziona perché intercetta un desiderio molto umano: scaricare la responsabilità su un interruttore tecnologico. Se ci fosse un divieto totale, saremmo tutti a posto: nessuno più rischia. Invece no. L’AI è uno strumento potente, diffuso, che richiede responsabilità d’uso. Non è un medico, non è un avvocato, non è un consulente. È un assistente che organizza, spiega, aiuta a capire. La linea rossa la traccia l’utente, non un filtro d’emergenza.

Tra responsabilità e rischio: cosa cambia per utenti e creator

Se usi ChatGPT per lavorare o per informarti, la domanda è sempre la stessa: cosa posso continuare a fare senza scivolare nel terreno della consulenza?

Cosa puoi continuare a fare

  • Chiedere spiegazioni e contesto su linee guida sanitarie, concetti medici generali o principi giuridici.
  • Riepilogare documenti pubblici (leggi, FAQ istituzionali, linee guida ufficiali), ottenendo schemi e glossari.
  • Simulare Q&A per prepararti a un appuntamento con medico o avvocato, così da porre le domande giuste.
  • Produrre contenuti informativi (post, newsletter, script) che linkano fonti autorevoli e non millantano consulenze.
  • Confrontare scenari generali senza entrare in diagnosi o strategie legali su casi personali.

Cosa non devi fare (mai)

  • Caricare dati sensibili: referti, cartelle cliniche, contratti coperti da NDA, atti riservati dei clienti.
  • Chiedere diagnosi o piani terapeutici personalizzati. L’AI non è un medico.
  • Richiedere strategie legali su casi reali. L’AI non è un avvocato.
  • Pubblicare contenuti che imitano consulenze senza disclaimer chiari e senza rinvio a professionisti qualificati.
  • Dimenticare la privacy: il Garante ha già richiamato gli utenti sull’uso disinvolto di documenti privati. Prudenza prima di tutto.

Il nodo salute mentale: numeri, contesto e limiti

OpenAI ha reso noti dati su interazioni che suggeriscono possibili emergenze legate alla salute mentale. Parliamo di una quota molto piccola delle sessioni, stimata intorno allo 0,07% degli utenti settimanali, che mostra segnali compatibili con episodi di psicosi o mania. Se prendiamo a riferimento le cifre sull’adozione dichiarate pubblicamente per ChatGPT, l’ordine di grandezza potrebbe tradursi in centinaia di migliaia di casi a settimana a livello mondiale. Non è un allarme sulla tecnologia in sé, è un promemoria: l’AI incontra la fragilità umana.

Questi numeri aiutano a capire due scelte: da un lato, la piattaforma insiste su messaggi di sicurezza e rimandi a risorse professionali; dall’altro, non introduce divieti indiscriminati che tagliano fuori l’uso informativo. Prudenza sì, oscurantismo no.

Regolatori in movimento: cosa guardano Garante e FTC

Le autorità non stanno a guardare. In Italia, il Garante per la protezione dei dati personali ha già stigmatizzato l’abitudine di caricare documenti e informazioni eccessivamente sensibili nei chatbot. Oltre ai rischi di privacy, c’è un tema di consapevolezza: molte aziende non hanno policy interne su come usare l’AI, e questo è un problema.

Negli Stati Uniti, la Federal Trade Commission sta esaminando il settore dei chatbot basati su AI per valutarne impatti e rischi, in particolare sui minori. È un tassello del quadro, non la pistola fumante che giustifica divieti generalizzati. Anzi: l’attenzione dei regolatori spinge a standard più chiari, log di utilizzo, controlli di qualità e trasparenza. Tutte cose utili per un’adozione matura.

In sintesi: no blackout, sì buon senso

La “stretta” su ChatGPT non c’è. C’è una smentita ufficiale, c’è continuità d’uso, c’è la solita differenza tra informazione e consulenza. La viralità ha fatto il resto, amplificando un fraintendimento comodo ma pericoloso. Se lavori con i contenuti, se usi l’AI per capire temi complessi, il punto non è cercare una scusa tecnologica. È adottare regole chiare di utilizzo, proteggere i dati, citare fonti affidabili (come Repubblica) e sapere quando è il momento di alzare il telefono e chiamare un professionista.

ChatGPT resta uno strumento potente per orientarsi in ambiti complessi. L’errore è aspettarsi che faccia il lavoro al posto nostro. L’intelligenza artificiale non ci toglie responsabilità: ce ne chiede di più.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.