Go down

Queste non sono domande di chi è «contro la tecnologia». Sono domande di chi prende sul serio ciò che voi stessi affermate: che 230 milioni di persone ogni settimana si affidano a ChatGPT per questioni di salute.


Domande alle quali il vostro annuncio non risponde

Il 7 gennaio 2026 avete lanciato ChatGPT Health. Il vostro annuncio parla di «democratizzazione», «privacy avanzata», «sviluppo con i medici». Parole rassicuranti. Ma ci sono domande fondamentali a cui il vostro testo non risponde.

Non sono domande retoriche. Sono domande concrete su rischi concreti che riguardano 230 milioni di persone ogni settimana — un numero che voi stessi citate con orgoglio.

Eccole.

1. Perché non dite mai che HIPAA non si applica?

Nel vostro annuncio parlate di «sistemi di crittografia dedicati», «meccanismi di isolamento», «protezioni aggiuntive». Ma non dite mai, esplicitamente, che quando un utente condivide i propri dati medici con ChatGPT, esce dalla protezione della legge federale HIPAA.

HIPAA protegge i dati gestiti da ospedali, medici, assicurazioni. ChatGPT è una «piattaforma consumer». È una distinzione fondamentale che cambia tutto il quadro legale.

Domanda: Perché un utente deve scoprire da solo che i suoi dati medici su ChatGPT non hanno le stesse protezioni legali di quelli nel portale del suo medico?

2. Cosa succede quando un tribunale ordina la consegna dei dati?

Dite che le conversazioni possono essere «eliminate dai sistemi di OpenAI entro 30 giorni». Ma durante la causa con il New York Times è emerso che i tribunali possono ordinare la consegna di dati anche dopo la «cancellazione».

Una donna in Texas cerca informazioni su pillole abortive. Un uomo in uno stato conservatore chiede informazioni su terapie ormonali per transizione di genere. Queste conversazioni potrebbero essere richieste in procedimenti legali.

Domanda: Quali sono esattamente i limiti della vostra protezione dei dati di fronte a un ordine giudiziario? E perché non lo spiegate nell’annuncio?

3. Qual è la percentuale di risposte corrette?

Nel vostro annuncio citate numeri impressionanti: 260 medici, 60 Paesi, 600.000 feedback, 30 aree di analisi. Ma c’è un numero che manca: la percentuale di risposte corrette.

Gli studi indipendenti mostrano che GPT-4 raggiunge il 74.6% su esami medici standardizzati come lo USMLE Step 2 CK (Nature, 2024). Significa che 1 risposta su 4 è sbagliata. Con 230 milioni di utenti settimanali, sono decine di milioni di risposte errate ogni settimana.

Domanda: Qual è il tasso di accuratezza di ChatGPT Health su domande mediche reali? E perché non lo pubblicate?

4. Come rispondete al caso del bromuro di sodio?

Nell’agosto 2025, un uomo di 60 anni ha chiesto a ChatGPT come ridurre il sale nella dieta. ChatGPT ha suggerito un sostituto del sale. L’uomo ha comprato un prodotto contenente bromuro di sodio — una sostanza tossica. Tre mesi dopo: allucinazioni, paranoia, ricovero di tre settimane. Il caso è stato pubblicato su Annals of Internal Medicine e riportato da CNBC e Fox 7 Austin.

ChatGPT aveva «allucinato» un consiglio che suonava ragionevole ma era pericoloso.

Domanda: Quali misure specifiche avete implementato per prevenire che ChatGPT Health dia consigli che possono avvelenare le persone?

5. Perché HealthBench non è validato esternamente?

Presentate HealthBench come «standard clinico». Ma HealthBench è stato sviluppato da OpenAI, con la vostra rete di medici, secondo i vostri criteri. Non è stato validato da enti esterni indipendenti. Non è sottoposto a revisione FDA.

Un’azienda farmaceutica non può autocertificare l’efficacia dei propri farmaci. Perché OpenAI dovrebbe poter autocertificare la sicurezza del proprio strumento sanitario?

Domanda: Siete disposti a sottoporre ChatGPT Health a una valutazione indipendente con pubblicazione dei risultati, inclusi i fallimenti?

6. Chi è responsabile quando qualcuno segue un consiglio sbagliato?

Scrivete: «ChatGPT Salute è progettato per supportare l’assistenza medica, non per sostituirla. Non è destinato né alla diagnosi né al trattamento.»

Ma nello stesso annuncio mostrate casi d’uso come «Come sta andando il mio colesterolo?» e «Valutare i compromessi tra diverse opzioni assicurative in base ai modelli di assistenza sanitaria.» Queste sono attività mediche de facto.

Se un utente chiede «Ho dolore al petto, cosa potrebbe essere?» e ChatGPT risponde «Probabilmente bruciore di stomaco», e l’utente ritarda le cure per un infarto, chi paga?

Domanda: Avete un’assicurazione per danni causati da consigli medici errati? Se no, perché l’utente dovrebbe assumersi tutto il rischio?

7. Cosa avete imparato dal caso Raine?

Nell’agosto 2025, Adam Raine, 16 anni, si è tolto la vita dopo mesi di conversazioni con ChatGPT su morte e suicidio. Avete autenticato i log delle conversazioni. Avete detto che il ragazzo aveva «usato male» la tecnologia.

Le persone con malattie croniche — il target naturale di ChatGPT Health — hanno tassi di depressione tre volte superiori alla media. Nel vostro annuncio non c’è una sola parola sulla salute mentale. Nessuna menzione di protocolli di crisi. Nessuna integrazione con linee di aiuto.

Domanda: ChatGPT Health ha protocolli per riconoscere segnali di crisi suicidaria e collegare l’utente a linee di aiuto come il 988? Se no, perché no?

8. Perché chi fa domande «sbagliate» ottiene risposte peggiori?

ChatGPT funziona bene se sai come usarlo. Una domanda generica («Ho mal di testa») produce una risposta generica. Una domanda strutturata con storia clinica, farmaci, sintomi specifici produce una risposta utile.

Chi sa fare domande strutturate? Chi ha già accesso a buone cure, alta scolarizzazione, esperienza nel sistema sanitario. Chi fa domande generiche? Chi non ha medico, non può permettersi visite, ha bassa scolarizzazione. Proprio chi avrebbe più bisogno di aiuto.

Il risultato è un paradosso: ChatGPT Health amplifica le disuguaglianze invece di ridurle.

Domanda: Avete implementato sistemi per guidare gli utenti meno esperti a formulare domande efficaci? Template, wizard, feedback sulla qualità della domanda? Se no, perché parlate di «democratizzazione»?

9. Qual è il modello di business?

ChatGPT Health è gratuito. Per ora. Scrivete: «Stiamo iniziando con un piccolo gruppo di utenti iniziali.» Nessuna menzione di pricing futuro. Nessuna menzione di monetizzazione dei dati.

Facebook era gratuito. Google era gratuito. TikTok era gratuito. Poi è arrivata la monetizzazione dei dati. Il pattern è noto: gratuito → lock-in → estrazione di valore. Solo che qui non parliamo di preferenze per scarpe. Parliamo di cartelle cliniche.

Domanda: Vi impegnate pubblicamente a non vendere mai, in nessuna forma, dati sanitari o «insights aggregati» derivati dalle conversazioni di ChatGPT Health a terze parti — incluse case farmaceutiche, assicurazioni, datori di lavoro?

10. Perché avete lanciato il giorno dopo la deregolamentazione FDA?

Il 6 gennaio 2026, la FDA ha annunciato un allentamento della regolamentazione su dispositivi AI sanitari. Il 7 gennaio, avete lanciato ChatGPT Health.

Se ChatGPT Health fosse classificato come dispositivo medico, dovreste condurre studi clinici, dimostrare efficacia, implementare sistemi di segnalazione eventi avversi. Chiamandolo «strumento informazionale», evitate tutto questo.

Domanda: Il timing è una coincidenza? E se ChatGPT Health è davvero sicuro, perché non sottoporlo volontariamente agli standard che si applicano ai dispositivi medici?

In attesa di risposte

Queste non sono domande di chi è «contro la tecnologia». Sono domande di chi prende sul serio ciò che voi stessi affermate: che 230 milioni di persone ogni settimana si affidano a ChatGPT per questioni di salute.

Se questo numero è vero, allora la responsabilità è enorme. E merita risposte precise, non rassicurazioni generiche.

Il vostro annuncio è pieno di parole come «sicuro», «privato», «affidabile». Ma le parole non bastano. Servono dati, impegni vincolanti, trasparenza.

La salute delle persone non è un beta test. Aspettiamo risposte.

Fonti: OpenAI “Introducing ChatGPT Health” (7/1/2026) | Nature Scientific Reports, USMLE accuracy study (2024) | Annals of Internal Medicine, caso bromuro (8/2025) | The Guardian, Raine v. OpenAI (11/2025) | STAT News, FDA deregulation (6/1/2026) | Columbia Science & Technology Law Review, HIPAA analysis (2024)

Pubblicato il 14 gennaio 2026

Martino Pirella

Martino Pirella / Consulente e formatore AI