Dott.ssa Sina Bari, chirurgo praticante e chief nel settore sanitario basato sull’intelligenza artificiale presso la società di dati iMeritha visto in prima persona come ChatGPT possa fuorviare i pazienti con consigli medici errati.
“Recentemente ho avuto un paziente e quando ho consigliato un farmaco, hanno stampato un dialogo da ChatGPT in cui si diceva che questo farmaco ha una probabilità del 45% di embolia polmonare”, ha detto il dottor Bari a TechCrunch.
Quando il dottor Bari indagò ulteriormente, scoprì che la statistica proveniva da un articolo sull’impatto di quel farmaco in un sottogruppo di nicchia di persone affette da tubercolosi, che non si applicava al suo paziente.
Eppure, quando la scorsa settimana OpenAI ha annunciato il suo chatbot dedicato ChatGPT Well being, il dottor Bari ha provato più eccitazione che preoccupazione.
ChatGPT Well being, che verrà lanciato nelle prossime settimane, consente agli utenti di parlare con il chatbot della propria salute in un ambiente più privato, dove i loro messaggi non verranno utilizzati come dati di addestramento per il modello AI sottostante.
“Penso che sia fantastico”, ha detto il dottor Bari. “È qualcosa che sta già accadendo, quindi è stato formalizzato in modo da proteggere le informazioni dei pazienti e proteggerle […] lo renderà ancora più potente da usare per i pazienti”.
Gli utenti possono ottenere una guida più personalizzata da ChatGPT Well being caricando le proprie cartelle cliniche e sincronizzandosi con app come Apple Well being e MyFitnessPal. Per chi è attento alla sicurezza, questo solleva immediati segnali d’allarme.
Evento Techcrunch
San Francisco
|
13-15 ottobre 2026
“All’improvviso c’è un trasferimento di dati medici da organizzazioni conformi all’HIPAA a fornitori non conformi all’HIPAA”, ha detto a TechCrunch Itai Schwartz, co-fondatore della società di prevenzione della perdita di dati MIND. “Quindi sono curioso di vedere come i regolatori si avvicinerebbero a questo.”
Ma per come la vedono alcuni professionisti del settore, il gatto è già fuori dal sacco. Ora, invece di cercare su Google i sintomi del raffreddore, le persone parlano con i chatbot IA: basta 230 milioni di persone parlano già con ChatGPT della loro salute ogni settimana.
“Questo è stato uno dei maggiori casi d’uso di ChatGPT”, ha detto a TechCrunch Andrew Brackin, un accomplice di Gradient che investe nella tecnologia sanitaria. “Quindi è molto logico che vogliano creare una versione più privata, sicura e ottimizzata di ChatGPT per queste domande sanitarie.”
I chatbot con intelligenza artificiale hanno un problema persistente con le allucinazioni, una questione particolarmente delicata nel settore sanitario. Secondo Vectara Modello di valutazione della coerenza fattualeGPT-5 di OpenAI è più incline alle allucinazioni rispetto a molti modelli Google e Anthropic. Ma le aziende di intelligenza artificiale vedono il potenziale per correggere le inefficienze nel settore sanitario (Anthropic ha anche annunciato un prodotto sanitario questa settimana).
Per il dottor Nigam Shah, professore di medicina a Stanford e capo scienziato dei dati per la Stanford Well being Care, l’incapacità dei pazienti americani di accedere alle treatment è più urgente della minaccia che ChatGPT dispensi consigli inadeguati.
“In questo momento, ti rivolgi a qualsiasi sistema sanitario e vuoi incontrare il medico di base: il tempo di attesa sarà da tre a sei mesi”, ha detto il dottor Shah. “Se la tua scelta è aspettare sei mesi per un vero dottore, o parlare con qualcuno che non è un medico ma può fare alcune cose per te, quale sceglieresti?”
Il dottor Shah ritiene che un percorso più chiaro per introdurre l’intelligenza artificiale nei sistemi sanitari arrivi dal lato dei fornitori, piuttosto che da quello dei pazienti.
Le riviste mediche lo hanno fatto Spesso riportato che le attività amministrative possono consumare circa la metà del tempo di un medico di base, il che riduce drasticamente il numero di pazienti che possono visitare in un dato giorno. Se questo tipo di lavoro potesse essere automatizzato, i medici sarebbero in grado di vedere più pazienti, forse riducendo la necessità per le persone di utilizzare strumenti come ChatGPT Well being senza ulteriore enter da parte di un vero medico.
Il dottor Shah guida un crew di Stanford in fase di sviluppo ChatEHRun software program integrato nel sistema di cartella clinica elettronica (EHR), che consente ai medici di interagire con le cartelle cliniche di un paziente in modo più snello ed efficiente.
“Rendere la cartella clinica elettronica più facile da usare significa che i medici possono dedicare meno tempo a frugare ogni angolo alla ricerca delle informazioni di cui hanno bisogno”, ha detto il dottor Sneha Jain, uno dei primi tester di ChatEHR, in una conferenza stampa a Stanford Medication. articolo. “ChatEHR può aiutarli a ottenere queste informazioni in anticipo in modo che possano dedicare tempo a ciò che conta: parlare con i pazienti e capire cosa sta succedendo.”
Anthropic sta anche lavorando su prodotti di intelligenza artificiale che possano essere utilizzati dal lato medico e assicurativo, piuttosto che solo dal suo chatbot Claude rivolto al pubblico. Questa settimana, Anthropic ha annunciato Claude for Healthcare spiegando come potrebbe essere utilizzato per ridurre il tempo impiegato in noiose attività amministrative, come la presentazione di richieste di autorizzazione preventiva alle compagnie assicurative.
“Alcuni di voi vedono centinaia, migliaia di casi di autorizzazione preventiva alla settimana”, ha affermato Mike Krieger, CPO di Anthropic, in una recente presentazione alla JP Morgan. Convegno sulla sanità. “Quindi immagina di ritagliare 20, 30 minuti da ciascuno di essi: è un notevole risparmio di tempo.”
Man mano che l’intelligenza artificiale e la medicina diventano sempre più intrecciate, c’è una tensione inevitabile tra i due mondi: l’incentivo principale di un medico è aiutare i propri pazienti, mentre le aziende tecnologiche sono in ultima analisi responsabili nei confronti dei propri azionisti, anche se le loro intenzioni sono nobili.
“Penso che la tensione sia importante”, ha detto il dottor Bari. “I pazienti contano sul fatto che siamo cinici e conservatori per proteggerli”.











