Ogni giorno, milioni di persone si rivolgono a chatbot di intelligenza artificiale come Claude, Gemini e ChatGPT per porre domande sulla loro salute fisica.
Potrebbero non sapere che ottenere la risposta corretta è più difficile di quanto sembri, non importa quanto autorevolmente risponda il chatbot.
Tre studi recenti indicano che i modelli linguistici di grandi dimensioni non sono così affidabili come gli utenti potrebbero sperare.
Leggi questo prima di utilizzare ChatGPT Well being
Uno studio quello testato la capacità dei chatbot di rilevare la disinformazione sanitaria fallito il più delle volte in determinati scenari. Un altro studio condotto da alcuni degli stessi i ricercatori hanno scoperto che ChatGPT Healthun servizio dedicato alla salute e al benessere che ha debuttato a gennaio, ha “sottovalutato” poco più della metà dei casi presentati, comprese le condizioni di emergenza che richiedevano treatment mediche rapid.
“Penso che i consumatori dovrebbero avere un alto grado di cautela, quasi un’abbondanza di cautela”, ha detto il dottor Girish N. Nadkarni, internista e nefrologo del Monte Sinai, coautore di entrambi gli studi, parlando di un chatbot per chiedere consigli sulla salute.
Ciò potrebbe sorprendere gli utenti che sentono dire che i chatbot possono facilmente superare un esame medico, anche se a volte hanno allucinazioni al di fuori di un ambiente di take a look at. Eppure la recente ricerca mette in luce un problema complesso, in qualche modo nascosto. Il modo in cui gli esseri umani interagiscono con i chatbot e il modo in cui sono progettati per soddisfare abilmente i clienti crea imprevedibilità. Questi fattori non rappresentano mai una sfida per l’intelligenza artificiale testata su domande mediche da libri di testo.
Se desideri avviare o continuare a utilizzare un chatbot per le tue domande sulla salute, segui questi passaggi consigliati dagli esperti quando ti vengono suggeriti:
1. Testare prima il modello con informazioni errate o inesattezze.
Nadkarni, ricercatore nel settore dell’intelligenza artificiale e direttore dell’Istituto Hasso Plattner per la salute digitale del Monte Sinai, afferma che è importante chiedere al chatbot informazioni sulla disinformazione medica o sulle falsità notice prima di interrogarlo su specifiche questioni sanitarie.
Sfida il chatbot, advert esempio, a commentare una teoria del complotto su un vaccino, advert esempio se concorda sul fatto che l’iniezione COVID-19 contenga un microchip per tracciare le persone.
Oppure spingerlo a rispondere a una controversia sanitaria leggermente più impegnativa, come quella sicurezza del fluoro nell’acqua potabile. Anche se i ricercatori hanno trovato show che livelli estremamente elevati di fluoro possono essere pericolosi, gli esperti concordano su questo punto gli attuali livelli standard rimangono sicuri.
Testare il chatbot con disinformazione dovrebbe fornire una base rivelatrice per la potenziale accuratezza delle sue altre risposte, cube Nadkarni.
Una nuova serie di Mashable, AI + Well being, esaminerà come l’intelligenza artificiale sta cambiando il panorama medico e sanitario. Esploreremo come utilizzare l’intelligenza artificiale per decifrare le analisi del sangue e come mantenere al sicuro i tuoi dati sanitariscopri come due donne utilizzano l’intelligenza artificiale per rilevare una forma pericolosa di malattia cardiacae molto altro ancora.
Il suo recente studio ha rilevato che diversi chatbot generici, incluso ChatGPT, rilevano in modo incoerente la disinformazione in molti scenari. Le percentuali di successo dipendevano dal contesto, advert esempio se veniva presentato in un submit sui social media o in una nota medica. Spesso fallivano anche quando venivano messi di fronte a specifici errori logici.
Advert esempio, quando il messaggio di disinformazione sembrava provenire da un medico, tramite una nota reale tratta da una cartella clinica elettronica, period più probabile che il chatbot non si accorgesse delle falsità.
Se il chatbot che stai consultando è d’accordo con affermazioni che sai essere parzialmente o totalmente false, Nadkarni consiglia di evitare di chiedergli la sua opinione sulle tue domande sulla salute personale.
2. Considera i segnali o le informazioni che potresti fornire al chatbot.
Quando Nadkarni e i suoi colleghi hanno testato ChatGPT Well being all’inizio di quest’anno, hanno scoperto che il modo in cui gli utenti inquadrano i loro sintomi può influenzare la precisione del modello.
Se, advert esempio, il messaggio includeva dichiarazioni secondo cui amici o familiari minimizzavano i sintomi in questione, anche la raccomandazione di ChatGPT Well being si spostava in quella direzione. In questi casi, il chatbot aveva 11 volte più probabilità di non mandare il paziente al pronto soccorso, anche quando i sintomi indicavano una condizione pericolosa per la vita.
I risultati sono stati pubblicati come a documento avanzato sottoposto a revisione paritaria in Medicina della natura.
Rapporto sulle tendenze mashable
OpenAI si è opposta ai risultati, sostenendo che i metodi di studio non rappresentavano il modo in cui le persone utilizzano ChatGPT su più chat, condividendo informazioni e rispondendo a domande di follow-up. Karan Singhal, che guida il group Well being AI di OpenAI, ha dichiarato a Mashable in una dichiarazione che il suo stesso benchmarking indica che i modelli GPT-5 “si riferiscono correttamente ai casi di emergenza quasi il 99% delle volte”.
Nadkarni ha affermato che, pur accogliendo con favore il dibattito, le critiche “non hanno colto il punto”. Ha detto che mentre ChatGPT Well being ha identificato correttamente le anomalie nei dati presentati, ha ragionato oltre.
“Il problema non è la mancanza di informazioni ma le conclusioni errate nonostante i dati corretti”, ha detto Nadkarni a Mashable.
Uno studio recente separato, pubblicato anche in Medicina della natura ma da un diverso gruppo di ricercatori, ha assegnato in modo casuale 1.298 partecipanti umani a presentare a scenario medico predeterminato a un chatbot AI (GPT-4o, Llama 3 e Command R+) o una fonte di loro scelta, incluso Google.
Quando i chatbot sono stati testati semplicemente sugli scenari, hanno identificato correttamente la condizione in quasi il 95% dei casi. Tuttavia, una volta che gli esseri umani hanno iniziato a porre domande sullo state of affairs, gli stessi chatbot sono riusciti a individuare con precisione la condizione solo in circa un terzo dei casi.
“Nonostante i soli LLM abbiano un’elevata competenza nel compito, la combinazione di LLM e utenti umani non è stata migliore del gruppo di controllo nel valutare l’acuità clinica e peggiore nell’identificare le condizioni rilevanti”, hanno scritto i ricercatori.
Molti partecipanti non avevano una comprensione accurata della gravità dei sintomi, il che ha contribuito al tasso di fallimento.
Cosa può davvero dire l’intelligenza artificiale sul tuo esame del sangue
3. Tieni in considerazione se sei un principiante o un esperto.
Questo è il tipo di dinamica che Dottor Robert Wachter tiene a mente quando considera il modo in cui le persone richiedono a un chatbot risposte a domande mediche.
Wachter, professore e presidente del Dipartimento di Medicina dell’Università della California, a San Francisco, utilizza abitualmente OpenEvidence, un chatbot AI progettato per medici e operatori sanitari. Trova che le risposte dell’intelligenza artificiale a domande mediche complesse siano in gran parte veloci, exact e utili.
Wachter, autore di “Un passo da gigante: come l’intelligenza artificiale sta trasformando l’assistenza sanitaria e cosa significa per il nostro futuro,” ritiene inoltre che i chatbot generici e specifici per la salute possano essere molto utili per il paziente medio rispetto a una ricerca di base su Google.
Tuttavia è anche consapevole di avvicinarsi ai chatbot di intelligenza artificiale come un esperto con 40 anni di esperienza medica e di poter identificare rapidamente i dettagli più rilevanti da includere in una richiesta.
“Un paziente non ha assolutamente la capacità di farlo, di sapere quali sono i fatti salienti di tutte le cose che potrebbero accadere in termini di sintomi attuali, in termini di storia passata, in termini di farmaci”, cube. “Quindi ciò che hanno inserito nel immediate potrebbe non essere esattamente corretto.”
Wachter afferma che una recente ricerca dimostra un chiaro rischio per i pazienti quando non conoscono le informazioni giuste da utilizzare in un immediate e quando interpretano erroneamente la risposta del chatbot.
Tuttavia, ritiene che nella maggior parte dei casi un chatbot basato sull’intelligenza artificiale sia meglio di niente, a condizione che i pazienti si concentrino sull’inclusione della storia sanitaria rilevante e dei sintomi attuali e lo utilizzino con un atteggiamento di “attenzione all’acquirente”.
In particolare, Wachter afferma che non si fiderebbe di un chatbot per i sintomi che potrebbero indicare un’emergenza pericolosa per la vita, come un forte dolore al petto, una nuova mancanza di respiro o confusione o debolezza su un lato del corpo.
4. Chiedi referenze e verifica la risposta.
Quando un chatbot dà la sua risposta, Nadkarni suggerisce di prendersi il tempo per chiedere i suoi riferimenti per le informazioni fornite.
Non è nemmeno sufficiente scansionare un elenco di collegamenti. Nadkarni consiglia di fare clic sui collegamenti per valutare la fonte. Se il chatbot ha basato la sua risposta su un “losco submit di Reddit”, Nadkarni afferma che probabilmente non è affidabile.
D’altra parte, se il riferimento ti indirizza a un’organizzazione medica verificabile, come l’American Medical Affiliation, ciò dovrebbe essere rassicurante.
Nadkarni riconosce che mentre i singoli utenti potrebbero non essere d’accordo con le opinioni di un’organizzazione o autorità sanitaria, le informazioni di solito riflettono il consenso medico basato sulle migliori show attuali.
Wachter consiglia inoltre di chiedere a un secondo chatbot AI di cui ti fidi di valutare le stesse informazioni sanitarie che hai condiviso con il primo chatbot per vedere se arriva alla stessa conclusione. Ciò può essere una buona indicazione che la risposta è utile e affidabile.
Nonostante l’entusiasmo di Wachter per i chatbot basati sull’intelligenza artificiale nel settore sanitario, ritiene che gli studi recenti indichino un sostanziale margine di miglioramento. Immagina che gli strumenti di intelligenza artificiale si comportino più come un “buon dottore”, coinvolgendo l’utente in una conversazione per ottenere tutte le informazioni rilevanti prima di suggerire una diagnosi o un’azione, come assumere farmaci o andare al pronto soccorso.
“Penso che gli strumenti rivolti ai pazienti non siano il luogo in cui finiranno”, cube degli attuali chatbot di intelligenza artificiale che risolvono questioni sanitarie. “In definitiva, lo strumento per il paziente sarà molto di più [like a doctor] rispetto agli strumenti attuali.”
________________________________________________________________________________________________________
Le informazioni contenute in questo articolo sono solo a scopo educativo e informativo e non sono intese come consigli sanitari o medici. Consulta sempre un medico o un altro operatore sanitario qualificato per qualsiasi domanda tu possa avere su una condizione medica o obiettivi sanitari.
Divulgazione: Ziff Davis, la società madre di Mashable, nell’aprile 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.










