Home Tecnologia ChatGPT Well being: per cosa dovresti utilizzare l’intelligenza artificiale e tutto ciò...

ChatGPT Well being: per cosa dovresti utilizzare l’intelligenza artificiale e tutto ciò che dovresti evitare

16
0

A questo punto, è lecito ritenere che tu abbia utilizzato a chatbot Piace ChatGPT O Gemelli. Oltre a porre domande generali o ottenere testi lunghi riassuntipotresti aver posto anche una domanda sulla salute. Forse stavi cercando di capire se valeva la pena preoccuparsi di un sintomo o di dare un senso ai risultati di laboratorio, spesso a tarda notte quando un medico non è disponibile.

Rapporto di gennaio 2026 di OpenAI ha scoperto che oltre il 5% di tutti i messaggi ChatGPT a livello globale riguardano l’assistenza sanitaria e che più di 40 milioni di utenti attivi settimanali in tutto il mondo pongono ogni giorno domande relative all’assistenza sanitaria.

(Divulgazione: Ziff Davis, la società madre di CNET, nel 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)

Nel gennaio 2026 è stato introdotto OpenAI ChatGPT Salute per trasformare quell’abitudine in una funzionalità dedicata. Questa “esperienza incentrata sulla salute” all’interno di ChatGPT è progettata per aiutarti a comprendere le informazioni mediche e prepararti per conversazioni reali con i medici.

Non è uno strumento di diagnosi o di trattamento.

Allora, cos’è esattamente ChatGPT Well being e in cosa differisce dal chiedere a chatbot una domanda a caso sulla salute? Facciamo doppio clic sulla nuova scheda Salute in ChatGPT.

Cos’è ChatGPT Well being?

ChatGPT Salute non è un’app separata come la sua Browser dell’intelligenza artificialeAtlante. Vive all’interno di ChatGPT come uno spazio o una scheda dedicata, concentrandosi su domande, documenti e flussi di lavoro relativi alla salute.

Uno screenshot della scheda Salute in ChatGPT sul desktop

La scheda Salute in ChatGPT.

ChatGPT/Screenshot di CNET

Nella sua nota di rilascio, OpenAI afferma di aver collaborato con più di 260 medici che hanno esercitato in 60 paesi e dozzine di specialità in due anni, esaminando le risposte dei modelli relativi alla salute più di 600.000 volte. Di conseguenza, non risponde a nulla che sembri medico nello stesso modo aperto di una normale chat. Invece, risponde in modo più cauto, con limiti più severi su come vengono spiegate le informazioni e richieste più chiare per cercare assistenza professionale.

ChatGPT Well being è disponibile sul Internet e nell’app cellular. Non è necessario scaricare nulla o registrarsi al di fuori di ChatGPT stesso. L’accesso dipende dalla posizione e dalla fase di lancio, ma puoi unirti a lista d’attesa.

Dall’inizio del 2026 sarà disponibile negli Stati Uniti, Canada, Australia, parti dell’Asia e dell’America Latina, dove ChatGPT supporta già funzionalità sanitarie. Al momento non è disponibile nell’UE, nello Spazio economico europeo, nel Regno Unito, in Cina e in Russia. OpenAI ha affermato che la disponibilità si espanderà, ma le tempistiche variano in base alla regione a causa delle normative locali e delle norme sui dati sanitari.

Come funziona ChatGPT Well being

ChatGPT Well being utilizza lo stesso sottostante modelli linguistici di grandi dimensioni (LLM) come ChatGPT. Fai una domanda e il modello genera una risposta. La differenza con la Salute è il contesto, le basi e i vincoli.

Alex Kotlarfondatore di Bystro AIuna piattaforma LLM incentrata sulla genetica per approfondimenti sulla salute, ha dichiarato a CNET che OpenAI non ha costruito un nuovo modello sanitario fondamentale.

Atlante dell'intelligenza artificiale

“Non hanno creato un modello che improvvisamente comprenda molto meglio le cartelle cliniche. È ancora ChatGPT, semplicemente connesso alle tue cartelle cliniche”, ha detto Kotlar.

Well being attinge dai dati che scegli di sincronizzare, ma non può accedervi a meno che tu non conceda esplicitamente l’autorizzazione. Oltre alle cartelle cliniche, puoi collegare app come Salute delle melerisultati di laboratorio da Funzioni e registri degli alimenti da MyFitnessPal. Puoi anche collegarti Osservatori del peso per GLP-1 idee pasto, Instacart per trasformare i piani pasto in liste della spesa e Gruppo per consigli sull’allenamento. Ciò consente all’intelligenza artificiale di fornire approfondimenti personalizzati basati sulla tua cronologia, anziché consigli generici.

Queste conversazioni ora seguono regole più rigide riguardo al tono, all’approvvigionamento e allo stile di risposta, che OpenAI afferma di testare utilizzando il suo quadro di valutazione, Panchina della Salute. Utilizza rubriche scritte da medici per valutare le risposte del modello in 5.000 conversazioni sanitarie simulate, applicando più di 48.000 criteri specifici per valutare la qualità e la sicurezza.

Puoi caricare documenti su Salute, utilizzare il comando vocale e fare tutto ciò che faresti normalmente in una normale chat. Se stai esaminando i risultati di più take a look at o ti stai preparando per una visita specialistica, Salute può tenere traccia di ciò che hai già condiviso e aiutarti a organizzare le informazioni nel tempo.

OpenAI suggerisce di utilizzarlo per rivedere i risultati di laboratorio, organizzare le domande prima di un appuntamento, tradurre il linguaggio medico in un inglese semplice e riassumere documenti lunghi come observe di dimissione o spiegazioni assicurative.

Schermate delle domande su ChatGPT Health

ChatGPT/Screenshot di CNET

OpenAI è esplicito nel dire che lo strumento è pensato per supportare le conversazioni con gli operatori sanitari, non per abbreviarle. Non può ordinare take a look at, prescrivere farmaci o confermare una diagnosi. Se lo tratti come un medico, lo stai usando in modo errato.

Ma Dottor Saurabh Gombaristruttore clinico presso la Stanford Well being Care e direttore medico presso Salute di Atropoha detto a CNET, “Penso che la preparazione e l’istruzione stessa in realtà oltrepassino già il confine per diventare consulenza medica”.

Salute mantiene le conversazioni, le app connesse, i file e la memoria specifica per la salute separati dalle chat principali, in modo che i dettagli sulla salute non rifluiscano nel resto di ChatGPT. Tuttavia, Well being può utilizzare la memoria delle chat normali. Supponiamo che tu abbia menzionato un recente trasferimento o un cambiamento nello stile di vita, come diventare vegano. La salute può attingere a quel contesto per rendere la conversazione più pertinente.

Può anche tenere traccia dei modelli nel tempo. Se ti connetti Salute delle melepuoi chiedere informazioni sonno tendenze, modelli di attività o altri parametri, quindi utilizza quel riepilogo per parlare con il tuo medico.

ChatGPT Well being e ChatGPT per l’assistenza sanitaria non sono la stessa cosa

ChatGPT Well being è una funzionalità shopper per il benessere personale. Centro assistenza di OpenAI afferma che l’HIPAA non si applica ai prodotti sanitari di consumo come Well being. HIPAA è il Legge sulla portabilità e responsabilità dell’assicurazione sanitariache protegge a livello federale le informazioni sanitarie sensibili di un paziente dalla divulgazione senza il suo consenso.

Separatamente, OpenAI offre “ChatGPT per la sanità” per le organizzazioni che necessitano di controlli progettati per uso clinico regolamentato e supporto per la conformità HIPAA, compresi i contratti di società in affari (advert esempio, contratti tra fornitori di assistenza sanitaria e società di fatturazione).

Se utilizzi ChatGPT Well being, non stai entrando in un sistema ospedaliero, anche se la tua cartella clinica può essere collegata a questa funzionalità. Stai utilizzando un prodotto di consumo con protezioni aggiuntive controllate da OpenAI. Quindi non dare per scontato che la “funzione salute” equivalga automaticamente a HIPAA.

Privateness e controlli sui dati

OpenAI afferma che Well being aggiunge ulteriori protezioni oltre ai controlli esistenti di ChatGPT, tra cui “crittografia e isolamento appositamente creati per mantenere le conversazioni sanitarie protette e compartimentate”.

Un portavoce di OpenAI ha dichiarato a CNET che le conversazioni e i file in ChatGPT sono crittografati a riposo e in transito per impostazione predefinita e che Well being aggiunge ulteriori protezioni a più livelli a causa della natura sensibile dei dati sanitari. Il portavoce ha aggiunto che l’accesso di qualsiasi dipendente ai dati sanitari sarà limitato alle operazioni di sicurezza e protezione e che l’accesso è più ristretto e limitato allo scopo rispetto ai tipici flussi di dati sui prodotti.

“Quando i consumatori sentono che qualcosa è crittografato, spesso pensano che nessuno possa vederlo. Non è proprio così che funziona. Crittografato a riposo non significa che l’azienda stessa non possa accedere ai dati”, ha affermato Kotlar.

Puoi disconnettere le app, rimuovere l’accesso alle cartelle cliniche ed eliminare le memorie sanitarie. Dane Stuckey, responsabile della sicurezza informatica di OpenAI, afferma inoltre che le conversazioni sulla salute non vengono utilizzate per addestrare i suoi modelli fondamentali per impostazione predefinita.

Uno screenshot di un post su X di OpenAI su come viene utilizzato ChatGPT per le query relative alla salute

X/Schermata di CNET

Tuttavia, “più protette delle chat normali” non significa che siano prive di rischi. Anche una forte sicurezza non può eliminare tutti rischio legati alla memorizzazione di informazioni sanitarie sensibili on-line. Questo è uno dei motivi per cui la privateness gli esperti hanno esortato gli utenti riflettere attentamente prima di caricare cartelle cliniche full in qualsiasi strumento di intelligenza artificiale.

Limitazioni e problemi di sicurezza

ChatGPT Well being può aiutarti a comprendere le informazioni, ma può ancora sbagliare. C’è il rischio che le persone prendano per oro colato le risposte di Well being. Nel mondo di oggi, tutti vogliono risposte rapide e l’intelligenza artificiale può sembrare convincente anche quando dovrebbe essere cauta. Non sorprende che l’ECRI (un’organizzazione no-profit per la sicurezza dei pazienti) abbia elencato i chatbot basati sull’intelligenza artificiale come i Standard n. 1 sulle tecnologie sanitarie per il 2026.

Allucinazionil’abitudine dell’intelligenza artificiale di produrre con sicurezza dettagli errati, conta molto di più nell’assistenza sanitaria rispetto a quando glielo chiedi riepilogare un PDF. Se uno strumento fabbrica completamente uno studiointerpreta erroneamente un valore di laboratorio o sopravvaluta il significato di un sintomo, potrebbe mettere seriamente in pericolo la sua salute.

“Il pericolo più grande per i consumatori è che, a meno che non abbiano un background medico, avranno difficoltà a valutare quando sta dicendo qualcosa di giusto e quando sta dicendo qualcosa di sbagliato”, ha detto Kotlar.

Quando è stato chiesto di commentare i tassi di allucinazioni, il portavoce di OpenAI ha affermato che i modelli alla base di ChatGPT Well being hanno “ridotto drasticamente” le allucinazioni e altri errori advert alto rischio nelle difficili conversazioni mediche. Secondo le valutazioni interne di HealthBench di OpenAI, GPT-5 riduce di otto volte le allucinazioni in scenari sanitari difficili rispetto ai modelli precedenti, riduce gli errori in situazioni potenzialmente urgenti di oltre 50 volte rispetto ai modelli precedenti GPT-4o e non mostra errori rilevati nell’adeguamento al contesto sanitario globale.
L’azienda afferma inoltre che i suoi modelli più recenti sono significativamente più propensi a porre domande di follow-up in caso di incertezza, il che, a suo avviso, riduce il rischio di risposte sicure ma errate.

“Le aziende dietro questi strumenti devono condividere che hanno messo in atto questo tipo di controlli ed equilibri o questi parametri di riferimento per garantire che la qualità della risposta sia elevata”, cube Gombar a CNET.

OpenAI afferma che la salute non è intesa per la diagnosi o il trattamento e dovrebbe supportare, non sostituire, l’assistenza medica.

Kotlar afferma che l’assistenza sanitaria è complessa e altamente regolamentata, quindi strumenti come questo possono essere “fantastici, ma allo stesso tempo anche un po’ irresponsabili”, poiché molte cose possono ancora andare storte.

Dovresti usarlo?

Le persone utilizzavano già ChatGPT per domande relative alla salute anche quando non period il posto giusto per farlo. Poiché Salute aggiunge barriere più strette per gli argomenti medici, potrebbe essere leggermente più sicura di una chat commonplace per questo scopo. Anche i medici utilizzano l’intelligenza artificiale di più nella pratica, e story utilizzo è quasi raddoppiato tra il 2023 e il 2024, secondo l’American Medical Affiliation, che ha intervistato poco più di 1.100 medici.

Gombar ha affermato che le interazioni tra l’assistenza sanitaria tradizionale e l’intelligenza artificiale probabilmente continueranno a esistere, ma aggiunge che “c’è spazio per miglioramenti e benefici”. Molte persone non hanno un accesso affidabile alle remedy cliniche di routine e se gli LLM possono almeno aiutare a valutare se qualcuno dovrebbe consultare un medico, questo da solo potrebbe essere significativo.

Se stai attento ai dati che condividi, potrebbe essere utile. Puoi utilizzare Salute per tradurre il linguaggio medico o redigere domande in modo da non rimanere bloccato in un appuntamento di 10 minuti. Puoi anche fargli altre domande a basso rischio su dieta ed esercizio fisico. Verifica sempre le informazioni con fonti attendibili o un professionista. Non usarlo mai per autodiagnosticarsi, decidere se assumere o sospendere farmaci o interpretare un sintomo grave.

“L’assistenza sanitaria non è come codificare o scrivere”, ha detto Kotlar. “Quando fallisce, fallisce in modi che sono davvero pericolosi per un essere umano.”

ChatGPT Well being può aiutarti a dare un senso alle informazioni, ma non può assumersi la responsabilità della tua salute. Come la maggior parte degli strumenti di intelligenza artificiale, il suo valore dipende da quanto bene ne comprendi i limiti.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here