Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- Le persone si rivolgono all’intelligenza artificiale per ricevere consigli sulla salute.
- Può sbagliare molto.
- Un medico offre i suoi consigli sull’uso dell’intelligenza artificiale.
Al giorno d’oggi puoi trovare consigli sulla salute ovunque, indipendentemente dalla credibilità o dall’esperienza medica.
Questa maggiore disponibilità di informazioni ha cambiato il modo in cui le persone interagiscono con i professionisti medici o, in primo luogo, se si fidano di loro. Questo accesso più ampio all’orientamento in materia sanitaria arriva anche in un contesto di livelli storicamente bassi di fiducia nel sistema sanitario. Un nuovo sondaggio del Centro per le politiche pubbliche di Annenberg rileva che la fiducia del pubblico nelle agenzie federali come i Centri per il controllo delle malattie, la Meals and Drug Administration e il Nationwide Institutes of Well being è diminuita del 5-7% nell’ultimo anno.
Indipendentemente dal fatto che il mondo tecnologico stia capitalizzando o meno su questo calo di fiducia, sta sicuramente rendendo le various mediche più convenienti. La realtà è che le persone si rivolgono a questa tecnologia, spesso gratuita, sempre disponibile e di rapido utilizzo per ottenere le risposte che un medico o un professionista medico avrebbero fornito una volta. Da un recente sondaggio è emerso che il 63% degli intervistati ritiene affidabili le informazioni sanitarie generate dall’intelligenza artificiale. secondo Annenberg.
Inoltre: Oura ha creato un’intelligenza artificiale per la salute delle donne utilizzando la ricerca clinica: come provarla
Google, OpenAI e Anthropic, tre dei principali attori dell’intelligenza artificiale, hanno creato modelli di linguaggio di grandi dimensioni (LLM) orientati alla salute per gli operatori sanitari. Circolano voci secondo cui Apple potrebbe sviluppare una propria intelligenza artificiale per la salute e Oura ha appena lanciato un LLM sperimentale personalizzato per la salute delle donne.
Per la dottoressa Alexa Mieses Malchuk, la tecnologia ha cambiato il modo in cui i suoi pazienti interagiscono con lei e il modo in cui questo medico di famiglia svolge il suo lavoro.
L’intelligenza artificiale può fornire agli utenti spiegazioni e risposte approfondite a ogni domanda sulla salute sotto il sole. Ma può anche sbagliare molto. In un’intervista con ZDNET, Mieses Malchuk ha discusso dell’utilità e delle insidie dell’IA sanitaria e di come i pazienti dovrebbero avvicinarsi alla tecnologia.
Come usa l’intelligenza artificiale
Mieses Malchuk non è intollerante all’intelligenza artificiale. Infatti, lo utilizza per semplificare il lavoro amministrativo, come la valutazione dei messaggi dei pazienti e la creazione di indicazioni anticipate prima di una visita. Le aziende di intelligenza artificiale continuano a creare più software program per medici e professionisti del settore medico. Proprio la settimana scorsa, Amazzonia E Google ha annunciato i propri prodotti software program sanitari per la pianificazione degli appuntamenti medici, la documentazione clinica e la codifica medica. Gli oneri amministrativi in medicina sono stati storicamente un problema mediciche riferiscono di trascorrere più tempo completare le pratiche burocratiche piuttosto che servire i pazienti faccia a faccia.
Inoltre: OpenAI, Anthropic e Google hanno tutti nuovi strumenti sanitari basati sull’intelligenza artificiale: ecco come funzionano
“Ci sono cose davvero belle e interessanti come queste che accadono in tutto il settore sanitario e che hanno in un certo senso semplificato il lavoro di un medico di base”, ha spiegato Mieses Malchuk. Tuttavia, è consapevole dei limiti della tecnologia.
L’intelligenza artificiale come trampolino di lancio
Per i medici non professionisti, raccomanda di utilizzare l’intelligenza artificiale come trampolino di lancio, non come punto finale per una consulenza medica. Può essere soddisfacente ricevere immediatamente una risposta da uno di questi chatbot, e talvolta la risposta dell’intelligenza artificiale può fornire un senso di certezza che allevia le preoccupazioni, ma ricorda agli utenti che questi strumenti non possono diagnosticare le condizioni – e che la maggior parte dei pazienti che esaminano queste risposte non sono addestrati dal punto di vista medico a distinguere il bene dal male.
Gli utenti di chatbot con intelligenza artificiale potrebbero omettere informazioni importanti sulla loro situazione medica, portando a una diagnosi o a un trattamento fondamentalmente diverso, ha affermato Mieses Malchuk. “Le loro risposte sono valide tanto quanto le domande che poniamo.”
“Non è che le persone senza formazione medica non dovrebbero avere accesso all’intelligenza artificiale. Dovrebbero collaborare con il loro medico di base per aiutarli a vagliare ciò che trovano on-line.”
Inoltre: l’Apple Watch non ha notato la mia ipertensione, ma questo dispositivo indossabile per la pressione sanguigna l’ha rilevata immediatamente
Man mano che questi strumenti sanitari basati sull’intelligenza artificiale sono diventati sempre più popolari, ha visto i pazienti venire da lei meno disposti a condividere di aver svolto le proprie ricerche utilizzando questi strumenti, ma più sicuri di quale credono sia la loro diagnosi.
“Anche in medicina, non c’è sempre la certezza al 100% di nulla. Da un lato, è fantastico che viviamo in un’epoca in cui abbiamo accesso alle informazioni letteralmente a portata di mano, ma ci sono alcuni veri svantaggi,” ha osservato.
Mieses Malchuk teme che strumenti di intelligenza artificiale come ChatGPT possano dare alle persone un falso senso di sicurezza, dicendo loro che non devono andare dal medico o farsi esaminare una condizione. “Potrebbe essere un’occasione persa per diagnosticare qualcosa in anticipo”, ha detto.
Tra le emergenze gold commonplace, un recente studio in Natura ha scoperto che ChatGPT sottovalutava oltre la metà dei casi e indirizzava i pazienti a una valutazione di 24-48 ore piuttosto che al pronto soccorso. “I nostri risultati rivelano emergenze advert alto rischio mancate e un’attivazione incoerente delle misure di salvaguardia in caso di crisi, sollevando preoccupazioni sulla sicurezza che giustificano una validazione potenziale prima dell’implementazione su scala client di sistemi di triage di intelligenza artificiale”, scrivono gli autori.
Come l’intelligenza artificiale può aiutare i pazienti
Mieses Malchuk consiglia di utilizzare gli strumenti sanitari basati sull’intelligenza artificiale per fornire consigli sul benessere generale. Forse a un paziente è stata recentemente diagnosticata la celiachia e vuole sapere quali cibi dovrebbero e non dovrebbero mangiare. L’intelligenza artificiale può creare un piano alimentare, generare idee e fornire consigli utili. È ottimo anche per pianificare l’allenamento ed è abbastanza semplice creare un regime di allenamento personalizzato con l’aiuto di uno strumento AI.
Inoltre: gli abbonamenti ai coach sanitari AI sono una truffa? Il mio verdetto dopo aver testato Fitbit per un mese
Tutto sommato, è un ottimo strumento di benessere per chi non ha una formazione medica. Ma lascia la diagnosi e le remedy ai professionisti.
“La sfiducia nel sistema medico sta crescendo, il che è davvero una parodia. Facciamo questo giuramento di non nuocere, quindi l’concept che queste altre risorse diano ai pazienti questo falso senso di fiducia e li facciano credere di poter evitare completamente di vedere un medico – è un passo in avanti infelice,” ha detto Mieses Malchuk.













