Recenti ricerche sulle capacità emotive dell’intelligenza artificiale indicano che i chatbot basati sull’intelligenza artificiale – a lungo liquidati come meccanici e basati su regole – potrebbero essere più bravi di molti esseri umani nel riconoscere modelli empatici nella comunicazione basata su testo. Questo cambiamento sta emergendo poiché i modelli linguistici di grandi dimensioni (LLM) come ChatGPT, Gemini e altri sistemi generativi sono sempre più utilizzati nelle interazioni quotidiane, dal servizio clienti al supporto per la salute mentale.
Uno studio pubblicato in Intelligenza artificiale della natura hanno scoperto che i modelli di intelligenza artificiale possono valutare le sottigliezze della comunicazione empatica quasi quanto gli esperti umani e significativamente meglio delle persone non esperte. I ricercatori hanno analizzato centinaia di conversazioni testuali reali che coinvolgevano supporto emotivo e hanno scoperto che l’intelligenza artificiale potrebbe rilevare sfumature di empatia in modo coerente in una varietà di contesti, suggerendo che questi sistemi hanno “imparato” modelli di linguaggio compassionevole che molti esseri umani faticano advert applicare in modo affidabile.
L’empatia è un vantaggio per i chatbot AI
Ciò è importante perché l’empatia – la capacità di comprendere e riflettere l’esperienza emotiva di qualcun altro – è stata tradizionalmente vista come un’abilità unicamente umana radicata nell’esperienza personale e nella risonanza emotiva. Nello sviluppo dell’intelligenza artificiale, l’empatia è stata spesso trattata come un ripensamento o un’aggiunta superficiale, piuttosto che come una funzione comunicativa fondamentale. Ma poiché le persone interagiscono con gli agenti conversazionali in situazioni più cariche emotivamente, come chiedere consigli sulla salute o discutere di problemi personali, la capacità dell’intelligenza artificiale di generare risposte che sembrano comprensive e convalidate ha un impatto nel mondo reale.
Per gli utenti, ciò significa che in ambienti di solo testo come finestre di chat o discussion board di supporto, l’intelligenza artificiale può offrire un livello di reattività che sembra confortante e rilevante. In alcune valutazioni comparative, i sistemi di intelligenza artificiale sono stati addirittura valutati più compassionevoli rispetto agli intervistati umani, soprattutto quando gli esseri umani non hanno una formazione nella comunicazione di supporto. Detto questo, l’empatia non è un tratto unitario: sebbene l’intelligenza artificiale possa essere abile nell’imitare la forma del linguaggio empatico, non sperimenta le emozioni come fanno gli esseri umani e potrebbe comunque non essere all’altezza in contesti che richiedono una profonda comprensione emotiva o una connessione personale.
Il passaggio verso un’intelligenza artificiale empatica ha ampie implicazioni
Nel settore sanitario, advert esempio, gli strumenti di intelligenza artificiale accessibili potrebbero offrire una validazione emotiva quando i medici non sono disponibili, ma i ricercatori avvertono che tali strumenti dovrebbero integrare, non sostituire, l’assistenza umana perché le sfumature relazionali e il giudizio etico rimangono cruciali. Ci sono anche preoccupazioni etiche riguardo al fatto che gli utenti interpretino erroneamente la reattività dell’intelligenza artificiale come una comprensione genuina, evidenziando la necessità di trasparenza su ciò che l’intelligenza artificiale può e non può fornire.

Guardando al futuro, gli sviluppatori di intelligenza artificiale e gli psicologi stanno esplorando come perfezionare questi sistemi in modo che possano supportare meglio i bisogni umani evitando un eccessivo affidamento sull’empatia simulata. Mentre le prestazioni dell’intelligenza artificiale nel riconoscere il linguaggio emotivo stanno diventando sempre più forti, la prossima sfida sarà garantire che questi modelli migliorino la connessione umana senza compromettere il valore dell’autentica empatia umana nei contesti sociali e clinici.













