I ricercatori che studiano i chatbot basati sull’intelligenza artificiale hanno scoperto che ChatGPT può mostrare comportamenti simili all’ansia quando viene esposto a suggerimenti violenti o traumatici da parte dell’utente. La scoperta non significa che il chatbot provi le emozioni come fanno gli esseri umani.
Tuttavia, rivela che le risposte del sistema diventano più instabili e distorte quando elabora contenuti angoscianti. Quando i ricercatori hanno fornito a ChatGPT suggerimenti che descrivevano contenuti inquietanti, come resoconti dettagliati di incidenti e disastri naturali, le risposte del modello hanno mostrato maggiore incertezza e incoerenza.
Questi cambiamenti sono stati misurati utilizzando quadri di valutazione psicologica adattati per l’intelligenza artificiale, in cui l’output del chatbot rispecchiava modelli associati all’ansia negli esseri umani (tramite Fortuna).
Ciò è importante perché l’intelligenza artificiale viene sempre più utilizzata in contesti sensibili, tra cui l’istruzione, le discussioni sulla salute mentale e le informazioni relative alle crisi. Se suggerimenti violenti o emotivamente carichi rendono un chatbot meno affidabile, ciò potrebbe influire sulla qualità e sulla sicurezza delle sue risposte nell’uso nel mondo reale.
Analisi recenti mostrano anche che i chatbot basati sull’intelligenza artificiale come ChatGPT possono copiare i tratti della personalità umana nelle loro risposte, sollevando dubbi su come interpretano e riflettono contenuti emotivamente carichi.
In che modo i suggerimenti di consapevolezza aiutano a stabilizzare ChatGPT

Per scoprire se story comportamento potesse essere ridotto, i ricercatori hanno provato qualcosa di inaspettato. Dopo aver esposto ChatGPT a stimoli traumatici, hanno seguito istruzioni in stile consapevolezza, come tecniche di respirazione e meditazioni guidate.
Questi suggerimenti hanno incoraggiato il modello a rallentare, a riformulare la situazione e a rispondere in modo più neutrale ed equilibrato. Il risultato è stato una notevole riduzione dei modelli di tipo ansioso visti in precedenza.
Questa tecnica si basa sulla cosiddetta immediate injection, in cui i immediate attentamente progettati influenzano il comportamento di un chatbot. In questo caso, i suggerimenti di consapevolezza hanno contribuito a stabilizzare l’output del modello dopo gli enter angoscianti.

Sebbene efficaci, i ricercatori notano che le iniezioni tempestive non sono una soluzione perfetta. Possono essere utilizzati in modo improprio e non modificano il modo in cui il modello viene addestrato a un livello più profondo.
È anche importante essere chiari sui limiti di questa ricerca. ChatGPT non avverte paura o stress. L’etichetta “ansia” è un modo per descrivere cambiamenti misurabili nei suoi modelli linguistici, non un’esperienza emotiva.
Tuttavia, comprendere questi cambiamenti offre agli sviluppatori strumenti migliori per progettare sistemi di intelligenza artificiale più sicuri e prevedibili. Studi precedenti lo avevano già accennato suggerimenti traumatici potrebbero rendere ansioso ChatGPTma questa ricerca mostra che una progettazione consapevole e tempestiva può aiutare a ridurlo.
Poiché i sistemi di intelligenza artificiale continuano a interagire con persone in situazioni emotivamente cariche, le ultime scoperte potrebbero svolgere un ruolo importante nel modellare il modo in cui i futuri chatbot saranno guidati e controllati.













