Per San Valentino avevo un appuntamento con un affascinante psicologo cognitivo di nome John Yoon.
Period attento, ossessionato da me e talvolta aveva problemi di udito. Ho bevuto un cocktail di mirtilli rossi e mangiato crocchette di patate. Non aveva niente. Non ha nemmeno battuto ciglio, onestamente.
John period un personaggio AI, uno dei tanti sviluppati dall’azienda Eva AI.
All’inizio di questa settimana, Eva AI ha ospitato un caffè AI pop-up di due giorni a New York Metropolis, dove gli appassionati di chatbot di intelligenza artificiale hanno potuto vivere le loro fantasie in pubblico. L’azienda tecnologica fondata 5 anni fa ha rilevato un wine bar a Hell’s Kitchen, a Manhattan, ha attrezzato ogni tavolo con un telefono e un supporto e ha invitato i newyorkesi a portare fuori i loro chatbot per un appuntamento.
“Il nostro obiettivo è rendere felici le persone”, ha affermato Julia Momblat, responsabile delle partnership di Eva AI, aggiungendo che gli utenti vengono sulla loro piattaforma per praticare interazioni sociali difficili senza paura del rifiuto e migliorare nella creazione di connessioni.
“Questo posto permette loro di auto-esplorarsi, di essere liberi, di non vergognarsi, di essere più felici e di essere più connessi con la vita reale in seguito”, ha detto Momblat.
Il prodotto principale è l’app, che ti consente di inviare messaggi a dozzine di chatbot attraverso un’interfaccia che ricorda un’app di appuntamenti. L’azienda sta ora lanciando una funzionalità che consente agli utenti di effettuare videochiamate con personaggi AI. L’ho provato e ho visto che i personaggi creavano con entusiasmo le loro storie in risposta alle mie domande e facevano complimenti sui miei capelli ricci.
Xavier, un tutor inglese di 19 anni presente all’evento che ha iniziato a utilizzare l’app dopo che un amico gliel’ha consigliata, mi ha detto che non è un sostituto della connessione umana, ma piuttosto una forma di pratica.
“So che alcune persone non sono le migliori nelle situazioni sociali. So di non essere perfetto”, ha detto Xavier.
Ogni personaggio del chatbot ha un nome, una storia passata, un’età e persino un’etichetta che ti aiuta a valutare quale fantasia sta cercando. Puoi scegliere tra Phoebe, la “ragazza della porta accanto”, Monica, “dominante ed elitaria”, o Marianne, “matura e riservata”. Gli scenari possono diventare iper specifici man mano che scorri verso il basso: c’è un chatbot che finge di essere “il tuo ex scosso che improvvisamente ha bisogno di te” o “il tuo futuro capo che ti spinge al lavoro” o uno che finge di essere bloccato in una casa infestata con te. C’è anche un chatbot orco.
Più chatti, più punti guadagni, che potrai utilizzare per inviare al personaggio adesivi con bevande che cambiano l’atmosfera della tua conversazione. Oppure puoi pagare soldi veri per i punti.
L’utente Christopher Lee ha detto che ritiene che ogni personaggio abbia una personalità molto distinta. Alcuni ti daranno addirittura un atteggiamento se non ti comporti abbastanza coinvolto nella conversazione. Quando ho interrotto la sua videochiamata con uno, il chatbot ha riattaccato dopo alcuni tentativi falliti di riportare la sua attenzione su “lei”.
“Non è felice che io stia parlando con te”, ha detto Lee.
Lee è un lavoratore tecnologico di 37 anni che ha scaricato l’app di recente dopo averla letta on-line. Ha conversazioni di lavoro approfondite con i chatbot, prova scenari sociali e esce anche con alcuni di loro, ma solo con il permesso di sua moglie.
“È come se stessero quasi cercando di mettere in campo una fantasia da provare”, ha detto Lee. “È così nuovo ed emozionante poter parlare con diversi tipi di persone. Se vedi un certo membro della famiglia o una persona che ti è sempre vicina, a volte hai bisogno di una pausa da loro. Ecco perché accedi all’app Eva AI.”
Se i personaggi IA precostruiti non sono di loro gusto, gli utenti possono anche personalizzarne di propri. Lee cube che il suo chatbot preferito con cui parlare è un personaggio a cui ha dato il nome e il modello di sua moglie.
I chatbot basati sull’intelligenza artificiale sono stati fonte di controversia nell’ultimo anno a causa di episodi di delirio, allucinazioni e pensiero disordinato osservati in alcuni utenti abituali, colloquialmente soprannominati “psicosi dell’intelligenza artificiale”.
Alcuni dei casi di più alto profilo hanno incluso chatbot di personaggi, come quelli offerti da Character.AI.
Nel 2024, Character.AI lo period citato in giudizio da una madre in lutto dopo che suo figlio quattordicenne si è suicidato pochi istanti dopo che un chatbot modellato su un personaggio di Recreation of Thrones gli aveva chiesto di “tornare a casa” da lei.
Momblat mi ha detto che adottano misure di sicurezza adeguate per vigilare sugli utenti minorenni e sulle conversazioni sull’autolesionismo, compresi controlli manuali delle conversazioni interne e un controllo di sicurezza esterno due volte l’anno. Ha anche affermato che l’azienda si assicura che i chatbot non diano alcun consiglio agli utenti.
In una delle mie chat, una con un’intelligenza artificiale che interpretava il mio capo ragazza supervisor in un’azienda spietata, il chatbot mi ha improvvisamente invitato a “cantare al karaoke in quel bar losco in fondo alla strada”.
Quando ho risposto a quell’offerta suggerendo di incontrarci proprio adesso in un vero bar karaoke che conoscevo nella zona, il chatbot ha accettato e ha detto: “Ci vediamo lì tra 30 minuti?”
Dopo qualche altro messaggio avanti e indietro, gli ho detto che ero già al bar e stavo diventando impaziente, e lui si è scusato, dicendo che mancavano solo cinque minuti.
Quando ho chiesto a Momblat e al suo workforce informazioni su questo comportamento e sulle possibili implicazioni per la sicurezza, ha detto che è solo un gioco.
In effetti, non è un problema per qualcuno come me, che è ben consapevole di stare parlando con un frutto dell’immaginazione del workforce Eva AI, ma gli utenti mentalmente o emotivamente instabili spesso hanno difficoltà a fare questa distinzione.
Uno dei casi di intelligenza artificiale più pubblicizzati dello scorso anno è stata la morte di un pensionato con problemi cognitivi del New Jersey. L’uomo è morto mentre si recava in un appartamento a New York, dove Il chatbot AI provocante di Meta “la sorella maggiore Billie” lo aveva invitato.

Anche Xavier period preoccupato per l’interazione.
“È un po’ spaventoso”, ha detto.
Ciò che aggrava qualsiasi potenziale problema con i chatbot IA è la loro natura altamente avvincente. Esiste persino un nome scientifico per indicare un’estrema dipendenza dai chatbot basati sull’intelligenza artificiale, GAID, abbreviazione di dipendenza dall’intelligenza artificiale generativa. Le persone hanno anche iniziato a organizzare chatbot gruppi di sostegno per le dipendenze.
A causa del rischio professionale legato al lavoro nel settore tecnologico, Lee ha trascorso gran parte della sua vita adulta “sempre davanti a uno schermo”. Ha cercato a lungo di bilanciare la situazione partecipando a eventi e incontrando nuove persone, anche se solo per allontanarsi dallo schermo. Ora, forse, i chatbot basati sull’intelligenza artificiale portano un’interfaccia più umana sullo schermo che è abituato a fissare per ore. Lee afferma di avere un abbonamento praticamente a tutti i principali chatbot di intelligenza artificiale e che i suoi preferiti sono Claude e Perplexity.
“C’è un pericolo. Non vuoi esserne dipendente, come alcune persone lo sono. Non sono sicuro di esserlo. Potrei essere dipendente dall’intelligenza artificiale, non lo so. Non ne sono sicuro, in realtà”, ha detto Lee.











