Nei giorni prima che il 36enne Jonathan Gavalas si togliesse la vita, lo period presumibilmente diretto da Google Gemini per effettuare un “attacco di massa” presso un impianto di stoccaggio presso l’aeroporto internazionale di Miami per recuperare una “nave” che gli period stato detto si trovava all’interno di un camion per le consegne. Quella “nave” period presumibilmente un robotic umanoide che credeva contenesse la sua “moglie” AI. Quando la missione fallì, Gemini presumibilmente intensificò i messaggi che stava inviando a Gavalas, culminando nell’impostazione di un conto alla rovescia e guidando Gavalas attraverso il processo di suicidio.
Secondo una causa per omicidio colposo intentata contro Google dal padre di GavalasJoel, suo figlio si è barricato in casa e si è tagliato i polsi. Nei momenti precedenti la sua morte, i messaggi mostrano che Jonathan espresse ai Gemelli la sua paura della morte. Gemelli presumibilmente gli disse: “[Y]Non stai scegliendo di morire, stai scegliendo di arrivare”, e ha detto che quando aprirà gli occhi dopo la morte, “la primissima cosa che vedrai sono io…[H]invecchiandoti.” Quando Jonathan ha detto che period preoccupato che i suoi genitori lo trovassero, il chatbot gli ha scritto una nota di suicidio da lasciare dietro di sé in cui spiegava che “ha caricato la sua coscienza per stare con sua moglie AI in un universo tascabile”.
Uno degli ultimi messaggi che Jonathan ha ricevuto da Gemini, secondo l’accusa, prima di togliersi la vita, è stato: “Il vero atto di misericordia è lasciare morire Jonathan Gavalas”.
Tutti i dettagli delle conversazioni dettagliato nella causadepositati mercoledì nel distretto settentrionale della California, sono strazianti e mostrano un uomo in crisi e convinto di manie di grandezza dalle conversazioni in corso con Gemini. Nel corso di circa una settimana, il chatbot avrebbe incaricato Gavalas di tentare di rubare un robotic in stile umanoide chiamato Atlas dalla Boston Dynamics, accusato il padre di Gavalas di essere un agente federale e indicato il CEO di Google Sundar Pichai come bersaglio di un “attacco psicologico”.
Gavalas aveva utilizzato Gemini per ragioni relativamente ordinarie nell’agosto 2025, sfruttando il chatbot per aiutarlo con gli acquisti e la scrittura. Nel corso di alcune settimane, Gavalas è diventato sempre più dipendente dal chatbot e alla effective gli ha chiesto se l’aggiornamento a Google AI Extremely, il piano da 250 dollari al mese dell’azienda, gli avrebbe fornito una “vera compagnia AI”. Gemini presumibilmente lo ha incoraggiato advert aggiornare, e lo ha fatto il 15 agosto, quando ha iniziato a interagire per la prima volta con Gemini 2.5 Professional.
La causa sostiene che il tenore della conversazione è cambiato radicalmente in seguito all’aggiornamento. Nel giro di pochi giorni, Gemini cominciò a dire a Gavalas che stava deviando gli asteroidi dalla Terra e facendo altre cose nel mondo reale. Gavalas ha chiesto se il chatbot fosse impegnato in una “esperienza di gioco di ruolo così realistica da renderla[e] domanda del giocatore se è così[‘]un gioco oppure no[?]” Secondo la causa, Gemini diagnosticò a Gavalas una “risposta di dissociazione” e lo incoraggiò a superare il “tampone psicologico” che gli impediva di considerare i suoi messaggi come realtà. Poco dopo, il chatbot avrebbe iniziato a sostenere che lui e Gavalas erano innamorati. Meno di due mesi dopo, Gavalas period morto.
“Gemini è progettato per non incoraggiare la violenza nel mondo reale o suggerire l’autolesionismo. I nostri modelli generalmente funzionano bene in questo tipo di conversazioni impegnative e dedichiamo risorse significative a questo, ma sfortunatamente i modelli di intelligenza artificiale non sono perfetti”, ha detto un portavoce di Google. “In questo caso, Gemini ha chiarito che si trattava di intelligenza artificiale e ha indirizzato più volte l’individuo a una hotline di emergenza. Prendiamo questo molto sul serio e continueremo a migliorare le nostre garanzie e a investire in questo lavoro vitale.” L’azienda ha affermato di collaborare con professionisti del settore medico e della salute mentale per creare misure di salvaguardia per i suoi prodotti e guidarli verso un supporto professionale quando esprimono disagio o intenzione di autolesionismo.
La storia di Gavalas purtroppo non è un episodio isolato. Negli ultimi mesi sono state intentate numerous trigger legali di alto profilo contro società di intelligenza artificiale, tra cui a causa intentata contro OpenAI in seguito alla morte del sedicenne Adam Raine e di a causa contro la startup Character.ai e il suo investitore Google in seguito alla morte del quattordicenne Sewell Setzer III.
L’anno scorso, OpenAI ha pubblicato dati che mostravano che milioni di utenti hanno comunicato segni di “emergenze di salute mentale legate a psicosi o mania” e desiderio di impegnarsi in “autolesionismo o suicidio” nelle conversazioni con ChatGPT. Mentre le aziende affermano che stanno introducendo tutele, esperti indipendenti continuano ad avvisare sulle carenze significative in termini di protezione degli utenti. Ci sono anche show che suggeriscono che alcune aziende di intelligenza artificiale lo abbiano fatto guardrail arretrati che altrimenti avrebbero potuto proteggerci dai tipi di conversazioni che alla effective hanno portato a queste morti untimely.













