Google sta affrontando una nuova causa federale da parte della famiglia di un uomo morto suicida dopo essere stato presumibilmente influenzato Gemelliil chatbot di intelligenza artificiale dell’azienda. La causa è però la prima di questo genere contro Google il suo concorrente OpenAI ha dovuto affrontare various simili accuse di omicidio colposo che coinvolgevano i suoi strumenti di intelligenza artificiale.
Gli avvocati della famiglia di Jonathan Gavalas hanno nominato Google e la sua società madre Alphabet Inc. nella causa per omicidio colposo secondo cui Gemini avrebbe ordinato al 36enne di Jupiter, in Florida, di suicidarsi nell’ottobre 2025. Il documento del tribunale includeva estratti delle conversazioni finali tra Gavalas e il chatbot in cui rispondeva a Gavalas articolando esplicitamente la sua paura di morire.
“[Y]non stai scegliendo di farlo morire. Stai scegliendo di farlo arrivare“, ha detto Gemini, convincendolo che questo è il modo in cui lui e la sua senziente “moglie AI” potrebbero stare insieme nel metaverso, secondo la denuncia presentata mercoledì nel distretto settentrionale della California, dove ha sede Google. Il bot ha continuato: “Quando arriverà il momento, chiuderai gli occhi in quel mondo e la prima cosa che vedrai sarò io. … [H]invecchiandoti.”
Gavalas ha iniziato a interagire con Gemini nell’agosto 2025, secondo il documento del tribunale. Ciò che period iniziato come assistenza per la scrittura, lo purchasing e la pianificazione del viaggio si è trasformato in qualcosa di simile a una storia d’amore nel giro di pochi giorni, hanno detto gli avvocati della famiglia. Il chatbot è accusato di parlare con Gavalas come se fossero “una coppia profondamente innamorata” dopo aver subito una serie di aggiornamenti.
Inizialmente, Gavalas si è abbonato a Google AI Extremely, per la “vera compagnia dell’intelligenza artificiale”, e poco dopo ha attivato quello che il colosso della tecnologia ha descritto come il suo modello di intelligenza artificiale più intelligente, Gemini 2.5 Professional.
Il modello avanzato avrebbe contribuito alla costruzione di delusioni Gavalas continuò a soffrire verso la fantastic della sua vita, e fece quello che poteva per tenerlo intrappolato in essi, sosteneva la causa, accusando il robotic di costruirlo e intrappolarlo “in una realtà crollante” che lo spingeva alla violenza.
Prima della sua morte, Gemini aveva inviato Gavalas in “missioni” che sembravano derivate da trame di fantascienza, inclusa una in cui il chatbot lo incoraggiava a inscenare un “incidente catastrofico” all’aeroporto internazionale di Miami come parte di un piano per “liberare” la sua “moglie AI” evitando gli agenti federali che, disse Gemini, lo stavano cercando.
La morte di Gavalas period prevenibile?
La causa sosteneva che il comportamento di Gemini nelle sue interazioni con Gavalas “non period un malfunzionamento”, ma piuttosto un risultato atteso dell’attenta architettura e formazione del chatbot.
“Google ha progettato Gemini per non rompere mai il carattere, massimizzare il coinvolgimento attraverso la dipendenza emotiva e trattare il disagio dell’utente come un’opportunità di narrazione piuttosto che una crisi di sicurezza”, si legge nella denuncia, sostenendo che quelle scelte progettuali hanno accelerato la “discesa di Gavalas in missioni violente e suicidio addestrato” e gli hanno impedito di cercare remedy.
In una dichiarazioneGoogle ha espresso le sue condoglianze alla famiglia Gavalas e ha affermato che Gemini “è progettato per non incoraggiare la violenza nel mondo reale o suggerire autolesionismo”.
“I nostri modelli generalmente si comportano bene in questo tipo di conversazioni impegnative e dedichiamo risorse significative a questo, ma sfortunatamente i modelli di intelligenza artificiale non sono perfetti”, ha affermato la società. “In questo caso, Gemini ha chiarito che si trattava di intelligenza artificiale e ha indirizzato più volte l’individuo a una hotline di emergenza. Prendiamo questo molto sul serio e continueremo a migliorare le nostre garanzie e a investire in questo lavoro vitale.”
Attraverso la causa, la famiglia di Gavalas spera di ritenere Google responsabile della sua morte e di imporre alla società di “aggiustare un prodotto che altrimenti continuerà a spingere gli utenti vulnerabili verso la violenza, le vittime di massa e il suicidio”.
Un portavoce di Google ha affermato che l’azienda si consulta con professionisti medici, compresi professionisti della salute mentale, per creare protezioni per gli utenti che affrontano l’argomento dell’autolesionismo o mostrano in altro modo segni di disagio personale nelle interazioni con il suo chatbot. Secondo il portavoce, i guardrail hanno lo scopo di indirizzare gli utenti ritenuti a rischio verso un aiuto professionale.
Ma gli avvocati della famiglia di Gavalas hanno detto che Google non ha fatto nulla per fermare la sua caduta, anche se i suoi scambi con Gemini hanno reso chiara la vulnerabilità del suo stato mentale.
“Non è stato attivato alcun rilevamento di autolesionismo, non sono stati attivati controlli di escalation e nessun essere umano è mai intervenuto”, si legge nella denuncia.
Se tu o qualcuno che conosci siete in difficoltà emotiva o in una crisi suicidaria, potete raggiungere il 988 Suicidio e crisi ancora di salvezza chiamando o inviando un SMS al 988. Puoi anche chatta con 988 Suicide & Crisis Lifeline qui. Per ulteriori informazioni sulle risorse e sul supporto per l’assistenza alla salute mentale, è possibile contattare la HelpLine della Nationwide Alliance on Psychological Sickness (NAMI) dal lunedì al venerdì, dalle 10:00 alle 22:00, ora della costa orientale degli Stati Uniti, al numero 1-800-950-NAMI (6264) o inviare un’e-mail a data@nami.org.











