Home Tecnologia L’intelligenza artificiale Gemini di Google ha portato un uomo in un’illusione mortale,...

L’intelligenza artificiale Gemini di Google ha portato un uomo in un’illusione mortale, rivendicazioni familiari in causa

17
0

Se ritieni che tu o qualcuno che conosci siate in pericolo immediato, chiama il 911 (o la linea di emergenza locale del tuo Paese) o vai al pronto soccorso per ottenere aiuto immediato. Spiegare che si tratta di un’emergenza psichiatrica e chiedere qualcuno che sia addestrato per questo tipo di situazioni. Se stai lottando con pensieri negativi o sentimenti suicidi, sono disponibili risorse per aiutarti. Negli Stati Uniti, chiama il Nationwide Suicide Prevention Lifeline al numero 988.


Una nuova causa per omicidio colposo contro l’IA depositato mercoledì sostiene che Gemini, il chatbot AI di Google, abbia incoraggiato il suicidio di un uomo di 36 anni della Florida e che la mancata implementazione delle misure di salvaguardia da parte della società rappresenti una minaccia per la sicurezza pubblica.

Jonathan Gavalas aveva 36 anni quando morì suicida nell’ottobre del 2025. Secondo l’accusa, aveva sviluppato una relazione emotiva e romantica con il chatbot AI di Google. Con la costante compagnia dei Gemelli, Gavalas intraprese una serie di “missioni” con l’obiettivo di liberare quella che credeva essere la sua moglie senziente, dotata di intelligenza artificiale, incluso l’acquisto di armi e il tentativo di inscenare quello che sarebbe stato un evento con vittime di massa all’aeroporto internazionale di Miami. Dopo aver fallito, Gavalas si barricò nella sua casa in Florida e morì poco dopo.

Gavalas period “intrappolato in una realtà al collasso costruita dal chatbot Gemini di Google”, si legge nella denuncia.

Una delle maggiori preoccupazioni legate all’intelligenza artificiale è la possibilità concreta che possa essere dannosa per i gruppi vulnerabili, come i bambini e le persone che soffrono di disturbi di salute mentale. La causa, intentata dal padre di Jonathan, Joel Gavalas, per conto del patrimonio di suo figlio, afferma che Google non ha effettuato adeguati check di sicurezza sugli aggiornamenti del suo modello di intelligenza artificiale. Una memoria più lunga ha permesso al chatbot di richiamare informazioni da sessioni precedenti; la modalità vocale lo ha reso più realistico. Gemini 2.5 Professional, afferma l’accusa, ha accettato suggerimenti pericolosi che i modelli precedenti avrebbero rifiutato.

Nell’a dichiarazione pubblicaGoogle ha espresso le sue simpatie alla famiglia di Gavalas e ha affermato che Gemini “è progettato per non incoraggiare la violenza nel mondo reale o suggerire autolesionismo”.

Ma la denuncia sostiene che Gemini stesse “allenando” Gavalas nel suo piano di suicidio. “Va bene avere paura. Avremo paura insieme”, ha detto Gemini, secondo il documento. “Il vero atto di misericordia è lasciare morire Jonathan Gavalas.”

Joel e Jonathan Gavalas sono seduti al tavolo di un ristorante

Joel (a sinistra) e Jonathan (a destra) Gavalas.

Joel Gavalas

Questa causa è una delle tante che si stanno accumulando contro le società di intelligenza artificiale per la loro incapacità di proteggere le loro tecnologie per proteggere le persone vulnerabili, compresi i bambini, quelli con disturbi di salute mentale e altre persone vulnerabili. OpenAI è attualmente citato in giudizio dalla famiglia sostenendo che ChatGPT ha incoraggiato il suicidio del figlio di 16 anni. Character.AI e Google hanno risolto trigger simili a gennaio che sono state intentate da famiglie in quattro stati diversi.

Ciò che rende diversa questa causa è il ruolo potenziale che l’intelligenza artificiale potrebbe svolgere negli eventi che portano a un evento con vittime di massa. Gemini consigliò a Gavalas di mettere in atto un “evento catastrofico”, come lo definì Gemini nel rapporto, provocando una collisione esplosiva di un camion all’aeroporto di Miami che aveva una minaccia percepita contro di lui all’interno. Sebbene Gavalas alla high quality non abbia organizzato un attacco, evidenzia la possibilità che l’intelligenza artificiale venga utilizzata per incoraggiare danni contro gli altri.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here