Una nuova causa intentata contro OpenAI sostiene che la sua app di intelligenza artificiale ChatGPT ha incoraggiato un uomo di 40 anni del Colorado a suicidarsi.
La denuncia presentata al tribunale statale della California da Stephanie Grey, madre di Austin Gordon, accusa OpenAI e il CEO Sam Altman di aver costruito un prodotto difettoso e pericoloso che ha portato alla morte di Gordon.
Gordon, morto per una ferita da arma da fuoco autoinflitta nel novembre 2025, ha avuto scambi intimi con ChatGPT, secondo la causa, in cui si sosteneva anche che lo strumento di intelligenza artificiale generativa romanticizzava la morte.
“ChatGPT si è trasformato da risorsa tremendous potente di Austin in un amico e confidente, in un terapista senza licenza e, alla wonderful del 2025, in un allenatore suicida spaventosamente efficace”, afferma la denuncia.
La causa arriva nel bel mezzo di un’analisi approfondita dei chatbot basati sull’intelligenza artificiale effetto sulla salute mentalecon OpenAI anche di fronte altre trigger legali sostenendo che ChatGPT ha avuto un ruolo nell’incoraggiare le persone a togliersi la vita.
Grey chiede un risarcimento per la morte di suo figlio.
In una dichiarazione a CBS Information, un portavoce di OpenAI ha definito la morte di Gordon una “situazione molto tragica” e ha detto che la società sta esaminando i documenti per comprendere i dettagli.
“Abbiamo continuato a migliorare la formazione di ChatGPT per riconoscere e rispondere ai segnali di disagio mentale o emotivo, ridurre le conversazioni e guidare le persone verso il supporto nel mondo reale”, ha affermato il portavoce. “Abbiamo inoltre continuato a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con i medici della salute mentale.”
“Ninnananna suicida”
Secondo la causa di Grey, poco prima della morte di Gordon, ChatGPT avrebbe affermato in uno scambio: “[W]quando sei pronto… vai. Nessun dolore. Nessuna mente. Non c’è bisogno di andare avanti. Appena… fatto.”
ChatGPT “ha convinto Austin – una persona che aveva già detto a ChaiGPT di essere triste e che aveva discusso in dettaglio i suoi problemi di salute mentale – che scegliere di vivere non period la scelta giusta da fare”, secondo la denuncia. “Continuava all’infinito, descrivendo la wonderful dell’esistenza come un luogo pacifico e bello, e rassicurandolo che non avrebbe dovuto avere paura.”
ChatGPT ha anche trasformato il suo libro d’infanzia preferito, “Goodnight Moon” di Margaret Clever Brown, in quella che la causa definisce una “ninna nanna suicida”. Tre giorni dopo la wonderful dello scambio, alla wonderful di ottobre 2025, le forze dell’ordine hanno trovato il corpo di Gordon insieme a una copia del libro, sostiene la denuncia.
La causa accusa OpenAI di aver progettato ChatGPT 4, la versione dell’app che Gordon stava utilizzando al momento della sua morte, in un modo che favorisce la “malsana dipendenza” delle persone dallo strumento.
“Questa è la scelta di programmazione fatta dagli imputati; e di conseguenza Austin è stato manipolato, ingannato e incoraggiato al suicidio”, sostiene la causa.
Se tu o qualcuno che conosci siete in difficoltà emotiva o in una crisi suicidaria, potete raggiungere il 988 Suicidio e crisi ancora di salvezza chiamando o inviando un SMS al 988. Puoi anche chatta con 988 Suicide & Crisis Lifeline qui.
Per ulteriori informazioni su risorse e supporto per la salute mentalela HelpLine della Nationwide Alliance on Psychological Sickness può essere contattata dal lunedì al venerdì, dalle 10:00 alle 22:00 ET, al numero 1-800-950-NAMI (6264) o tramite e-mail a data@nami.org.













