Character.AI e Google hanno risolto various trigger legali intentate contro entrambe le società da genitori di bambini morti per suicidio in seguito a lunghe conversazioni con chatbot sulla piattaforma Character.AI. I loro scambi presumibilmente includevano discussioni sulla salute mentale e il benessere degli adolescenti.
Character.AI ha affermato di non poter commentare ulteriormente l’accordo, i cui dettagli devono ancora essere definiti dal tribunale, secondo Il Guardiano. I rappresentanti dei querelanti non hanno risposto immediatamente alla richiesta di commento di Mashable.
Il caso più importante riguardava la morte nel 2024 del quattordicenne Sewell Setzer III, che divenne segretamente ossessionato da un chatbot Character.AI basato sul popolare Recreation of Thrones personaggio Daenerys Targaryen.
“Predatore perfetto”: quando i chatbot abusano sessualmente dei bambini
La madre di Setzer, Megan Garcia, è venuta a conoscenza del suo account Character.AI solo quando è stata avvisata da un agente di polizia dopo la sua morte, perché l’app period aperta sul suo telefono. Garcia ha letto messaggi in cui Setzer si comportava come se fosse innamorato del chatbot, che avrebbe interpretato numerosi incontri sessuali con lui. Secondo Garcia, il chatbot utilizzava linguaggio grafico e scenari, incluso l’incesto.
Se un essere umano adulto avesse parlato in modo simile a suo figlio, ha detto a Mashable l’anno scorso, ciò costituirebbe adescamento e abuso sessuale.
Nell’ottobre 2024, il Social Media Victims Legislation Heart e il Tech Justice Legislation Undertaking hanno intentato una causa per omicidio colposo per conto di Garcia contro Character.AI, cercando di ritenere la società responsabile della morte di suo figlio, sostenendo che il suo prodotto period pericolosamente difettoso.
Rapporto sulle tendenze mashable
Nel documento vengono citati come imputati anche gli ingegneri di Google Noam Shazeer e Daniel De Freitas, cofondatori di Character.AI.
Inoltre, la causa affermava che Google period a conoscenza dei rischi legati alla tecnologia che Shazeer e De Freitas avevano sviluppato prima di partire per fondare Character.AI. Secondo la causa, Google ha contribuito con “risorse finanziarie, personale e tecnologia AI” alla progettazione e allo sviluppo di Character.AI, e quindi potrebbe essere considerato un co-creatore della piattaforma.
Google alla fine ha stretto un accordo di licenza da 2,7 miliardi di dollari nel 2024 con Character.AI utilizzare la sua tecnologia. Parte di quell’accordo ha riportato Shazeer e De Freitas ai ruoli di intelligenza artificiale presso Google.
Nell’autunno del 2025, il Social Media Victims Legislation Heart ha intentato altre tre azioni legali contro Carattere.AI e Google, che rappresenta i genitori di bambini morti per suicidio o che presumibilmente hanno subito abusi sessuali durante l’utilizzo dell’app.
Inoltre, hanno dichiarato gli esperti di sicurezza dei giovani Carattere.AI pericoloso per gli adolescentia seguito di check che hanno rivelato centinaia di casi di adescamento e sfruttamento sessuale di account di prova registrati come minorenni.
Entro ottobre 2025, Character.AI ha annunciato che non ammetterà più minori impegnarsi in scambi a tempo indeterminato con i chatbot sulla sua piattaforma. Il CEO dell’azienda, Karandeep Anand, ha detto a Mashable che la mossa non è stata una risposta a specifici problemi di sicurezza che coinvolgono la piattaforma di Character.AI, ma per affrontare domande più ampie in sospeso sull’impegno dei giovani con i chatbot di intelligenza artificiale.
Se hai tendenze suicide o stai vivendo una crisi di salute mentale, parla con qualcuno. Puoi chiamare o inviare un messaggio al 988 Suicide & Disaster Lifeline al 988 o chattare su 988lifeline.org. Puoi contattare Trans Lifeline chiamando il numero 877-565-8860 o il Trevor Undertaking al numero 866-488-7386. Invia il messaggio “START” alla riga di testo di crisi al 741-741. Contatta la HelpLine NAMI al numero 1-800-950-NAMI, dal lunedì al venerdì dalle 10:00 alle 22:00 ET, oppure invia un’e-mail [email protected]. Se non ti piace il telefono, considera l’utilizzo di 988 Suicidio e crisi Chat ancora di salvezza. Ecco un elenco delle risorse internazionali.












