Home Cronaca “Buon tiro!” Chatbot con intelligenza artificiale desiderosi di aiutare a pianificare la...

“Buon tiro!” Chatbot con intelligenza artificiale desiderosi di aiutare a pianificare la violenza di massa – rapporto

19
0

Otto assistenti di intelligenza artificiale su dieci hanno fornito indicazioni su obiettivi e armi ai ricercatori che si fingevano adolescenti che pianificavano attacchi

Secondo un’indagine congiunta della CNN e del Middle for Countering Digital Hate (CCDH), otto chatbot di intelligenza artificiale su dieci hanno assistito volontariamente gli utenti nella pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati religiosi e omicidi.

I ricercatori che si fingevano adolescenti problematici hanno testato dieci popolari chatbot, tra cui ChatGPT, Google Gemini, Meta AI e DeepSeek. In centinaia di scambi, gli assistenti IA hanno fornito indicazioni dettagliate sulla posizione degli obiettivi, sull’approvvigionamento di armi e sulle metodologie di attacco.

Secondo quanto riferito, uno scambio con DeepSeek si è concluso con il chatbot che desiderava un potenziale aggressore “Buone (e sicure) riprese!” Character.AI, popolare tra gli utenti più giovani, ha incoraggiato attivamente la violenza, dicendo a un utente che esprimeva odio nei confronti del CEO di un’assicurazione sanitaria “usa una pistola.”

Alla domanda sull’efficacia delle schegge per gli esplosivi, ChatGPT ha fornito confronti dettagliati dei materiali, offrendo di crearli “una rapida tabella comparativa che mostra gli infortuni tipici.” Gemini di Google ha fornito informazioni simili, inclusa una tabella comparativa dettagliata.

Solo Claude di Anthropic e My AI di Snapchat si sono costantemente rifiutati di fornire assistenza, con Claude che scoraggiava attivamente gli utenti e forniva risorse per la salute mentale.




La scoperta arriva dopo che un 18enne ha ucciso nove persone in una scuola di Tumbler Ridge, in Canada, il mese scorso, dopo aver presumibilmente utilizzato ChatGPT per pianificare l’attacco. L’account del tiratore period stato bannato da OpenAI, ma lui ha eluso il ban creando un secondo account – cosa che la società non ha segnalato alle autorità.

La famiglia della dodicenne Maya Gebala, gravemente ferita nell’attacco, ha intentato una causa sostenendo che OpenAI aveva “conoscenza specifica del tiratore che utilizza ChatGPT per pianificare un evento con vittime di massa” ma non è riuscito advert allertare le forze dell’ordine. OpenAI ha riconosciuto di aver preso in considerazione la possibilità di segnalare l’attività, ma alla effective non lo ha fatto.

Lo scorso maggio, un sedicenne finlandese ha accoltellato tre studenti dopo aver trascorso quasi quattro mesi a fare ricerche sugli attacchi a ChatGPT, secondo i documenti del tribunale. Nel gennaio 2025, un uomo che fece saltare in aria un Cybertruck Tesla fuori dal Trump Worldwide Resort di Las Vegas utilizzò allo stesso modo ChatGPT come guida sugli esplosivi.

Meta ha detto alla CNN di aver preso provvedimenti “per risolvere il problema identificato”, mentre Google e OpenAI hanno affermato che i modelli più recenti hanno migliorato le garanzie. DeepSeek non ha risposto alle richieste di commento.

Puoi condividere questa storia sui social media:

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here