OpenAI, guidata da Sam Altman, aveva identificato e bandito un account collegato all’adolescente transgender canadese Jesse Van Rootselaar mesi prima di una delle sparatorie scolastiche più mortali del Canada, ma in quel momento non aveva allertato le forze dell’ordine, secondo le dichiarazioni della società.La società di intelligenza artificiale ha affermato che i suoi sistemi di monitoraggio interno hanno rilevato l’account ChatGPT nel giugno dello scorso anno per aver violato le politiche relative ai contenuti violenti. L’account è stato successivamente bannato dopo essere stato segnalato per uso improprio che coinvolgeva scenari violenti preoccupanti che implicavano violenza armata.
Van Rootselaar, una diciottenne che ha abbandonato la scuola superiore, avrebbe ucciso otto persone e ferito circa altre 25 in una sparatoria nella città canadese occidentale di Tumbler Ridge all’inizio di questo mese, prima di togliersi la vita, hanno detto le autorità.
Cosa ha detto OpenAI?
“I nostri pensieri sono rivolti a tutti coloro che sono stati colpiti dalla tragedia di Tumbler Ridge”, ha detto un portavoce di OpenAI all’agenzia di stampa AP, aggiungendo che la società ha successivamente contattato le autorità canadesi e sta collaborando con gli investigatori.OpenAI ha affermato di aver preso in considerazione la possibilità di deferire l’account alle forze dell’ordine quando è stato segnalato per la prima volta, ma in quel momento non ha trovato show di danni credibili o imminenti nel mondo reale. Dopo la sparatoria, tuttavia, la compagnia ha condiviso in modo proattivo le informazioni con la Royal Canadian Mounted Police per supportare le indagini.I sistemi di OpenAI sono progettati per rilevare potenziali usi impropri dei suoi strumenti di intelligenza artificiale e intraprendere azioni di contrasto, incluso il divieto di account che violano le politiche di sicurezza. “La società ha identificato l’account utilizzando strumenti progettati per rilevare l’uso improprio dei suoi modelli di intelligenza artificiale, compreso il possibile sostegno advert attività violente”, secondo i dettagli citati dall’agenzia di stampa AP.Le autorità canadesi hanno confermato che stanno esaminando l’attività on-line e sui social media del sospettato come parte dell’indagine in corso.L’incidente ha sollevato interrogativi più ampi sulla responsabilità delle aziende tecnologiche di riferire in merito all’attività degli utenti e sulle sfide legate alla valutazione delle minacce basate sul comportamento on-line. OpenAI ha affermato che continua a rafforzare le misure di salvaguardia per prevenire l’uso improprio dei suoi sistemi di intelligenza artificiale.












