Home Tecnologia OpenAI è alla ricerca di un nuovo responsabile della preparazione

OpenAI è alla ricerca di un nuovo responsabile della preparazione

100
0

OpenAI sta cercando di assumere un nuovo dirigente responsabile dello studio dei rischi emergenti legati all’intelligenza artificiale in aree che vanno dalla sicurezza informatica alla salute mentale.

In un post su Xil CEO Sam Altman ha riconosciuto che i modelli di intelligenza artificiale stanno “iniziando a presentare alcune sfide reali”, incluso il “potenziale impatto dei modelli sulla salute mentale”, così come modelli che sono “così bravi nella sicurezza informatica che stanno iniziando a trovare vulnerabilità critiche”.

“Se vuoi aiutare il mondo a capire come dotare i difensori della sicurezza informatica di capacità all’avanguardia garantendo al tempo stesso che gli aggressori non possano usarli per fare danni, idealmente rendendo tutti i sistemi più sicuri, e allo stesso modo per come rilasciamo capacità biologiche e persino come acquisire fiducia nella sicurezza dei sistemi in esecuzione che possono auto-migliorarsi, per favore considera di candidarti”, ha scritto Altman.

OpenAI elenco per il ruolo di responsabile della preparazione descrive il lavoro come responsabile dell’attuazione del quadro di preparazione dell’azienda, “il nostro quadro che spiega l’approccio di OpenAI al monitoraggio e alla preparazione per le capacità di frontiera che creano nuovi rischi di gravi danni”.

La società ha annunciato per la prima volta la creazione di un workforce di preparazione nel 2023, affermando che sarebbe stato responsabile dello studio di potenziali “rischi catastrofici”, siano essi più immediati, come gli attacchi di phishing, o più speculativi, come le minacce nucleari.

Meno di un anno dopo, OpenAI ha riassegnato il capo della preparazione Aleksander Madry a un lavoro incentrato sul ragionamento basato sull’intelligenza artificiale. Anche altri dirigenti della sicurezza di OpenAI hanno lasciato l’azienda o assunto nuovi ruoli al di fuori della preparazione e della sicurezza.

La società ha inoltre recentemente aggiornato il suo quadro di preparazione, affermando che potrebbe “adattare” i suoi requisiti di sicurezza se un laboratorio di intelligenza artificiale concorrente rilasciasse un modello “advert alto rischio” senza protezioni simili.

Evento Techcrunch

San Francisco
|
13-15 ottobre 2026

Come ha accennato Altman nel suo put up, i chatbot con intelligenza artificiale generativa hanno dovuto affrontare un crescente controllo sul loro impatto sulla salute mentale. Recenti trigger legali sostengono che il ChatGPT di OpenAI abbia rafforzato le delusioni degli utenti, aumentato il loro isolamento sociale e addirittura portato alcuni al suicidio. (La società ha affermato che continua a lavorare per migliorare la capacità di ChatGPT di riconoscere i segni di disagio emotivo e di connettere gli utenti al supporto del mondo reale.)

fonte