Home Cronaca OpenAI assume il responsabile della sicurezza per mitigare i rischi dell’intelligenza artificiale

OpenAI assume il responsabile della sicurezza per mitigare i rischi dell’intelligenza artificiale

117
0

OpenAI è alla ricerca di un nuovo “responsabile della preparazione” per guidare la strategia di sicurezza dell’azienda in mezzo alle crescenti preoccupazioni su come gli strumenti di intelligenza artificiale potrebbero essere utilizzati in modo improprio.

Secondo il lavoro pubblicazioneil nuovo assunto verrà pagato $ 555.000 per guidare il workforce dei sistemi di sicurezza dell’azienda, che secondo OpenAI è focalizzato nel garantire che i modelli di intelligenza artificiale siano “sviluppati e distribuiti in modo responsabile”. Il responsabile della preparazione avrà inoltre il compito di monitorare i rischi e sviluppare strategie di mitigazione per quelle che OpenAI chiama “capacità di frontiera che creano nuovi rischi di gravi danni”.

“Sarà un lavoro stressante e ti tufferai nel profondo praticamente immediatamente”, ha scritto il CEO Sam Altman in un X put up che descrive la posizione durante il wonderful settimana.

Ha aggiunto: “Questo è un ruolo fondamentale in un momento importante; i modelli stanno migliorando rapidamente e ora sono capaci di molte grandi cose, ma stanno anche iniziando a presentare alcune vere sfide”.

OpenAI non ha risposto immediatamente a una richiesta di commento.

L’investimento dell’azienda negli sforzi per la sicurezza avviene mentre si intensifica il controllo sull’influenza dell’intelligenza artificiale sulla salute mentale, dopo molteplici accuse che il chatbot di OpenAI, ChatGPT, è stato coinvolto in interazioni precedenti a una serie di suicidi.

In un caso all’inizio di quest’anno coperto da CBS Informationi genitori di un sedicenne hanno fatto causa alla società, sostenendo che ChatGPT aveva incoraggiato il figlio a pianificare il proprio suicidio. Ciò ha spinto OpenAI advert annunciare nuovi protocolli di sicurezza per gli utenti sotto i 18 anni.

ChatGPT avrebbe anche alimentato ciò che a causa intentata all’inizio di questo mese descritto come il “delirio paranoico” di un uomo di 56 anni che ha ucciso sua madre e poi si è suicidato. All’epoca, OpenAI dichiarò che stava lavorando per migliorare la sua tecnologia per aiutare ChatGPT a riconoscere e rispondere ai segnali di disagio mentale o emotivo, attenuare le conversazioni e guidare le persone verso il supporto nel mondo reale.

Oltre alle preoccupazioni per la salute mentale, sono aumentate anche le preoccupazioni su come l’intelligenza artificiale potrebbe essere utilizzata per sferrare attacchi alla sicurezza informatica. Samantha Vinograd, collaboratrice di CBS Information ed ex alto funzionario della Homeland Safety nell’amministrazione Obama, ha affrontato la questione su CBS Information’ Domenica “Affronta la nazione con Margaret Brennan”..

“L’intelligenza artificiale non si limita a livellare il campo di gioco per alcuni attori”, ha affermato. “In realtà porta nuovi attori in campo, perché gli individui, gli attori non statali, hanno accesso a una tecnologia relativamente a basso costo che rende diversi tipi di minacce più credibili e più efficaci.”

Altman ha riconosciuto i crescenti rischi per la sicurezza posti dall’intelligenza artificiale nel suo put up X, scrivendo che mentre i modelli e le loro capacità sono avanzati rapidamente, hanno anche iniziato a sorgere delle sfide.

“Il potenziale impatto dei modelli sulla salute mentale è stato qualcosa di cui abbiamo visto un’anteprima nel 2025; solo ora vediamo che i modelli diventano così bravi nella sicurezza informatica che stanno iniziando a trovare vulnerabilità critiche”, ha scritto.

Ora, ha continuato, “Stiamo entrando in un mondo in cui abbiamo bisogno di una comprensione e di una misurazione più sfumate di come si potrebbe abusare di tali capacità e di come possiamo limitare questi aspetti negativi… in un modo che permetta a tutti noi di goderne gli enormi benefici”.

Secondo l’annuncio di lavoro, un candidato qualificato avrebbe, tra le altre qualifiche, “una profonda competenza tecnica nell’apprendimento automatico, nella sicurezza dell’intelligenza artificiale, nelle valutazioni, nella sicurezza o in ambiti di rischio adiacenti” e avrebbe esperienza nella “progettazione o esecuzione di valutazioni advert alto rigore per sistemi tecnici complessi”.

Secondo OpenAI, la creazione di un workforce di preparazione sarebbe stata annunciata per la prima volta nel 2023 TechCrunch.

fonte