“Sarà un lavoro stressante e ti tufferai nel profondo praticamente immediatamente”, Sam Altman, CEO di OpenAI ha scritto su X nel suo annuncio del lavoro di “responsabile della preparazione” presso OpenAI sabato.
In cambio di $ 555.000 all’annoSecondo l’annuncio di lavoro di OpenAI, il responsabile della preparazione dovrebbe “espandere, rafforzare e guidare” il programma di preparazione esistente all’interno del dipartimento dei sistemi di sicurezza di OpenAI. Questo lato di OpenAI crea le garanzie che, in teoria, fanno sì che i modelli di OpenAI “si comportino come previsto nelle impostazioni del mondo reale”.
Ma ehi, aspetta un attimo, stanno dicendo che i modelli di OpenAI si comportano come previsto nelle impostazioni del mondo reale adesso? Nel 2025, ChatGPT ha continuato ad avere allucinazioni nei documenti legaliattratto centinaia di reclami della FTCcomprese le lamentele secondo cui stava innescando crisi di salute mentale negli utenti, ed evidentemente ha trasformato le foto di donne vestite in deepfake di bikini. Sora doveva avere la capacità di realizzare video di personaggi come Martin Luther King, Jr. revocato perché gli utenti abusavano del privilegio di creare personaggi storici venerati dire praticamente qualsiasi cosa.
Quando i casi relativi a problemi con i prodotti OpenAI arrivano in tribunale, come nel caso della causa per omicidio colposo intentata dalla famiglia di Adam Raine, che, si presume, abbia ricevuto consigli e incoraggiamento da ChatGPT che lo hanno portato alla morte, c’è una argomentazione legale da sostenere secondo cui gli utenti stavano abusando dei prodotti OpenAI. A novembre, un documento degli avvocati di OpenAI citava le violazioni delle regole come potenziale causa della morte di Raine.
Che si accetti o meno l’argomento dell’abuso, è chiaramente una parte importante del modo in cui OpenAI dà un senso a ciò che i suoi prodotti stanno facendo nella società. Altman riconosce nel suo submit X sul lavoro di responsabile della preparazione che i modelli dell’azienda possono avere un impatto sulla salute mentale delle persone e possono individuare vulnerabilità nella sicurezza. Stiamo, cube, “entrando in un mondo in cui abbiamo bisogno di una comprensione e misurazione più sfumata di come si potrebbe abusare di tali capacità e di come possiamo limitare questi svantaggi sia nei nostri prodotti che nel mondo, in un modo che permetta a tutti noi di godere degli enormi benefici”.
Dopotutto, se l’obiettivo fosse semplicemente quello di non causare alcun danno, il modo più rapido per assicurarselo sarebbe semplicemente rimuovere del tutto ChatGPT e Sora dal mercato.
Il responsabile della preparazione di OpenAI, quindi, è qualcuno che infilerà questo in the past e “[o]wn della strategia di preparazione end-to-end di OpenAI”, capire come valutare i modelli per le abilità indesiderate e progettare modi per mitigarle. L’annuncio afferma che questa persona dovrà “evolvere il quadro di preparazione man mano che emergono nuovi rischi, capacità o aspettative esterne”. Ciò può solo significare scoprire nuovi potenziali modi in cui i prodotti OpenAI Potrebbe essere in grado di danneggiare le persone o la società e inventare la regola per consentire l’esistenza dei prodotti, dimostrando, presumibilmente, che i rischi sono stati attenuati abbastanza da far sì che OpenAI non sia legalmente responsabile per gli apparentemente inevitabili “svantaggi” futuri.
Sarebbe già abbastanza brutto dover fare tutto questo per un’azienda che sta a galla, ma OpenAI deve adottare misure drastiche per generare entrate e rilasciare prodotti all’avanguardia in fretta. In un’intervista il mese scorso, Altman fortemente implicito che avrebbe portato i ricavi dell’azienda da dove sono ora – apparentemente qualcosa a nord di 13 miliardi di dollari all’anno – a 100 miliardi di dollari in meno di due anni. Altman ha affermato che “il enterprise dei dispositivi di consumo della sua azienda sarà una cosa significativa e importante” e che “l’intelligenza artificiale in grado di automatizzare la scienza creerà un enorme valore”.
Quindi, se desideri supervisionare la “progettazione di mitigazione” nelle nuove versioni dei prodotti esistenti di OpenAI, insieme a nuovi gadget fisici e piattaforme che non esistono ancora, ma che dovrebbero fare cose come “automatizzare la scienza”, il tutto mentre il CEO ti sta col fiato sul collo sulla necessità di fare circa lo stesso ammontare di entrate annuali di Walt Disney l’anno dopo, divertiti a essere il responsabile della preparazione presso OpenAI. Cerca di non rovinare il mondo intero con il tuo nuovo lavoro.












