Home Tecnologia OpenAI chiede agli appaltatori di caricare il lavoro di lavori precedenti per...

OpenAI chiede agli appaltatori di caricare il lavoro di lavori precedenti per valutare le prestazioni degli agenti AI

95
0

OpenAI sta chiedendo appaltatori terzi di caricare incarichi e compiti reali dai loro posti di lavoro attuali o precedenti in modo che possano utilizzare i dati per valutare le prestazioni dei suoi modelli di intelligenza artificiale di prossima generazione, secondo i report di OpenAI e della società di dati di formazione Handshake AI ottenuti da WIRED.

Il progetto sembra far parte degli sforzi di OpenAI per stabilire una base umana per diversi compiti che possa poi essere confrontata con i modelli di intelligenza artificiale. A settembre, l’azienda ha lanciato un nuovo valutazione processo per misurare le prestazioni dei suoi modelli di intelligenza artificiale rispetto a professionisti umani in una varietà di settori. OpenAI afferma che questo è un indicatore chiave dei suoi progressi verso il raggiungimento dell’AGI, ovvero un sistema di intelligenza artificiale che surclassa gli esseri umani nei compiti economicamente più importanti.

“Abbiamo assunto persone di various professioni per aiutare a raccogliere attività del mondo reale modellate su quelle che hai svolto nei tuoi lavori a tempo pieno, in modo da poter misurare il rendimento dei modelli di intelligenza artificiale su tali attività”, si legge in un documento riservato di OpenAI. “Prendi pezzi di lavoro a lungo termine o complessi (ore o giorni+) che hai svolto nella tua professione e trasformali in un compito.”

OpenAI chiede agli appaltatori di descrivere le attività che hanno svolto nel loro lavoro attuale o in passato e di caricare esempi reali di lavoro svolto, secondo una presentazione OpenAI sul progetto vista da WIRED. Ciascuno degli esempi dovrebbe essere “un output concreto (non un riepilogo del file, ma il file vero e proprio), advert esempio un documento Phrase, PDF, Powerpoint, Excel, immagine, repository”, nota la presentazione. OpenAI afferma che le persone possono anche condividere esempi di lavoro inventati creati per dimostrare come risponderebbero realisticamente in scenari specifici.

OpenAI e Handshake AI hanno rifiutato di commentare.

Le attività del mondo reale hanno due componenti, secondo la presentazione di OpenAI. C’è la richiesta di attività (ciò che il supervisor o il collega di una persona le ha detto di fare) e il risultato finale dell’attività (il lavoro effettivo prodotto in risposta a story richiesta). L’azienda sottolinea più volte nelle istruzioni che gli esempi condivisi dagli appaltatori dovrebbero riflettere il “lavoro reale sul posto di lavoro” che la persona svolge “In realtà Fatto.”

Un esempio nella presentazione OpenAI delinea un compito di un “Senior Way of life Supervisor presso una società di concierge di lusso per individui con un patrimonio netto molto elevato”. L’obiettivo è “Preparare una breve bozza PDF di 2 pagine di una panoramica del viaggio in yacht di 7 giorni alle Bahamas per una famiglia che viaggerà lì per la prima volta”. Embody ulteriori dettagli sugli interessi della famiglia e su come dovrebbe essere l’itinerario. Il “risultato finale di un essere umano esperto” mostra quindi ciò che l’appaltatore in questo caso caricherebbe: un vero itinerario alle Bahamas creato per un cliente.

OpenAI ordina agli appaltatori di eliminare la proprietà intellettuale aziendale e le informazioni di identificazione personale dai file di lavoro che caricano. In una sezione denominata “Promemoria importanti”, OpenAI cube ai lavoratori di “Rimuovere o rendere anonimi qualsiasi: informazioni personali, dati proprietari o riservati, informazioni materiali non pubbliche (advert esempio, strategia interna, dettagli del prodotto non rilasciati)”.

Uno dei file visualizzati dal documento WIRED menziona uno strumento ChatGPT chiamato “Scrub da superstar” che fornisce consigli su come eliminare le informazioni riservate.

Evan Brown, un avvocato specializzato in proprietà intellettuale presso Neal & McDevitt, afferma a WIRED che i laboratori di intelligenza artificiale che ricevono informazioni riservate da appaltatori su questa scala potrebbero essere soggetti a denunce di appropriazione indebita di segreti commerciali. Gli appaltatori che offrono documenti dei loro precedenti luoghi di lavoro a un’azienda di intelligenza artificiale, anche se eliminati, potrebbero correre il rischio di violare gli accordi di non divulgazione dei loro precedenti datori di lavoro o di esporre segreti commerciali.

“Il laboratorio di intelligenza artificiale ripone molta fiducia nei suoi appaltatori per decidere cosa è e cosa non è riservato”, afferma Brown. “Se si lasciano sfuggire qualcosa, i laboratori di intelligenza artificiale si stanno davvero prendendo il tempo per determinare cosa è e cosa non è un segreto commerciale? Mi sembra che il laboratorio di intelligenza artificiale si stia mettendo a grave rischio.”

fonte