OpenAI ha iniziato a spingere fuori il suo tecnologia di previsione dell’età attraverso gli account shopper ChatGPT. In un submit di lunedì, la società ha affermato che per i minori di 18 anni che non hanno già comunicato a ChatGPT la propria età, il suo software program esaminerà il comportamento di una persona e altri segnali, come da quanto tempo esiste l’account e quando è attivo, per stimare l’età.
Se vieni identificato erroneamente come minorenne, puoi ricorrere alla tecnologia del servizio di verifica dell’identità Personaha detto OpenAI. Ciò richiede un selfie dal vivo e un documento d’identità rilasciato dal governo. Una pagina ChatGPT che ti porta direttamente alla verifica dell’età è disponibile.
Non perdere nessuno dei nostri contenuti tecnici imparziali e le recensioni di laboratorio. Aggiungi CNET come fonte Google preferita.
Il nuovo sistema ChatGPT, annunciato lo scorso settembre nell’ambito del più ampio modifiche per gli utenti più giovaniaggiunge più guardrail al Chatbot basato sull’intelligenza artificialefornendo quelle che OpenAI chiama “tutele per ridurre l’esposizione a contenuti sensibili o potenzialmente dannosi”.
In una pagina di supporto separata, l’azienda descrive in modo più dettagliato come funziona la previsione dell’età in ChatGPT e cosa filtra. Ciò embody violenza esplicita o sangue; raffigurazioni di autolesionismo; sfide virali “che potrebbero spingere a comportamenti rischiosi o dannosi”; giochi di ruolo a sfondo sessuale, romantico o violento; o contenuti che promuovono normal di bellezza estremi, diete poco salutari o physique shaming.
(Divulgazione: Ziff Davis, la società madre di CNET, in aprile ha intentato una causa contro il produttore di ChatGPT OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)
OpenAI e altre società con tecnologia AI sono finite sotto accusa e sono oggetto di molteplici trigger legali e indagini relative a morti di adolescenti chi erano interagire con i chatbot, incluso ChatGPT. Nell’ultimo anno, anche OpenAI ha annunciato l’aggiunta controlli parentali aggiuntivi alla piattaforma.
Verifica dell’età e le restrizioni di accesso basate sull’età sono diventate un tema in più esperienze on-line, guidate in parte dalle leggi proposte o emanate in vari paesi e stati degli Stati Uniti. All’inizio di questo mese è stata istituita la piattaforma di gioco Roblox controlli obbligatori dell’età. Una nuova legge in Australia impone lo spazzamento divieto sui social media per i bambini sotto i 16 anni.
Quanto bene funzionerà la previsione dell’età di ChatGPT?
Finora, non è chiaro quanto bene ChatGPT riuscirà a prevedere l’età delle persone tra così tanti utenti – circa 800 milioni di utenti attivi settimanali – e quanto velocemente migliorerà.
Più certa è la tecnologia di verifica dell’età, che ha avuto più tempo per maturare ed è generalmente accurata, afferma Jake Parker, direttore senior delle relazioni governative presso l’Università di Washington. Associazione dell’industria della sicurezza.
I moderni strumenti di riconoscimento facciale e di analisi facciale possono funzionare eccezionalmente bene se implementati correttamente, afferma Parker.
“Il governo degli Stati Uniti effettua una valutazione tecnica continua di tali tecnologie attraverso l’Istituto Nazionale di Scienza e Tecnologia Valutazione della tecnologia di riconoscimento facciale E Valutazione della tecnologia di analisi del volto programmi”, cube. “Questi programmi mostrano che almeno i primi 100 algoritmi sono più di Preciso al 99,5%. per la corrispondenza (verifica dell’identità), anche tra dati demografici, mentre le principali tecnologie di stima dell’età hanno un’accuratezza superiore al 95%.”
Parker ha affermato che è chiaro che sempre più piattaforme e servizi si stanno muovendo verso la verifica dell’età e la scansione biometrica per garantire un utilizzo adeguato all’età.
Non una soluzione completa
L’attenzione alla tecnologia per proteggere i giovani, tuttavia, non costituisce “una soluzione completa”, ha affermato Kristine Gloria, direttore operativo di Giovani futuriche lavora a stretto contatto con adolescenti ed educatori su programmi di imprenditorialità.
“Sappiamo che l’intelligenza artificiale generativa presenta sfide reali e le famiglie hanno bisogno di supporto per affrontarle”, afferma Gloria. “Tuttavia, un monitoraggio rigoroso ha i suoi limiti. Per andare davvero avanti, dobbiamo incoraggiare la sicurezza fin dalla progettazione, in cui le piattaforme danno priorità al benessere dei giovani insieme all’impegno.”
Gloria afferma che il giusto tipo di protezione per i bambini richiede trasparenza, responsabilità e impegno per l’alfabetizzazione digitale.
“Il nostro obiettivo dovrebbe essere quello di costruire ambienti in cui la sicurezza sia fondamentale, piuttosto che fare affidamento su soluzioni tecniche rapide o cerotti”, ha affermato.











