Home Tecnologia OpenAI sta lavorando su una rete di social media che potrebbe richiedere...

OpenAI sta lavorando su una rete di social media che potrebbe richiedere scansioni oculari inquietanti: rapporto

117
0

Secondo quanto riferito, OpenAI, la società meglio conosciuta per le sue applicazioni AI come ChatGPT e Sora, sta lavorando su una rete di social media progettata per essere priva di bot AI. Il problema è che gli utenti potrebbero dover scansionare le loro iridi per l’accesso.

Lo ha riferito Forbes Mercoledì, citando fonti anonime che hanno familiarità con il progetto, la piattaforma è ancora nelle fasi iniziali ed è stata sviluppata da un piccolo group di meno di 10 persone. L’obiettivo è creare una piattaforma sociale per soli umani che richieda agli utenti di dimostrare di essere persone reali. Per fare ciò, secondo quanto riferito, il group sta valutando la possibilità di implementare la verifica dell’identità tramite Face ID di Apple o tramite Orb, un dispositivo di scansione oculare orwelliano realizzato da un’azienda che è stata opportunamente fondata anche dal CEO di OpenAI Sam Altman.

Questa nuova piattaforma di social media sembra essere l’ultimo tentativo di Altman di risolvere un problema che lui stesso e i suoi colleghi “architetti dell’intelligenza artificiale” hanno contribuito a creare.

Altman ha provato per la prima volta advert affrontare il problema dei bot nel 2019, quando ha co-fondato Instruments for Humanity, la società dietro l’app World, precedentemente nota come Worldcoin. Il progetto mirava a creare un ID globale e una valuta basata su criptovaluta che sarebbe stata disponibile solo per gli esseri umani verificati. Da allora il progetto si è evoluto in una “tremendous app” chiamata World con funzionalità di messaggistica e pagamento. Ma la verifica richiede che gli esseri umani si facciano scansionare gli occhi dal dispositivo Orb delle dimensioni di un pallone da calcio in cambio di un codice ID digitale univoco memorizzato sul proprio telefono. In teoria, ciò potrebbe aiutare a filtrare i fastidiosi bot di intelligenza artificiale provenienti da giochi, piattaforme di social media o persino transazioni finanziarie come la vendita di biglietti per concerti.

Finora, circa 17 milioni di persone sono state verificate utilizzando l’Orb, ben lontano dall’obiettivo dichiarato dell’azienda di raggiungere un miliardo di utenti. Parte del problema dell’adozione è logistico. Le persone devono recarsi fisicamente in uno dei 674 posizioni di verifica in tutto il mondo per farsi scansionare gli occhi. Negli Stati Uniti esistono solo 32 località di questo tipo, la maggior parte delle quali in Florida. Più in generale, l’thought di farsi scansionare gli occhi da un’azienda fondata da una delle determine più controverse della Silicon Valley non è facile da vendere.

Non sorprende che diversi paesi lo abbiano già fatto temporaneamente vietate o avviate indagini nella tecnologia biometrica dell’azienda, citando preoccupazioni sulla privateness e sulla sicurezza dei dati.

Ora, sembra che quella tecnologia potrebbe farsi strada verso una nuova rete di social media. Fonti hanno detto a Forbes che la nuova piattaforma social consentirà agli utenti di creare e condividere contenuti generati dall’intelligenza artificiale come immagini e video. E mentre OpenAI ha dimostrato di poter creare app popolari, non è affatto chiaro se un nuovo social community possa allontanare in modo significativo le persone dalle piattaforme esistenti, soprattutto quando si aggiunge la verifica biometrica come barriera.

Il solo ChatGPT ora raggiunge all’incirca 700 milioni di utenti settimanalie l’app video AI dell’azienda ha avuto successo un milione di download entro cinque giorni dal suo lancio. In confronto, Meta ha riferito a settembre che le sue piattaforme, che includono Fb, WhatsApp e Instagram, ora raggiungono circa 3,5 miliardi di utenti attivi giornalieri combinato. Tutto ciò consente già agli utenti di generare e condividere contenuti generati dall’intelligenza artificiale.

OpenAI sembra sperare che la sua promessa di un ambiente privo di bot sia sufficiente advert attirare gli utenti.

Lo stesso Altman ha ripetutamente espresso la sua frustrazione nei confronti dei bot on-line. A settembre, Altman ha risposto a un publish che mostrava commenti nel subreddit ClaudeCode in cui elogiavano l’agente di codifica Codex di OpenAI. “Ho avuto un’esperienza stranissima leggendo questo: presumo che sia tutto falso/bot, anche se in questo caso so che la crescita del codex è davvero forte e la tendenza qui è reale”, ha scritto in un inviare su X.

Ha continuato a teorizzare il motivo per cui ciò potrebbe accadere, indicando le persone che colgono “stranezze del linguaggio LLM” e anche “probabilmente alcuni robotic”. “Ma l’effetto finale è che in qualche modo l’intelligenza artificiale di Twitter/AI reddit sembra molto falsa in un modo in cui non lo period un anno o due fa.” Altman ha scritto.

Pochi giorni prima, Altman aveva scritto in un altro inviare che non aveva mai preso sul serio la teoria della morte di Web, “ma sembra che ora ci siano davvero molti account Twitter gestiti da LLM”.

La teoria della Web morta sostiene che, a partire dal 2016, gran parte di Web è stata dominata da bot e contenuti generati dall’intelligenza artificiale piuttosto che da attività umane reali. Ma forse c’è qualcun altro oltre advert Altman di cui ci si può fidare per trovare una soluzione.

fonte