Home Tecnologia LLM Brainrot è qui: Grokipedia sta iniziando a comparire nelle citazioni ChatGPT

LLM Brainrot è qui: Grokipedia sta iniziando a comparire nelle citazioni ChatGPT

9
0

La controversa Grokipedia di Elon Musk ha iniziato a insinuarsi nelle risposte di ChatGPT e di altri chatbot come fonte citata, dandoci un’thought dell’Web morto che è proprio dietro l’angolo.

Lo riferisce il Guardian che l’ultimo modello di punta di OpenAI, GPT-5.2, ha citato Grokipedia nove volte in risposta a più di una dozzina di domande. Tali domande spaziavano da argomenti come le strutture politiche in Iran allo storico britannico Sir Richard Evans. Gizmodo è stato anche in grado di produrre risposte da ChatGPT che ha citato Grokipedia quando ha effettuato question simili.

Musk ha lanciato Grokipedia lo scorso ottobre come alternativa a Wikipedia, in cui gli esseri umani vengono esclusi dal ciclo di modifying. In un put up di settembre, Musk ha detto che Grokipedia sarebbe “un enorme miglioramento rispetto a Wikipedia.” Ha anche ripetutamente deriso Wikipedia definendola “Wokipedia” e lamentandosi del fatto che non esiste un’alternativa importante allineata alle opinioni di destra.

La sua soluzione period creare una nuova piattaforma con articoli generati dall’intelligenza artificiale. Gran parte del contenuto di Grokipedia sembra essere adattato da Wikipedia, ma con un’inquadratura che spesso favorisce le opinioni politiche di Musk.

Advert esempio, Grokipedia descrive gli eventi del 6 gennaio 2021 come “rivolta” al Campidoglio degli Stati Uniti, che ha visto “i sostenitori del presidente uscente Donald Trump protestare contro la certificazione dei risultati delle elezioni presidenziali del 2020”. Wikipedia, al contrario, lo definisce un “attacco” portato avanti da una folla di sostenitori di Trump in quello che viene descritto come un tentativo di auto-colpo di stato.

Inoltre, Grokipedia etichetta Britain First come “partito politico britannico di estrema destra che sostiene la sovranità nazionale,” mentre Wikipedia lo descrive come un partito politico neofascista e gruppo di odio.

Grokipedia assume anche un’inquadratura più morbida per quanto riguarda il cosiddetto Grande teoria della sostituzioneche sostiene che i bianchi vengono sistematicamente sostituiti da uno sforzo riproduttivo concertato perpetuato da altre razze. Wikipedia etichetta esplicitamente l’thought a teoria del complotto. Musk è un schietto sostenitore della cospirazione e commenta regolarmente il “genocidio bianco”.

In generale, Grokipedia è progettata per sfornare informazioni non verificate su scala industriale senza che gli editori umani discutano sulla qualità delle informazioni fornite.

Ora, Grokipedia sembra penetrare insidiosamente in altri chatbot. Il Guardian ha osservato che ChatGPT non ha citato Grokipedia quando gli è stato chiesto di argomenti in cui il sito period noto per promuovere informazioni fuorvianti. Invece, Grokipedia è apparsa solo nelle risposte advert argomenti più oscuri.

Il problema non sembra essere isolato da ChatGPT. Alcuni utenti attivi sociale media hanno riferito che Claude di Anthropic ha fatto riferimento anche a Grokipedia nelle sue risposte.

OpenAI e Anthropic, la società dietro Claude, non hanno risposto immediatamente alle richieste di commento di Gizmodo. Tuttavia, OpenAI ha dichiarato al Guardian che il suo modello “mira a attingere da un’ampia gamma di fonti e punti di vista disponibili al pubblico”.

“Applichiamo filtri di sicurezza per ridurre il rischio che emergano collegamenti associati a danni di elevata gravità e ChatGPT mostra chiaramente quali fonti hanno informato una risposta attraverso citazioni”, ha detto al Guardian un portavoce di OpenAI.

I ricercatori hanno già messo in guardia contro gli autori malintenzionati che inondano Web con contenuti generati dall’intelligenza artificiale nel tentativo di influenzare modelli linguistici di grandi dimensioni in un processo a volte indicato come Preparazione LLM. Ma i rischi vanno oltre le campagne di disinformazione intenzionali.

Non è del tutto chiaro se gli utenti umani visitino attivamente Grokipedia intenzionalmente. Alcune settimane dopo il lancio del sito, lo scorso anno, l’aggregatore di dati Similarweb ha riferito che Grokipedia era caduto da un massimo di 460.000 visite internet negli Stati Uniti il ​​28 ottobre a circa 30.000 visitatori giornalieri. Wikipedia accumula regolarmente centinaia di milioni di pagine visualizzate al giorno. Molti hanno ipotizzato che Grokipedia non sia comunque realmente per gli esseri umani; esiste per avvelenare il pozzo per i futuri LLM.

Affidarsi eccessivamente ai contenuti generati dall’intelligenza artificiale può anche portare a quello che i ricercatori chiamano collasso del modello. Un 2024 studio hanno scoperto che quando i modelli linguistici di grandi dimensioni vengono sempre più addestrati sui dati prodotti da altri sistemi di intelligenza artificiale, la loro qualità complessiva peggiora nel tempo.

“Nella fase iniziale del collasso del modello, i primi modelli perdono varianza, perdendo prestazioni sui dati di minoranza”, disse all’epoca a Gizmodo il ricercatore Ilia Shumailov. “Nella fase avanzata del collasso del modello, [the] il modello si rompe completamente. Mentre i modelli continuano advert allenarsi su testi meno accurati e meno pertinenti che hanno generato da soli, quel ciclo fa sì che gli output si degradino e alla fantastic smettano di avere molto senso.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here