Home Tecnologia Google Analysis suggerisce che modelli di intelligenza artificiale come DeepSeek mostrano modelli...

Google Analysis suggerisce che modelli di intelligenza artificiale come DeepSeek mostrano modelli di intelligenza collettiva

61
0

Si scopre che quando i modelli di intelligenza artificiale più intelligenti “pensano”, potrebbero effettivamente ospitare un acceso dibattito interno. Un affascinante nuovo studio co-autore di ricercatori di Google ha gettato una chiave nel modo in cui tradizionalmente comprendiamo l’intelligenza artificiale. Ciò suggerisce che i modelli di ragionamento avanzati – in particolare DeepSeek-R1 e QwQ-32B di Alibaba – non si limitano a elaborare numeri in una linea retta e logica. Invece, sembrano comportarsi in modo sorprendente come un gruppo di umani che cercano di risolvere insieme un puzzle.

L’articolo, pubblicato su arXiv con il titolo evocativo Reasoning Fashions Generate Societies of Thought, presuppone che questi modelli non si limitino a calcolare; simulano implicitamente un’interazione “multi-agente”. Immagina una sala riunioni piena di esperti che discutono idee, sfidano i presupposti degli altri e esaminano un problema da numerous angolazioni prima di concordare finalmente la risposta migliore. Questo è essenzialmente ciò che accade all’interno del codice. I ricercatori hanno scoperto che questi modelli mostrano “diversità di prospettiva”, nel senso che generano punti di vista contrastanti e lavorano per risolverli internamente, proprio come un crew di colleghi che discute una strategia per trovare il miglior percorso da seguire.

Per anni, il presupposto dominante nella Silicon Valley è stato che rendere l’intelligenza artificiale più intelligente fosse semplicemente una questione di renderla più grande

Fornendogli più dati e impiegando più potenza di calcolo per risolvere il problema. Ma questa ricerca capovolge completamente il copione. Ciò suggerisce che la struttura del processo di pensiero conta tanto quanto la scala.

Questi modelli sono efficaci perché organizzano i propri processi interni per consentire “cambiamenti di prospettiva”. È come avere un avvocato del diavolo incorporato che costringe l’intelligenza artificiale a verificare il proprio lavoro, porre domande chiarificatrici ed esplorare various prima di dare una risposta.

Per gli utenti di tutti i giorni, questo cambiamento è enorme

Abbiamo tutti sperimentato l’intelligenza artificiale che fornisce risposte piatte, sicure, ma alla high-quality sbagliate. Un modello che opera come una “società” ha meno probabilità di commettere questi errori perché ha già messo alla prova la propria logica. Ciò significa che la prossima generazione di strumenti non sarà solo più veloce; saranno più sfumati, più bravi a gestire domande ambigue e probabilmente più “umani” nel modo in cui affrontano problemi complessi e confusi. Potrebbe anche aiutare a risolvere il problema dei pregiudizi: se l’intelligenza artificiale considera più punti di vista internamente, è meno probabile che rimanga bloccata in un unico modo di pensare imperfetto.

In definitiva, questo ci allontana dall’thought dell’intelligenza artificiale come semplice calcolatore glorificato e verso un futuro in cui i sistemi sono progettati con diversità interna organizzata. Se le scoperte di Google sono vere, il futuro dell’intelligenza artificiale non riguarda solo la costruzione di un cervello più grande, ma anche la creazione di un crew migliore e più collaborativo all’interno della macchina. Il concetto di “intelligenza collettiva” non riguarda più solo la biologia; potrebbe essere il progetto per il prossimo grande salto tecnologico.

fonte