Home Tecnologia L’intelligenza artificiale non sta diventando più intelligente, sta diventando sempre più assetata...

L’intelligenza artificiale non sta diventando più intelligente, sta diventando sempre più assetata di potere – e costosa

22
0

Quardia/iStock/Getty Pictures Plus tramite Getty Pictures

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • Il MIT ha stimato la potenza di calcolo di 809 modelli linguistici di grandi dimensioni.
  • Il calcolo totale ha influito sulla precisione dell’IA più di qualsiasi trucco algoritmico.
  • La potenza di calcolo continuerà a dominare lo sviluppo dell’intelligenza artificiale.

È noto che i modelli di intelligenza artificiale come GPT-5.2 migliorano le loro prestazioni sui punteggi dei benchmark man mano che si aggiunge più calcolo. È un fenomeno noto come “leggi di scala”, la regola pratica dell’intelligenza artificiale secondo cui la precisione migliora in proporzione alla potenza di calcolo.

Ma quanto effetto ha la potenza di calcolo rispetto advert altri vantaggi offerti da OpenAI, Google e altri, come algoritmi migliori o dati diversi?

Per trovare la risposta, i ricercatori Matthias Mertens e colleghi del Massachusetts Institute of Know-how hanno esaminato i dati di 809 programmi di intelligenza artificiale con modelli linguistici di grandi dimensioni. Hanno stimato quanta parte della prestazione di ciascun benchmark fosse attribuibile alla quantità di potenza di calcolo utilizzata per addestrare i modelli.

Anche: Perché pagherai di più per l’intelligenza artificiale nel 2026 e 3 suggerimenti per risparmiare denaro da provare

Hanno poi confrontato quella cifra con l’importo probabilmente attribuibile all’ingegneria unica o all’innovazione algoritmica di un’azienda, quella che chiamano la “salsa segreta”, che a volte – ma non sempre – viene rivelata. Inoltre, hanno confrontato i miglioramenti generali nell’intelligenza artificiale dell’intera comunità di sviluppatori e condiviso suggerimenti e trucchi che migliorano costantemente le prestazioni del modello.

I loro risultati sono riportati nel documento “Esiste una ‘salsa segreta’ nello sviluppo di modelli linguistici di grandi dimensioni?”, che è stato pubblicato nella prestampa di arXiv server.

Mertens e il suo staff hanno formulato la domanda: “La frontiera del progresso dell’intelligenza artificiale è spinta dalla scala – modelli sempre più grandi addestrati su più calcoli? O è alimentata dal progresso tecnologico sotto forma di innovazioni algoritmiche diffuse apertamente che aumentano le prestazioni in tutto il campo?”

“Oppure le aziende chief possiedono una vera e propria ‘salsa segreta’: tecniche proprietarie che producono vantaggi duraturi oltre la scala e un progresso algoritmico condiviso?”

mit-2026-how-gpt-beat-llama

Come il GPT di OpenAI ha battuto Llama: gli autori hanno scoperto che la differenza più grande tra Llama open supply di Meta e GPT-4.5 di OpenAI period una maggiore potenza di calcolo utilizzata per l’addestramento.

MIT

Molti più pc fanno la differenza più grande

Avviso spoiler: esiste, in effetti, una salsa segreta, ma è molto meno importante che avere semplicemente un pc più grande.

Mertens e il suo staff hanno trovato show di tutti e quattro i progressi utili: più calcolo, salsa segreta, progressi generali del settore e miglioramenti specifici di una determinata famiglia di modelli linguistici di grandi dimensioni (LLM).

Ma la differenza di gran lunga più grande è stata la quantità di potenza di calcolo messa a disposizione da OpenAI e altri.

Inoltre: l’intelligenza artificiale ha ucciso la strategia cloud-first: perché il computing ibrido è l’unica by way of da seguire ora

“I progressi alla frontiera dei LLM sono guidati principalmente dall’aumento del calcolo della formazione, con solo modesti contributi provenienti dal progresso algoritmico condiviso o da tecnologie specifiche dello sviluppatore”, riferiscono Mertens e il staff.

Ciò significa che i modelli migliori continueranno a derivare dagli effetti di scalabilità nel calcolo, concludono.

“Di conseguenza, una management duratura nelle capacità di intelligenza artificiale di frontiera appare improbabile senza un accesso continuo a risorse informatiche in rapida espansione.

“Ciò implica che l’accesso al computing è fondamentale per la management nell’intelligenza artificiale e aiuta a spiegare la corsa in corso per investire nelle infrastrutture informatiche”.

Nello specifico, hanno scoperto che un aumento di 10 volte della potenza di calcolo ha un effetto misurabile sulla precisione del take a look at benchmark di un modello.

“I modelli al 95° percentile utilizzano 1.321 volte più calcolo rispetto a quelli al 5° percentile”, riferiscono, il che significa che viene utilizzato oltre mille volte più calcolo per i modelli che sono migliori del 95% dei modelli rispetto ai benchmark rispetto ai modelli con le prestazioni più basse. Questo è un enorme divario informatico.

Anche: I modelli di intelligenza artificiale aperti della Cina sono in parità con l’Occidente: ecco cosa succederà dopo

Un avvertimento importante è che Mertens e il staff stavano confrontando modelli open supply, come DeepSeek AI, che possono esaminare in dettaglio, con modelli proprietari, come GPT-5.2 di OpenAI, che è closed supply e molto più difficile da valutare.

Si sono affidati a stime di terze parti per riempire gli spazi vuoti di modelli proprietari come GPT e Gemini di Google, tutti discussi e citati nella sezione “Metodi” del documento alla advantageous.

(Divulgazione: Ziff Davis, la società madre di ZDNET, ha intentato una causa nell’aprile 2025 contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)

I costi stanno aumentando

Lo studio non identifica in modo specifico il costo in dollari dell’elaborazione, ma è possibile dedurre che i costi stiano aumentando sempre di più.

Sappiamo da altre ricerche di settore che il costo dei chip dei pc e dei relativi componenti di rete necessari per espandere l’intelligenza artificiale è generalmente in aumento.

Uno studio di questa settimana condotto dalla società di brokeraggio Bernstein Analysis di Wall Avenue ha rilevato che le entrate dei produttori di chip nel 2025, tra cui Nvidia, il produttore dominante di GPU che alimentano lo sviluppo dell’intelligenza artificiale, riflettono drammatici aumenti dei prezzi su tutta la linea.

Dopo il crollo delle vendite di chip in seguito alla pandemia di COVID-19, le vendite del settore sono finalmente tornate ai livelli del 2019, ha scritto Stacy Rasgon, analista di chip di Bernstein, citando i dati del principale fornitore di dati del settore, World Semiconductor Commerce Statistics.

Inoltre: Frontier di OpenAI sembra un altro strumento di agente AI, ma è davvero un gioco di potere aziendale

Ma i prezzi medi dei chip nel 2025 sono stati più alti del 70% rispetto al 2019, spingendo Rasgon advert osservare: “La crescita dei ricavi negli ultimi anni rimane dominata dai prezzi”. I chip stanno semplicemente diventando molto più costosi, compreso il sovrapprezzo, ha osservato, per le GPU di Nvidia e gli aumenti di prezzo a due cifre per i chip di memoria DRAM di Micron Know-how e Samsung da cui dipendono gli LLM, come ho notato in precedenza.

In poche parole, ci vogliono più soldi per realizzare il prossimo grande pc per ogni nuovo modello di intelligenza artificiale di frontiera perché sono necessari nuovi chip il cui prezzo continua advert aumentare. Anche se ogni nuova GPU Nvidia Blackwell o Rubin è più efficiente della precedente, cosa che Nvidia sottolinea spesso, le aziende devono comunque acquistarne abbastanza per aumentare la potenza di calcolo totale a loro disposizione quando sviluppano il prossimo modello di frontiera.

Ciò spiega le centinaia di miliardi di dollari in investimenti di capitale che Google, Meta Platforms, Microsoft e altri di Alphabet spendono ogni anno. Spiega anche perché il CEO di OpenAI, Sam Altman, è in procinto di raccogliere decine di miliardi di finanziamenti e pianificare di spendere oltre un trilione di dollari.

Il software program intelligente può ancora ridurre i costi

La buona notizia emersa dallo studio è che il costo non è completamente dominante e l’ingegneria può ancora fare la differenza.

Anche se la quantità di calcolo domina i LLM di frontiera, il progresso tecnico sotto forma di algoritmi più intelligenti – software program, in altre parole – può aiutare a ridurre i costi nel tempo.

Gli autori hanno scoperto che gli sviluppatori di modelli più piccoli, che in genere dispongono di finances informatici inferiori, sono in grado di utilizzare software program intelligente per raggiungere i modelli di frontiera sulle prestazioni di inferenza, realizzando previsioni effettive per un modello di intelligenza artificiale implementato.

Inoltre: come il nuovo modo di DeepSeek di addestrare modelli IA avanzati potrebbe sconvolgere tutto, ancora una volta

“I maggiori effetti del progresso tecnico si verificano al di sotto della frontiera”, hanno scritto Mertens e colleghi. “Durante il periodo campione, il calcolo richiesto per raggiungere soglie di capacità modeste è diminuito di fattori fino a 8.000 volte, riflettendo una combinazione di progressi algoritmici condivisi, tecnologie specifiche dello sviluppatore e innovazioni specifiche del modello.

“Pertanto, l’ingrediente segreto dello sviluppo LLM non è tanto il mantenimento di un ampio vantaggio prestazionale ai vertici quanto la compressione delle capacità in modelli più piccoli ed economici.”

Si potrebbe dire, quindi, che per le aziende più piccole le cose stanno diventando più intelligenti nel campo dell’intelligenza artificiale, nel senso che utilizzano meno energia per ottenere risultati comparabili. Fare di più con meno è un modo valido per definire “intelligente” nel contesto dell’informatica.

Un mondo di abbienti e non abbienti

Tutto ciò conferma che al momento il mondo dell’intelligenza artificiale è biforcato. Per raggiungere un’intelligenza sempre maggiore, è necessario costruire pc sempre più grandi per modelli di frontiera sempre più grandi.

Anche: Frontier di OpenAI sembra un altro strumento di agente AI, ma in realtà è un gioco di potere aziendale

Ma per implementare l’intelligenza artificiale nella produzione, è possibile lavorare su modelli più piccoli con software program migliore e renderli più capaci con un finances di elaborazione limitato.

In ogni caso, è probabile che giganti come Google, Anthropic e OpenAI mantengano la loro management nei titoli dei modelli più capaci in qualsiasi momento, grazie alle loro tasche profonde.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here