Home Tecnologia Sei cambiamenti di dati che daranno forma all’intelligenza artificiale aziendale nel 2026

Sei cambiamenti di dati che daranno forma all’intelligenza artificiale aziendale nel 2026

98
0

Per decenni il panorama dei dati è stato relativamente statico. I database relazionali (ciao, Oracle!) erano quelli predefiniti e dominati, organizzando le informazioni in colonne e righe familiari.

Quella stabilità si è erosa quando ondate successive hanno introdotto archivi di documenti NoSQL, database a grafo e, più recentemente, sistemi basati su vettori. Nell’period dell’intelligenza artificiale, l’infrastruttura dei dati è ancora una volta in continuo mutamento e si evolve più velocemente che in qualsiasi momento nella memoria recente.

All’alba del 2026, una lezione è diventata inevitabile: i dati contano più che mai.

RAG è morto. Viva il RAG

Forse la tendenza più importante del 2025 che continuerà a essere dibattuta nel 2026 (e forse oltre) è il ruolo dei RAG.

Il problema è che l’architettura della pipeline RAG originale è molto simile a una ricerca di base. Il recupero trova il risultato di una question specifica, in un momento specifico. Inoltre è spesso limitato a una singola fonte di dati, o almeno questo è il modo in cui sono state costruite le pipeline RAG in passato (il passato period in qualsiasi momento precedente a giugno 2025).

Queste limitazioni hanno portato una crescente linea di venditori di conga a sostenere che RAG sta morendo, sta per uscire, o già morto.

Ciò che sta emergendo, tuttavia, sono approcci alternativi (come la memoria contestuale), nonché approcci sfumati e migliorati al RAG. Advert esempio, Snowflake ha recentemente annunciato il suo analisi dei documenti agentici tecnologia, che espande la tradizionale pipeline di dati RAG per consentire l’analisi su migliaia di fonti, senza la necessità di disporre prima di dati strutturati. Esistono anche numerosi altri approcci simili a RAG che stanno emergendo, tra cui GraphRAG che probabilmente aumenterà in termini di utilizzo e capacità solo nel 2026.

Quindi ora RAG non è (del tutto) morto, almeno non ancora. Nel 2026 le organizzazioni troveranno ancora casi d’uso in cui è necessario il recupero dei dati e alcune versioni migliorate di RAG probabilmente saranno ancora adatte allo scopo. Nel 2026 le imprese dovrebbero valutare i casi d’uso individualmente. Il RAG tradizionale funziona per il recupero della conoscenza statica, mentre approcci avanzati come GraphRAG si adattano a question complesse da più fonti.

La memoria contestuale è la posta in gioco per l’intelligenza artificiale degli agenti

Anche se RAG non scomparirà del tutto nel 2026, un approccio che probabilmente lo supererà in termini di utilizzo per l’IA agentica è la memoria contestuale, nota anche come memoria agentica o memoria a contesto lungo. Questa tecnologia consente ai LLM di archiviare e accedere a informazioni pertinenti per periodi prolungati.

Nel corso del 2025 sono emersi numerosi sistemi di questo tipo, tra cui Hindsight, Quadro A-MEM, Memoria agentica generale (GAM), LangMem e Base di memoria. RAG rimarrà utile per i dati statici, ma la memoria dell’agente è fondamentale per gli assistenti adattivi e i flussi di lavoro dell’intelligenza artificiale dell’agente che devono apprendere dal suggestions, mantenere lo stato e adattarsi nel tempo.

Nel 2026, la memoria contestuale non sarà più una tecnica nuova; diventerà una posta in gioco per molte implementazioni operative di agenti di intelligenza artificiale.

I casi d’uso dei database vettoriali appositamente creati cambieranno

All’inizio dell’period moderna dell’intelligenza artificiale generativa, i database vettoriali appositamente costruiti (come Pinecone e Milvus, tra gli altri) erano di gran moda.

Affinché un LLM (generalmente ma non esclusivamente tramite RAG) possa accedere a nuove informazioni, deve accedere ai dati. Il modo migliore per farlo è codificare i dati in vettori, ovvero una rappresentazione numerica di ciò che rappresentano i dati.

Nel 2025 ciò che divenne dolorosamente ovvio fu che i vettori non erano più un tipo di database specifico ma piuttosto un tipo di dati specifico che poteva essere integrato in un database multimodello esistente. Quindi, invece di richiedere a un’organizzazione di utilizzare un sistema appositamente creato, potrebbe semplicemente utilizzare un database esistente che supporti i vettori. Advert esempio, Oracle supporta i vettori e lo stesso vale per ogni database offerto da Google.

Oh, e migliora. Amazon S3, da tempo chief de facto nello storage di oggetti basato su cloud, ora consente agli utenti di memorizzare i vettoriannullando ulteriormente la necessità di un database vettoriale dedicato e unico. Ciò non significa che l’archiviazione di oggetti sostituisca i motori di ricerca vettoriale (le prestazioni, l’indicizzazione e il filtraggio contano ancora), ma restringe l’insieme dei casi d’uso in cui sono richiesti sistemi specializzati.

No, ciò non significa che i database vettoriali appositamente creati siano morti. Proprio come con RAG, nel 2026 continueranno advert esserci casi d’uso per database vettoriali appositamente creati. Ciò che cambierà è che i casi d’uso probabilmente si restringeranno leggermente per le organizzazioni che necessitano dei più alti livelli di prestazioni o di un’ottimizzazione specifica che una soluzione generica non supporta.

Ascendente PostgreSQL

Con l’inizio del 2026, ciò che è vecchio torna di nuovo nuovo. Il database PostgreSQL open supply compirà 40 anni nel 2026, ma sarà più rilevante di quanto lo sia mai stato prima.

Nel corso del 2025, la supremazia di PostgreSQL come database di riferimento per la realizzazione di qualsiasi tipo di soluzione GenAI è diventato evidente. Snowflake ha speso 250 milioni di dollari per acquisire il fornitore di database PostgreSQL Crunchy Knowledge; Databricks speso 1 miliardo di dollari su Neon; e Supabase ha raccolto una serie E di 100 milioni di dollari, dandogli una valutazione di 5 miliardi di dollari.

Tutto quel denaro serve come chiaro segnale che le aziende stanno diventando inadempienti verso PostgreSQL. Le ragioni sono molte, tra cui la base open supply, la flessibilità e le prestazioni. Per la codifica vibe (un caso d’uso fondamentale per Supabase e Neon in particolare), PostgreSQL è lo customary.

Aspettatevi di vedere una maggiore crescita e adozione di PostgreSQL nel 2026 poiché sempre più organizzazioni giungeranno alle stesse conclusioni di Snowflake e Databricks.

I ricercatori di dati continueranno a trovare nuovi modi per risolvere problemi già risolti

È probabile che ci sarà più innovazione per risolvere i problemi che molte organizzazioni probabilmente presumono siano già: problemi risolti.

Nel 2025 abbiamo assistito a numerose innovazioni, come l’concept che un’intelligenza artificiale sia in grado di analizzare i dati da un’origine dati non strutturata come un PDF. Si tratta di una capacità che esiste da diversi anni, ma si è rivelata più difficile da rendere operativa su larga scala di quanto molti pensassero. Databricks ora dispone di un parser avanzato e altri fornitori, incluso Mistral, sono emersi con i propri miglioramenti.

Lo stesso vale per la traduzione dal linguaggio naturale a SQL. Anche se alcuni avrebbero potuto presumere che il problema fosse risolto, in realtà è così ha continuato a vedere l’innovazione nel 2025 e ne vedremo di più nel 2026.

È fondamentale che le imprese restino vigili nel 2026. Non dare per scontato che le funzionalità fondamentali come l’analisi o il linguaggio naturale in SQL siano completamente risolte. Continua a valutare nuovi approcci che potrebbero superare in modo significativo gli strumenti esistenti.

Le acquisizioni, gli investimenti e il consolidamento continueranno

Il 2025 è stato un anno importante per i grandi investimenti destinati ai fornitori di dati.

Meta ha investito 14,3 miliardi di dollari nel fornitore di etichettatura dei dati Scale AI; IBM ha detto che prevede di acquisire il fornitore di streaming dati Confluent per 11 miliardi di dollari; e Salesforce ho preso Informatica per 8 miliardi di dollari.

Le organizzazioni dovrebbero aspettarsi che il ritmo delle acquisizioni di tutte le dimensioni continui nel 2026, poiché i grandi fornitori si rendono conto dell’importanza fondamentale dei dati per il successo dell’intelligenza artificiale degli agenti.

L’impatto delle acquisizioni e del consolidamento sulle imprese nel 2026 è difficile da prevedere. Può portare al vincolo del fornitore e può anche potenzialmente portare a funzionalità della piattaforma estese.

Nel 2026, la domanda non sarà se le imprese utilizzeranno l’intelligenza artificiale, ma se i loro sistemi di dati saranno in grado di sostenerla. Man mano che l’intelligenza artificiale degli agenti matura, un’infrastruttura dati durevole, e non suggerimenti intelligenti o architetture di breve durata, determinerà quali implementazioni scalano e quali si bloccano silenziosamente.

fonte