Home Tecnologia La tassa nascosta dei “Franken-stacks” che sabota le strategie dell’intelligenza artificiale

La tassa nascosta dei “Franken-stacks” che sabota le strategie dell’intelligenza artificiale

34
0

Presentato da Certinia


L’euforia iniziale nei confronti dell’intelligenza artificiale generativa e agentica si è trasformata in una realtà pragmatica, spesso frustrata. I CIO e i chief tecnici si chiedono perché i loro programmi pilota, anche quelli progettati per automatizzare i flussi di lavoro più semplici, non riescono a fornire la magia promessa nelle demo.

Quando l’intelligenza artificiale non riesce a rispondere a una domanda di base o a completare un’azione correttamente, l’istinto è quello di incolpare il modello. Presumiamo che il LLM non sia abbastanza “intelligente”. Ma questa colpa è fuori luogo. L’intelligenza artificiale non fatica perché manca intelligenza. Fatica perché manca contesto.

Nell’azienda moderna, il contesto è intrappolato in un labirinto di soluzioni puntuali sconnesse, API fragili e integrazioni soggette a latenza: un “Franken-stack” di tecnologie disparate. E per le organizzazioni incentrate sui servizi in particolare, dove la vera verità del enterprise risiede nel passaggio tra vendite, consegna, successo e finanza, questa frammentazione è esistenziale. Se la tua architettura esclude queste funzioni, la tua roadmap dell’IA è destinata al fallimento.

Il contesto non può viaggiare attraverso un’API

Nell’ultimo decennio, la strategia IT normal è stata “la migliore del settore”. Hai acquistato il miglior CRM per le vendite, uno strumento separato per la gestione dei progetti, un CSP autonomo per il successo e un ERP per la finanza; li ha uniti insieme con API e middleware (se sei stato fortunato) e ha dichiarato la vittoria.

Per i lavoratori umani, questo period fastidioso ma gestibile. Un essere umano sa che lo stato del progetto nello strumento di gestione del progetto potrebbe essere 72 ore indietro rispetto ai dati della fattura nell’ERP. Gli esseri umani possiedono l’intuizione necessaria per colmare il divario tra i sistemi.

Ma l’intelligenza artificiale non ha intuito. Ha domande. Quando chiedi a un agente AI di “fornire personale a questo nuovo progetto che abbiamo vinto per l’impatto sui margini e sull’utilizzo”, esegue una question basata sui dati a cui può accedere ora. Se la tua architettura si basa su integrazioni per spostare i dati, l’intelligenza artificiale funziona con un ritardo. Vede il contratto firmato, ma non la carenza di risorse. Vede l’obiettivo delle entrate, ma non il rischio di abbandono.

Il risultato non è solo una risposta sbagliata, ma una risposta sbagliata sicura, apparentemente plausibile, basata su verità parziali. Agire in base a ciò crea costose insidie ​​operative che vanno ben oltre i soli piloti AI falliti.

Perché l’intelligenza artificiale agentica richiede un’architettura nativa della piattaforma

Questo è il motivo per cui la conversazione si sta spostando da “quale modello dovremmo usare?” A “dove vivono i nostri dati?

Per supportare una forza lavoro ibrida in cui esperti umani lavorano insieme advert agenti di intelligenza artificiale debitamente capaci, i dati sottostanti non possono essere messi insieme; deve essere nativo della piattaforma aziendale principale. UN approccio nativo della piattaformain particolare quello costruito su un modello di dati comune (advert esempio Salesforce), elimina il livello di traduzione e fornisce l’unica fonte di verità richiesta da un’intelligenza artificiale buona e affidabile.

In un ambiente nativo, i dati risiedono in un modello a oggetto singolo. Una modifica dell’ambito nella consegna è una modifica delle entrate nella finanza. Non c’è sincronizzazione, nessuna latenza e nessuna perdita di stato.

Questo è l’unico modo per ottenere una vera certezza con l’intelligenza artificiale. Se vuoi che un agente assuma autonomamente il personale per un progetto o preveda le entrate, sarà necessaria una visione a 360 gradi della verità, non una serie di istantanee registrate insieme dal middleware.

La tassa sulla sicurezza della porta laterale: le API come superficie di attacco

Una volta che risolvi per l’intelligenza, devi risolvere per la sovranità. L’argomento a favore di una piattaforma unificata è solitamente incentrato sull’efficienza, ma un argomento sempre più pressante è la sicurezza.

In uno stack Franken di prima qualità, ogni connessione API che crei è effettivamente una nuova porta che devi chiudere. Quando ti affidi a soluzioni puntuali di terze parti per funzioni critiche come il successo dei clienti o la gestione delle risorse, convogli costantemente i dati sensibili dei clienti dal tuo sistema di registrazione principale alle app satellitari. Questo movimento È il rischio.

Abbiamo visto questo svolgersi di recente violazioni della catena di fornitura di alto profilo. Gli hacker non avevano bisogno di assaltare i cancelli del castello della piattaforma centrale. Sono semplicemente entrati dalla porta secondaria sfruttando i token di autenticazione persistenti delle app di terze parti connesse.

Una strategia nativa della piattaforma risolve questo problema attraverso la sicurezza per ereditarietà. Quando i tuoi dati risiedono su un’unica piattaforma, ereditano il massiccio investimento in sicurezza e il confine di fiducia di quella piattaforma. Non stai spostando i dati attraverso il cavo nel cloud di un fornitore diverso solo per analizzarli. L’oro non esce mai dal caveau.

Correggi l’architettura, quindi cura il contesto

La pressione per implementare l’intelligenza artificiale è immensa, ma sovrapporre agenti intelligenti a un’architettura non intelligente è una perdita di tempo e risorse.

I chief spesso esitano perché temono che i loro dati non siano “abbastanza puliti”. Credono di dover cancellare ogni report degli ultimi dieci anni prima di poter schierare un singolo agente. Su uno stack frammentato, questa paura è valida.

Un’architettura nativa della piattaforma cambia i conti. Poiché i dati, i metadati e gli agenti risiedono nella stessa casa, non è necessario far bollire l’oceano. È sufficiente delimitare campi specifici e attendibili, come i contratti dei clienti attivi o le pianificazioni attuali delle risorse, e dire all’agente: “Lavora qui”. Ignora il resto.” Eliminando la necessità di complesse traduzioni API e middleware di terze parti, una piattaforma unificata ti consente di mettere a disposizione degli agenti i tuoi dati più affidabili e connessi oggi, aggirando il caos senza attendere uno stato “perfetto” che potrebbe non arrivare mai.

Spesso temiamo che l’intelligenza artificiale abbia allucinazioni perché è troppo creativa. Il vero pericolo è che fallisca perché è cieco. E non è possibile automatizzare un’attività complessa con una visibilità frammentata. Nega alla tua nuova forza lavoro agenziale l’accesso al contesto completo delle tue operazioni su una piattaforma unificata e costruirai una base destinata sicuramente a fallire.


Raju Malhotra è Chief Product & Expertise Officer presso Certinia.


Gli articoli sponsorizzati sono contenuti prodotti da un’azienda che paga per il put up o ha un rapporto commerciale con VentureBeat e sono sempre chiaramente contrassegnati. Per ulteriori informazioni, contattare gross sales@venturebeat.com.

fonte