Presentato da 1Password
L’aggiunta di capacità di agenti agli ambienti aziendali sta rimodellando radicalmente il modello di minaccia introducendo una nuova classe di attori nei sistemi di identità. Il problema: gli agenti IA agiscono all’interno di sistemi aziendali sensibili, effettuando l’accesso, recuperando dati, chiamando strumenti LLM ed eseguendo flussi di lavoro spesso senza la visibilità o il controllo che i tradizionali sistemi di identità e accesso sono stati progettati per imporre.
Gli strumenti di intelligenza artificiale e gli agenti autonomi stanno proliferando nelle aziende più velocemente di quanto i workforce di sicurezza possano strumentali o governarli. Allo stesso tempo, la maggior parte dei sistemi di identità presuppone ancora utenti statici, account di servizio di lunga durata e assegnazioni di ruoli grossolane. Non sono stati progettati per rappresentare l’autorità umana delegata, contesti di esecuzione di breve durata o agenti che operano in cicli decisionali ristretti.
Di conseguenza, i chief IT devono fare un passo indietro e ripensare il livello di fiducia stesso. Questo cambiamento non è teorico. del NIST Architettura Zero Trust (SP 800-207) afferma esplicitamente che “tutti i soggetti, comprese le applicazioni e le entità non umane, sono considerati non affidabili finché non vengono autenticati e autorizzati”.
In un mondo basato sugli agenti, ciò significa che i sistemi di intelligenza artificiale devono avere identità proprie esplicite e verificabili, non operare attraverso credenziali ereditate o condivise.
“Le architetture IAM aziendali sono costruite per presupporre che tutte le identità di sistema siano umane, il che significa che contano su un comportamento coerente, intenti chiari e responsabilità umana diretta per rafforzare la fiducia”, afferma Nancy Wang, CTO di 1Password e Enterprise Associate di Felicis. “I sistemi agenti rompono questi presupposti. Un agente AI non è un utente che puoi addestrare o rivedere periodicamente. È un software program che può essere copiato, biforcato, scalato orizzontalmente e lasciato in esecuzione in stretti cicli di esecuzione su più sistemi. Se continuiamo a trattare gli agenti come esseri umani o account di servizio statici, perdiamo la capacità di rappresentare chiaramente per chi agiscono, quale autorità detengono e quanto tempo dovrebbe durare story autorità.”
In che modo gli agenti IA trasformano gli ambienti di sviluppo in zone a rischio per la sicurezza
Uno dei primi luoghi in cui questi presupposti sull’identità vengono meno è l’ambiente di sviluppo moderno. L’ambiente di sviluppo integrato (IDE) si è evoluto oltre un semplice editor in un orchestratore in grado di leggere, scrivere, eseguire, recuperare e configurare sistemi. Con un agente AI al centro di questo processo, le transizioni di iniezione tempestiva non sono solo una possibilità astratta; diventano un rischio concreto.
Poiché gli IDE tradizionali non sono stati progettati con agenti AI come componente principale, l’aggiunta di funzionalità AI aftermarket introduce nuovi tipi di rischi per i quali i modelli di sicurezza tradizionali non sono stati progettati per tenere conto.
Advert esempio, gli agenti di intelligenza artificiale violano inavvertitamente i confini della fiducia. Un README apparentemente innocuo potrebbe contenere direttive nascoste che inducono un assistente a esporre le credenziali durante l’analisi commonplace. Il contenuto del progetto proveniente da fonti non attendibili può alterare il comportamento dell’agente in modi imprevisti, anche quando story contenuto non ha alcuna somiglianza evidente con un immediate.
Le origini di enter ora si estendono oltre i file eseguiti deliberatamente. La documentazione, i file di configurazione, i nomi dei file e i metadati degli strumenti vengono tutti inseriti dagli agenti come parte dei loro processi decisionali, influenzando il modo in cui interpretano un progetto.
La fiducia si mina quando gli agenti agiscono senza intenzione o responsabilità
Quando si aggiungono agenti deterministici e altamente autonomi che operano con privilegi elevati, con la capacità di leggere, scrivere, eseguire o riconfigurare i sistemi, la minaccia aumenta. Questi agenti non hanno contesto, né capacità di determinare se una richiesta di autenticazione è legittima, chi ha delegato quella richiesta o i limiti che dovrebbero essere posti attorno a quell’azione.
“Con gli agenti, non si può dare per scontato che abbiano la capacità di esprimere giudizi accurati, e certamente mancano di un codice morale”, cube Wang. “Ognuna delle loro azioni deve essere adeguatamente vincolata, e l’accesso ai sistemi sensibili e ciò che possono fare al loro interno deve essere definito più chiaramente. La parte difficile è che intraprendono continuamente azioni, quindi anche loro devono essere continuamente vincolati.”
Dove l’IAM tradizionale fallisce con gli agenti
I tradizionali sistemi di gestione delle identità e degli accessi operano su diversi presupposti fondamentali che l’intelligenza artificiale degli agenti viola:
I modelli di privilegi statici falliscono con i flussi di lavoro degli agenti autonomi: L’IAM convenzionale concede autorizzazioni in base a ruoli che rimangono relativamente stabili nel tempo. Ma gli agenti eseguono catene di azioni che richiedono diversi livelli di privilegio in momenti diversi. Il privilegio minimo non può più essere una configurazione “imposta e dimentica”. Ora deve essere definito dinamicamente nell’ambito di ogni azione, con meccanismi di scadenza e aggiornamento automatici.
La responsabilità umana si interrompe per gli agenti software program: I sistemi legacy presuppongono che ogni identità riconduca a una persona specifica che può essere ritenuta responsabile delle azioni intraprese, ma gli agenti confondono completamente questa linea. Ora non è chiaro quando agisce un agente e sotto la cui autorità opera, il che rappresenta già una tremenda vulnerabilità. Ma quando l’agente viene duplicato, modificato o lasciato in funzione molto tempo dopo che il suo scopo originale è stato raggiunto, il rischio si moltiplica.
Il rilevamento basato sul comportamento non riesce con l’attività continua dell’agente: Mentre gli utenti umani seguono modelli riconoscibili, come effettuare il login durante l’orario lavorativo, accedere a sistemi familiari e intraprendere azioni in linea con le loro funzioni lavorative, gli agenti operano continuamente, su più sistemi contemporaneamente. Ciò non solo moltiplica il rischio di danni a un sistema, ma fa anche sì che i flussi di lavoro legittimi vengano contrassegnati come sospetti rispetto ai tradizionali sistemi di rilevamento delle anomalie.
Le identità degli agenti sono spesso invisibili ai tradizionali sistemi IAM: Tradizionalmente, i workforce IT possono più o meno configurare e gestire le identità che operano all’interno del proprio ambiente. Ma gli agenti possono creare nuove identità in modo dinamico, operare tramite account di servizio esistenti o sfruttare le credenziali in modi che le rendono invisibili agli strumenti IAM convenzionali.
“È tutto il contesto, l’intento dietro un agente, e i sistemi IAM tradizionali non hanno alcuna capacità di gestirlo”, afferma Wang. “Questa convergenza di sistemi diversi rende la sfida più ampia della semplice identità, richiedendo contesto e osservabilità per capire non solo chi ha agito, ma perché e come”.
Ripensare l’architettura di sicurezza per i sistemi advert agenti
Per proteggere l’intelligenza artificiale degli agenti è necessario ripensare l’architettura di sicurezza aziendale da zero. Sono necessari diversi cambiamenti chiave:
Identità come piano di controllo per gli agenti AI: Invece di considerare l’identità come una componente di sicurezza tra tante, le organizzazioni devono riconoscerla come il piano di controllo fondamentale per gli agenti IA. I principali fornitori di sicurezza si stanno già muovendo in questa direzione, con l’integrazione dell’identità in ogni soluzione e stack di sicurezza.
Accesso sensibile al contesto come requisito per l’intelligenza artificiale degli agenti: Le coverage devono diventare molto più granulari e specifiche, definendo non solo a cosa può accedere un agente, ma a quali condizioni. Ciò significa considerare chi ha richiamato l’agente, su quale dispositivo è in esecuzione, quali vincoli temporali si applicano e quali azioni specifiche sono consentite all’interno di ciascun sistema.
Gestione delle credenziali a conoscenza zero per agenti autonomi: Un approccio promettente è quello di mantenere le credenziali completamente fuori dalla vista degli agenti. Utilizzando tecniche come il riempimento automatico degli agenti, le credenziali possono essere inserite nei flussi di autenticazione senza che gli agenti le vedano mai in testo semplice, in modo simile a come funzionano i gestori di password per gli esseri umani, ma estesi agli agenti software program.
Requisiti di verificabilità per gli agenti AI: I registri di controllo tradizionali che tengono traccia delle chiamate API e degli eventi di autenticazione non sono sufficienti. La verificabilità dell’agente richiede l’acquisizione di chi è l’agente, sotto quale autorità opera, quale ambito di autorità è stato concesso e la catena completa di azioni intraprese per realizzare un flusso di lavoro. Ciò rispecchia la registrazione dettagliata delle attività utilizzata per i dipendenti umani, ma deve adattarsi alle entità software program che eseguono centinaia di azioni al minuto.
Rafforzare i confini della fiducia tra esseri umani, agenti e sistemi: Le organizzazioni necessitano di confini chiari e applicabili che definiscano cosa può fare un agente quando richiamato da una persona specifica su un particolare dispositivo. Ciò richiede la separazione dell’intento dall’esecuzione: capire cosa un utente vuole che un agente realizzi da ciò che l’agente effettivamente fa.
Il futuro della sicurezza aziendale in un mondo advert agenti
Man mano che l’intelligenza artificiale degli agenti viene integrata nei flussi di lavoro aziendali quotidiani, la sfida per la sicurezza non è se le organizzazioni adotteranno gli agenti; la questione è se i sistemi che regolano l’accesso possono evolversi per tenere il passo.
È improbabile che il blocco dell’intelligenza artificiale sul perimetro possa crescere, ma non lo farà nemmeno l’estensione dei modelli di identità legacy. Ciò che serve è uno spostamento verso sistemi di identità in grado di tenere conto del contesto, della delega e della responsabilità in tempo reale, sia tra gli esseri umani, sia tra le macchine e gli agenti di intelligenza artificiale.
“La funzione step per gli agenti nella produzione non deriverà solo da modelli più intelligenti”, afferma Wang. “Proverrà da un’autorità prevedibile e da confini di fiducia applicabili. Le imprese hanno bisogno di sistemi di identità in grado di rappresentare chiaramente per chi agisce un agente, cosa gli è consentito fare e quando story autorità scade. Senza di ciò, l’autonomia diventa un rischio non gestito. Con ciò, gli agenti diventano governabili.”
Gli articoli sponsorizzati sono contenuti prodotti da un’azienda che paga per il put up o ha un rapporto commerciale con VentureBeat e sono sempre chiaramente contrassegnati. Per ulteriori informazioni, contattare gross sales@venturebeat.com.












