Microsoft avverte che la fretta di implementare agenti IA sul posto di lavoro può creare un nuovo tipo di minaccia interna, il doppio agente IA. Nel suo Rapporto Cyber Pulseafferma che gli aggressori possono alterare l’accesso di un assistente o fornirgli enter non attendibili, quindi utilizzare story portata per causare danni all’interno di un’organizzazione.
Il problema non è che l’intelligenza artificiale sia nuova. È che il controllo non è uniforme. Microsoft afferma che gli agenti si stanno diffondendo in tutti i settori, mentre alcune implementazioni sfuggono alla revisione IT e i crew di sicurezza perdono di vista ciò che è in esecuzione e ciò che può toccare.
Quel punto cieco diventa più rischioso quando un agente può ricordare e agire. Microsoft fa riferimento a una recente campagna fraudolenta su cui ha indagato il crew Defender che utilizzava l’avvelenamento della memoria per manomettere il contesto memorizzato di un assistente AI e indirizzare i risultati futuri.
Gli agenti ombra ampliano il raggio dell’esplosione
Microsoft lega il rischio del doppio agente alla velocità. Quando le implementazioni superano la sicurezza e la conformità, l’intelligenza artificiale ombra si manifesta rapidamente e gli aggressori hanno più possibilità di prendere il controllo di uno strumento che dispone già di un accesso legittimo. Questo è lo state of affairs da incubo.
Il rapporto lo inquadra tanto come un problema di accesso quanto come un problema di intelligenza artificiale. Concedi a un agente ampi privilegi e un singolo flusso di lavoro ingannevole potrà raggiungere dati e sistemi che non avrebbe mai dovuto toccare. Microsoft promuove l’osservabilità e la gestione centralizzata in modo che i crew di sicurezza possano vedere ogni agente impegnato nel lavoro, compresi gli strumenti che appaiono al di fuori dei canali approvati.
Lo sprawl è già in atto. Microsoft cita un sondaggio che ha rilevato che il 29% dei dipendenti ha utilizzato agenti di intelligenza artificiale non approvati per attività lavorative, il tipo di espansione silenziosa che rende più difficile individuare tempestivamente le manomissioni.
Non si tratta solo di cattivi suggerimenti
Questo non si limita a qualcuno che digita la richiesta sbagliata. Microsoft evidenzia l’avvelenamento della memoria come un attacco persistente, in grado di apportare modifiche che influenzano le risposte successive ed erodono la fiducia nel tempo.
Il suo AI Pink Workforce ha anche visto gli agenti essere ingannati da elementi ingannevoli dell’interfaccia, comprese istruzioni dannose nascoste nei contenuti di tutti i giorni, oltre alla strutturazione delle attività che reindirizza sottilmente il ragionamento. Può sembrare normale. Questo è il punto.
Cosa fare dopo
Il consiglio di Microsoft è di trattare gli agenti AI come una nuova classe di identità digitale, non come un semplice componente aggiuntivo. Il rapporto raccomanda una postura Zero Belief per gli agenti, verifica l’identità, mantieni le autorizzazioni strette e monitora continuamente il comportamento in modo che le azioni insolite vengano evidenziate.
La gestione centralizzata è importante per lo stesso motivo. Se i crew di sicurezza riescono a fare l’inventario degli agenti, a capire cosa possono raggiungere e a applicare controlli coerenti, il problema dei doppi agenti si ridurrà.
Prima di distribuire più agenti, mappa gli elementi a cui ciascuno può accedere, applica i privilegi minimi e imposta il monitoraggio in grado di segnalare la manomissione delle istruzioni. Se non riesci ancora a rispondere a queste nozioni di base, rallenta e risolvi prima il problema.













