Gli agenti IA stanno sicuramente attraversando un momento difficile. Tra la recente viralità di OpenClaw, Moltbook e OpenAI pianificando di adottare le sue funzionalità di agente al livello successivo, potrebbe essere proprio l’anno dell’agente.
Perché? Beh, possono pianificare, scrivere il codicenavigare sul Net e eseguire compiti a più fasi con poca o nessuna supervisione. Alcuni addirittura promettono di gestire il tuo flusso di lavoro. Altri si coordinano con strumenti e sistemi sul desktop.
L’appello è ovvio. Questi sistemi non si limitano a rispondere. Essi atto – per te e per tuo conto. Ma quando i ricercatori dietro il Indice degli agenti AI del MIT hanno catalogato 67 sistemi advert agenti distribuiti, hanno trovato qualcosa di inquietante.
Gli sviluppatori sono ansiosi di descrivere ciò che possono fare i loro agenti Fare. Sono molto meno ansiosi di descrivere se questi agenti lo siano sicuro.
“I principali sviluppatori e startup di IA stanno implementando sempre più sistemi di IA agentici in grado di pianificare ed eseguire attività complesse con un coinvolgimento umano limitato”, hanno scritto i ricercatori nel documento. “Tuttavia, attualmente non esiste un quadro strutturato per documentare… le caratteristiche di sicurezza dei sistemi advert agenti.”
Questo divario emerge chiaramente dai numeri: circa il 70% degli agenti indicizzati fornisce documentazione e quasi la metà pubblica codice. Ma solo il 19% circa rende nota una politica di sicurezza formale e meno del 10% riporta valutazioni esterne sulla sicurezza.
La ricerca sottolinea che, sebbene gli sviluppatori siano rapidi nel pubblicizzare le capacità e l’applicazione pratica dei sistemi advert agenti, sono anche rapidi nel fornire informazioni limitate riguardo alla sicurezza e ai rischi. Il risultato è una sorta di trasparenza sbilenca.
Cosa conta come agente AI
I ricercatori sono stati molto attenti su ciò che ha fatto il taglio, e non tutti i chatbot sono idonei. Per essere incluso, un sistema doveva operare con obiettivi sottospecificati e perseguirli nel tempo. Inoltre ha dovuto intraprendere azioni che incidano su un ambiente con una limitata mediazione umana. Si tratta di sistemi che decidono autonomamente i passaggi intermedi. Possono suddividere un’istruzione generale in sottoattività, utilizzare strumenti, pianificare, completare e ripetere.
Questa autonomia è ciò che li rende potenti. È anche ciò che alza la posta in gioco.
Quando un modello genera semplicemente testo, i suoi errori sono solitamente contenuti in quell’output. Quando un agente AI può accedere a file, inviare e-mail, effettuare acquisti o modificare documenti, errori ed exploit possono essere dannosi e propagarsi attraverso i passaggi. Tuttavia, i ricercatori hanno scoperto che la maggior parte degli sviluppatori non descrive pubblicamente in dettaglio come testa questi scenari.
La capacità è pubblica, i guardrail no
Il modello più sorprendente in lo studio non è nascosto nel profondo di una tabella: è ripetuto in tutto il foglio.
Gli sviluppatori sono a proprio agio nel condividere demo, benchmark e usabilità di questi agenti di intelligenza artificiale, ma sono molto meno coerenti nel condividere valutazioni di sicurezza, process di check interni o controlli dei rischi di terze parti.
Questo squilibrio conta di più quando gli agenti passano da prototipi advert attori digitali integrati in flussi di lavoro reali. Molti dei sistemi indicizzati operano in ambiti quali l’ingegneria del software program e l’uso dei laptop, ambienti che spesso implicano dati sensibili e controlli significativi.
L’indice degli agenti AI del MIT non afferma che l’intelligenza artificiale degli agenti sia completamente pericolosa, ma mostra che con l’aumento dell’autonomia, la trasparenza strutturata sulla sicurezza non ha tenuto il passo.
La tecnologia sta accelerando. I guardrail, almeno pubblicamente, restano più difficili da vedere.











