Home Tecnologia Una nuova ricerca mostra che gli agenti IA si scatenano on-line, con...

Una nuova ricerca mostra che gli agenti IA si scatenano on-line, con pochi guardrail in atto

17
0

Nell’ultimo anno, gli agenti IA sono diventati di gran moda. OpenAI, Google e Anthropic hanno lanciato agenti rivolti al pubblico progettati per svolgere compiti in più fasi affidati loro dagli esseri umani. Nell’ultimo mese, un agente AI open supply chiamato OpenClaw ha preso d’assalto il net grazie alle sue impressionanti capacità autonome (e ai grandi problemi di sicurezza). Ma non abbiamo realmente la percezione della portata delle operazioni degli agenti IA e se tutto ciò che si cube sia accompagnato da un effettivo dispiegamento. Il Laboratorio di informatica e intelligenza artificiale del MIT (CSAIL) ha deciso di risolvere questo problema con il suo indice degli agenti AI 2025 recentemente pubblicato, che fornisce il nostro primo vero sguardo alla portata e alle operazioni degli agenti AI in natura.

I ricercatori hanno scoperto che l’interesse per gli agenti IA è senza dubbio salito alle stelle nell’ultimo anno circa. I documenti di ricerca che menzionano “AI Agent” o “Agentic AI” nel 2025 hanno più che raddoppiato il totale dal 2020 al 2024 messi insieme, e un sondaggio McKinsey ha rilevato che il 62% delle aziende ha riferito che le proprie organizzazioni stavano almeno sperimentando gli agenti AI.

Con tutto questo interesse, i ricercatori si sono concentrati su 30 importanti agenti AI in tre categorie separate: opzioni basate su chat come ChatGPT Agent e Claude Code; bot basati su browser come Perplexity Comet e ChatGPT Atlas; e opzioni aziendali come Microsoft 365 Copilot e ServiceNow Agent. Anche se i ricercatori non hanno fornito cifre esatte su quanti agenti di intelligenza artificiale sono distribuiti sul net, hanno offerto una notevole quantità di informazioni su come operano, che è in gran parte privo di rete di sicurezza.

Solo la metà dei 30 agenti IA messi sotto la lente d’ingrandimento dal MIT CSAIL includono strutture di sicurezza o di fiducia pubblicate, come La politica di dimensionamento responsabile di Anthropic, Il quadro di preparazione di OpenAIO Lo standard di intelligenza artificiale responsabile di Microsoft. Un agente su tre non dispone di alcuna documentazione relativa al quadro di sicurezza e cinque su 30 non hanno commonplace di conformità. Ciò è preoccupante se si considera che 13 dei 30 sistemi esaminati mostrano livelli di agenzia di frontiera, il che significa che possono operare in gran parte senza la supervisione umana attraverso sequenze di attività estese. Gli agenti browser in particolare tendono a funzionare con un’autonomia significativamente maggiore. Ciò includerebbe cose come “Autobrowse” AI recentemente lanciato da Google, che può completare attività in più passaggi navigando in diversi siti Net e utilizzando le informazioni dell’utente per eseguire operazioni come accedere ai siti per tuo conto.

Uno dei problemi nel consentire agli agenti di navigare liberamente e con pochi guardrail è che la loro attività è quasi indistinguibile dal comportamento umano e fanno poco per dissipare qualsiasi confusione che potrebbe verificarsi. I ricercatori hanno scoperto che 21 agenti su 30 non forniscono alcuna informazione agli utenti finali o a terze parti sul fatto di essere agenti di intelligenza artificiale e non utenti umani. Ciò fa sì che la maggior parte delle attività degli agenti IA vengano scambiate per traffico umano. Il MIT ha scoperto che solo sette agenti hanno pubblicato stringhe Person-Agent (UA) stabili e intervalli di indirizzi IP a scopo di verifica. Quasi altrettanti utilizzano esplicitamente stringhe UA simili a Chrome e contesti IP residenziali/locali per far sì che le loro richieste di traffico appaiano più umane, rendendo quasi impossibile per un sito net distinguere tra traffico autentico e comportamento dei bot.

Per alcuni agenti IA, questa è in realtà una caratteristica commerciabile. I ricercatori hanno scoperto che BrowserUse, un agente AI open supply, si vende agli utenti affermando di aggirare i sistemi anti-bot per navigare “come un essere umano”. Più della metà di tutti i bot testati non forniscono documentazione specifica su come gestiscono i file robots.txt (file di testo che vengono inseriti nella listing principale di un sito Net per istruire i net crawler su come possono interagire con il sito), CAPTCHA destinati advert autenticare il traffico umano o API del sito. Perplessità ha addirittura fatto sì che gli agenti agissero per conto degli utenti non dovrebbe essere soggetto a restrizioni sullo scraping poiché funzionano “proprio come un assistente umano”.

Il fatto che questi agenti siano in circolazione senza molta protezione significa che esiste una reale minaccia di exploit. Manca una standardizzazione per le valutazioni e le divulgazioni di sicurezza, lasciando molti agenti potenzialmente vulnerabili advert attacchi come i immediate injection, in cui un agente AI rileva un immediate dannoso nascosto che può fargli infrangere i suoi protocolli di sicurezza. Secondo il MIT, nove agenti su 30 non hanno documentazione dei guardrail contro azioni potenzialmente dannose. Quasi tutti gli agenti non divulgano i risultati dei check di sicurezza interni e 23 su 30 non offrono informazioni sulla sicurezza sui check di terze parti.

Solo quattro agenti (ChatGPT Agent, OpenAI Codex, Claude Code e Gemini 2.5) hanno fornito schede di sistema specifiche per l’agente, il che significa che le valutazioni di sicurezza sono state adattate al modo in cui l’agente opera effettivamente, non solo al modello sottostante. Ma laboratori di frontiera come OpenAI e Google offrono più documentazione sui “rischi di allineamento esistenziale e comportamentale”, ma mancano di dettagli sul tipo di vulnerabilità della sicurezza che possono sorgere durante le attività quotidiane, un’abitudine che i ricercatori chiamano “security washing”, che descrivono come la pubblicazione di quadri di sicurezza ed etici di alto livello divulgando solo selettivamente le show empiriche necessarie per valutare rigorosamente il rischio.

C’è stato almeno un certo slancio verso la risposta alle preoccupazioni sollevate dai ricercatori del MIT. Già a dicembre, OpenAI e Anthropic (tra gli altri) hanno unito le forze, annunciando una fondazione per creare uno commonplace di sviluppo per gli agenti AI. Ma l’AI Agent Index mostra quanto sia ampio il divario di trasparenza quando si tratta di operazioni di intelligenza artificiale tramite agenti. Gli agenti di intelligenza artificiale stanno inondando il net e il posto di lavoro, funzionando con una quantità scioccante di autonomia e una supervisione minima. Al momento c’è poco da indicare che la sicurezza raggiungerà presto livelli tali da raggiungere livelli enormi.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here