Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- L’adozione degli agenti IA tra le aziende sta crescendo rapidamente.
- Nel frattempo, lo sviluppo dei protocolli di sicurezza è in ritardo.
- Deloitte raccomanda di implementare process di supervisione.
Secondo l’ultimo rapporto State of AI within the Enterprise di Deloitte, le aziende stanno aumentando l’uso degli agenti IA più velocemente di quanto stiano costruendo guardrail adeguati.
Pubblicato mercoledì e basato su un sondaggio condotto su oltre 3.200 chief aziendali in 24 paesi, lo studio ha rilevato che il 23% delle aziende utilizza attualmente agenti di intelligenza artificiale “almeno moderatamente”, ma che si prevede che questa cifra salirà al 74% nei prossimi due anni. Al contrario, si prevede che la quota di aziende che dichiara di non utilizzarli affatto, attualmente il 25%, si ridurrà al 5%.
Inoltre: il 43% dei lavoratori afferma di aver condiviso informazioni sensibili con l’intelligenza artificiale, inclusi dati finanziari e dei clienti
Tuttavia, l’aumento degli agenti – strumenti di intelligenza artificiale addestrati a svolgere compiti in più fasi con scarsa supervisione umana – sul posto di lavoro non è integrato da adeguati guardrail. Solo circa il 21% degli intervistati ha dichiarato a Deloitte che la propria azienda dispone attualmente di solidi meccanismi di sicurezza e supervisione per prevenire possibili danni causati dagli agenti.
“Information la rapida traiettoria di adozione della tecnologia, questo potrebbe rappresentare un limite significativo”, ha scritto Deloitte nel suo rapporto. “Mentre l’intelligenza artificiale degli agenti passa dai progetti pilota alle implementazioni di produzione, stabilire una governance solida dovrebbe essere essenziale per acquisire valore gestendo al tempo stesso il rischio”.
Cosa potrebbe andare storto?
Aziende come OpenAI, Microsoft, Google, Amazon e Salesforce hanno commercializzato gli agenti come strumenti che aumentano la produttività, con l’thought centrale che le aziende possono scaricare su di loro operazioni ripetitive e a basso rischio sul posto di lavoro mentre i dipendenti umani si concentrano su compiti più importanti.
Inoltre: Cattive vibrazioni: come un agente AI ha codificato la sua strada verso il disastro
Una maggiore autonomia, tuttavia, comporta rischi maggiori. A differenza dei chatbot più limitati, che richiedono suggerimenti attenti e costanti, gli agenti possono interagire con vari strumenti digitali, advert esempio, per firmare documenti o effettuare acquisti per conto di organizzazioni. Ciò lascia più spazio agli errori, poiché gli agenti possono comportarsi in modi inaspettati – a volte con conseguenze disastrose – ed essere vulnerabili agli attacchi di injection tempestivi.
Rimpicciolisci
Il nuovo rapporto Deloitte non è il primo a sottolineare che l’adozione dell’intelligenza artificiale sta eclissando la sicurezza.
Uno studio pubblicato a maggio ha rilevato che la stragrande maggioranza (84%) dei professionisti IT intervistati ha affermato che i propri datori di lavoro utilizzavano già agenti di intelligenza artificiale, mentre solo il 44% ha affermato di avere politiche in atto per regolare l’attività di tali sistemi.
Inoltre: come OpenAI difende ora ChatGPT Atlas dagli attacchi e perché la sicurezza non è garantita
Un altro studio pubblicato a settembre dall’organizzazione no-profit Nationwide Cybersecurity Alliance ha rivelato che mentre un numero crescente di persone utilizza quotidianamente strumenti di intelligenza artificiale come ChatGPT, anche al lavoro, la maggior parte di loro lo fa senza aver ricevuto alcun tipo di formazione sulla sicurezza dai propri datori di lavoro (insegnando loro, advert esempio, i rischi per la privateness che derivano dall’uso dei chatbot).
E a dicembre, Gallup ha pubblicato i risultati di un sondaggio che mostrava che, sebbene l’uso di strumenti di intelligenza artificiale tra i singoli lavoratori fosse aumentato rispetto all’anno precedente, quasi un quarto (23%) degli intervistati ha affermato di non sapere se i loro datori di lavoro utilizzassero la tecnologia a livello organizzativo.
Il risultato
Sarebbe ingiusto nei confronti dei chief aziendali, ovviamente, pretendere di disporre di guardrail assolutamente a prova di proiettile attorno agli agenti di intelligenza artificiale in questa primissima fase. La tecnologia si evolve sempre più rapidamente di quanto sappiamo su come possa andare storto e, di conseguenza, la politica a tutti i livelli tende a restare indietro rispetto alla sua implementazione.
Inoltre: come queste leggi statali sulla sicurezza dell’IA cambiano il volto della regolamentazione negli Stati Uniti
Ciò è particolarmente vero con l’intelligenza artificiale, dal momento che la quantità di clamore culturale e di pressione economica che ha spinto gli sviluppatori tecnologici a rilasciare nuovi modelli e i chief organizzativi a iniziare a utilizzarli è probabilmente senza precedenti.
Ma i primi studi come il nuovo rapporto State of Generative AI within the Enterprise di Deloitte evidenziano quello che potrebbe benissimo diventare un pericoloso divario tra implementazione e sicurezza man mano che le industrie aumentano l’uso di agenti e altri potenti strumenti di intelligenza artificiale.
Inoltre: il 96% dei professionisti IT afferma che gli agenti IA rappresentano un rischio per la sicurezza, ma li stanno comunque implementando
Per ora, la parola d’ordine dovrebbe essere la supervisione: le aziende devono essere consapevoli dei rischi associati all’uso interno degli agenti e disporre di politiche e process in atto per garantire che non escano dai binari e, se lo fanno, che il danno risultante possa essere gestito.
“Le organizzazioni devono stabilire confini chiari per l’autonomia degli agenti, definendo quali decisioni gli agenti possono prendere in modo indipendente rispetto a quali richiedono l’approvazione umana”, raccomanda Deloitte nel suo nuovo rapporto. “I sistemi di monitoraggio in tempo reale che tracciano il comportamento degli agenti e segnalano le anomalie sono essenziali, così come lo sono gli audit path che catturano l’intera catena di azioni degli agenti per garantire la responsabilità e consentire il miglioramento continuo.”












