Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- L’intelligenza artificiale sta dando potere sia ai crew di sicurezza informatica che ai criminali informatici.
- La società di consulenza EY esorta i CISO a essere proattivi per ridurre al minimo i rischi.
- L’azienda condivide 12 consigli per la sicurezza in un nuovo rapporto.
È diventato un po’ un cliché descrivere l’intelligenza artificiale come un’arma a doppio taglio, ma ciò non rende la frase falsa.
Gli esperti di sicurezza informatica sono stati particolarmente espliciti su questo punto. “L’intelligenza artificiale amplifica la difesa attraverso un rilevamento e una risposta più rapidi, ma allo stesso tempo riduce il costo e la complessità degli attacchi”, ha scritto in una nota la società di consulenza EY. rapporto pubblicato all’inizio di questo mese dal titolo “AI e sicurezza informatica: la nuova frontiera della resilienza aziendale”.
“Mentre i difensori utilizzano l’intelligenza artificiale per identificare le minacce, gli avversari sfruttano le stesse tecnologie per ingannare”, afferma il rapporto.
Inoltre: implementare l’intelligenza artificiale? 5 tattiche di sicurezza che la tua azienda non può sbagliare e perché
La tecnologia che sta rendendo le difese della sicurezza informatica più robuste, in altre parole, sta anche dando potere ai criminali informatici che stanno cercando di violare tali protezioni. Come Thor e Loki, o Batman e il Joker, i due nemici devono costantemente superare l’altro in velocità e in astuzia in quella che si preannuncia come una corsa agli armamenti lunga, forse senza high quality. (In una nota correlata, gli sviluppatori di intelligenza artificiale come OpenAI hanno la propria corsa agli armamenti di sicurezza con cui confrontarsi: quanto meglio i loro modelli riescono a proteggere dagli attacchi di iniezione tempestiva, tanto più astuti diventano questi attacchi.)
Controintuitivamente, tuttavia, alcuni esperti affermano che la minaccia più grave ai sistemi di sicurezza informatica basata sull’intelligenza artificiale non proviene da hacker esterni. Invece, la minaccia più grande proviene dall’interno delle organizzazioni stesse, quando i dipendenti utilizzano la tecnologia senza adeguati guardrail interni.
Inoltre: l’intelligenza artificiale renderà la sicurezza informatica obsoleta o la Silicon Valley sta di nuovo confabulando?
A seguito di uno studio spartiacque del MIT dello scorso anno, che ha rilevato che oltre nove iniziative di intelligenza artificiale su 10 delle aziende non sono riuscite a produrre risultati significativi, si è discusso molto sul valore di un approccio top-down alla tecnologia (in cui i chief organizzativi controllano il modo in cui i loro dipendenti la utilizzano) e un approccio bottom-up (in cui ai dipendenti viene information più libertà di sperimentare diversi strumenti). E secondo Dan Mellen, world cyber chief know-how officer di EY, adottare un approccio dal basso verso l’alto alla sicurezza informatica nell’period dell’intelligenza artificiale è fonte di problemi.
“Le organizzazioni dovrebbero assolutamente adottare un approccio dall’alto verso il basso per implementare barriere di sicurezza sull’uso dell’intelligenza artificiale da parte dei dipendenti”, ha detto Mellen a ZDNET. Rispetto alle minacce esterne, come gli attacchi prontamente iniettati, ha affermato Mellen, “l’uso di strumenti intelligenti non gestiti da parte di addetti ai lavori… presenta un rischio significativamente maggiore per l’azienda”.
Il nuovo rapporto di EY arriva in un momento in cui gli agenti di intelligenza artificiale vengono venduti alle aziende come stimolatori della produttività dei dipendenti. Ma mentre la capacità di questi sistemi di creare app e gestire una serie di altre attività complesse continua a crescere, presentano ancora problemi di sicurezza irrisolti. La preoccupazione più notevole è che una maggiore autonomia degli agenti comporta il rischio di comportamenti inaspettati. Le show suggeriscono che gli agenti sono soggetti a comportarsi in modo imprevedibile, a volte con conseguenze disastrose.
Inoltre: perché gli agenti di intelligenza artificiale aziendale potrebbero diventare la massima minaccia interna
Mellen è, quindi, solo una voce nel crescente coro di esperti di sicurezza informatica che lanciano allarmi sul fatto che l’impiego di agenti all’interno delle aziende sta superando l’implementazione di guardrail efficaci.
12 consigli per i CISO
Questo paradigma del rischio interno è esattamente ciò che EY voleva affrontare nel suo nuovo rapporto sull’intelligenza artificiale e sulla sicurezza informatica.
Inoltre: le minacce dell’intelligenza artificiale peggioreranno: 6 modi per eguagliare la tenacia dei tuoi avversari digitali
In generale, il rapporto esorta i CISO advert affrontare la sicurezza informatica con la massima visibilità dall’alto verso il basso possibile: mappando chiaramente come, dove e perché l’intelligenza artificiale viene utilizzata internamente e formulando piani d’azione per quando tali sistemi si comportano in modo imprevisto.
Ecco in sintesi le 12 raccomandazioni strategiche dell’azienda:
- Innanzitutto, sviluppare politiche interne di governance dell’IA. Queste politiche dovrebbero coprire considerazioni chiave, come come, dove, quando e perché la tecnologia può essere utilizzata e a quali modelli di dati è possibile accedere.
- Espandi il tuo orizzonte di possibilità. Secondo EY, i professionisti della sicurezza informatica hanno storicamente concentrato il loro utilizzo dell’intelligenza artificiale principalmente sulla difesa dagli attacchi. Andando avanti, dovrebbero abbracciare qualcosa di più offensiva mentalità, utilizzando l’intelligenza artificiale “per identificare e neutralizzare le minacce prima che possano avere un impatto sui sistemi”, ha scritto la società nel suo rapporto, attraverso esercizi come il red-teaming.
- Costruisci un quadro per misurare il ROI dell’uso interno dell’intelligenza artificiale che rappresenta guadagni quantitativi (come tempo e denaro risparmiati) e guadagni qualitativi (come una maggiore sicurezza).
- Avere un sistema in atto per monitorare continuamente le prestazioni dei tuoi sistemi di intelligenza artificiale interni e la loro conformità al panorama normativo in continua evoluzione.
- Tornando alla governance, assicurarsi che i dipendenti comprendano quali usi dell’intelligenza artificiale sono accettabili e quali noe come rispondere nei casi in cui i modelli iniziano advert agire in modi inaspettati.
- Essere in grado di farlo Visualizza l’uso interno dell’intelligenza artificiale da parte della tua organizzazione. Crea una dashboard a cui i dipendenti possano accedere per ottenere una panoramica rapida e chiara di quali modelli sono in gioco, i set di dati che stanno utilizzando, i requisiti di formazione e così by way of.
- Espandi il tuo portafoglio di piattaforme AI. Inizia advert adottare strumenti basati sull’intelligenza artificiale progettati per specifiche funzioni di sicurezza informatica, inclusi strumenti di risposta automatizzata come SmiForce e strumenti SIEM (sicurezza delle informazioni e della gestione degli eventi) come SentinelOne.
- Accuratamente mappare le origini dati utilizzate dai tuoi sistemi di intelligenza artificiale interni e dove si stanno recando, soprattutto se gestisci dati in più giurisdizioni con leggi various sull’intelligenza artificiale e sulla privateness (advert esempio, tra Stati Uniti e UE). Per un ulteriore livello di sicurezza, prendi in considerazione l’implementazione di architetture zero-trust che trattano qualsiasi persona o rete che tenta di accedere a un database interno come un potenziale utente malintenzionato che richiede l’autenticazione.
- Forma i tuoi dipendenti a rilevare le truffe generate dall’intelligenza artificialecome deepfake e attacchi di phishing.
- Colpisci e stimola i tuoi sistemi IA interni per provarci individuare e sostenere le vulnerabilità. Utilizza esercizi di red-teaming per simulare attacchi di iniezione tempestiva e altri scenari. Implementare misure di autenticazione a più fattori per gli agenti che svolgono compiti sensibili (idealmente, uno di questi fattori sarebbe un essere umano nel circuito per autenticare l’agente).
- Partecipa alla conversazione più ampia. Partecipa a conferenze ospitate da organizzazioni come il Nationwide Institute of Requirements and Expertise e l’Open Worldwide Utility Safety Venture per tenere il passo con gli sviluppi rivoluzionari nel campo in continua evoluzione della sicurezza informatica basata sull’intelligenza artificiale. Avvia conversazioni con altri esperti del settore sulle minacce emergenti e sulle tattiche adottate per proteggersi da esse.
- Attenzione allo scacchiere geopolitico. L’offerta limitata di GPU è diventata uno dei principali motivi di preoccupazione nella corsa tra Stati Uniti e Cina per costruire le rispettive industrie di intelligenza artificiale. Tieni d’occhio i cambiamenti nei controlli sulle esportazioni e altri fattori che potrebbero limitare la tua futura fornitura di chip e pianifica di conseguenza.












