Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- La portata della minaccia informatica continua advert aumentare nell’period dell’intelligenza artificiale.
- I professionisti devono sviluppare tattiche per abbracciare l’intelligenza artificiale senza rischi.
- Condividi le tue conoscenze, collabora con i accomplice e utilizza l’automazione.
Le stesse capacità che rendono l’intelligenza artificiale utile la rendono anche sfruttabile. In effetti, il ritmo con cui le tecnologie emergenti avanzano intensifica di minuto in minuto questa scomoda realtà.
Anche se i professionisti potrebbero non voler esporre le proprie organizzazioni a nuove minacce, riconoscono anche il rischio di rimanere indietro mentre altre aziende cercano di ottenere un vantaggio competitivo implementando l’intelligenza artificiale.
Inoltre: secondo uno studio del MIT, gli agenti IA sono veloci, sciolti e fuori controllo
Quindi, cosa dovresti fare riguardo a questo enigma impegnativo? Cinque chief aziendali condividono cinque modi in cui i professionisti possono garantire la massima sicurezza nell’period dell’intelligenza artificiale.
1. Condividi le tue conoscenze
Barry Panayi, group chief information officer di Howden, un gruppo di intermediari assicurativi, ha affermato che uno dei grandi vantaggi di lavorare per la sua organizzazione è che molti membri dello workers conoscono i rischi informatici associati all’intelligenza artificiale.
“Poiché forniamo assicurazioni informatiche come azienda, abbiamo persone che comprendono questo settore”, ha affermato. “Quindi, non è solo una persona tecnologica che capisce la sicurezza, e non è solo uno specialista di dati o intelligenza artificiale.”
In qualità di dirigente incaricato di garantire che l’intelligenza artificiale venga implementata in modo sicuro e protetto, Panayi ha incoraggiato i professionisti di tutte le organizzazioni a potenziare le proprie credenziali informatiche: “Penso che le persone debbano saperne di più sulla sicurezza nei loro ruoli”.
Inoltre: l’intelligenza artificiale renderà la sicurezza informatica obsoleta o la Silicon Valley sta di nuovo confabulando?
Panayi ha affermato che la natura sfaccettata della sicurezza informatica basata sull’intelligenza artificiale significa che i professionisti dovrebbero aspettarsi l’emergere di nuovi ruoli e responsabilità, con le persone che condividono le conoscenze e si scambiano tra i group per creare un approccio più potente.
“So che i migliori specialisti di sicurezza sono quelli che parlano con i miei group di intelligenza artificiale e chiedono loro: ‘Come funzionerebbe e come funzionerebbe?'”, ha affermato.
“E i group di intelligenza artificiale, al contrario, parlano con esperti di sicurezza delle informazioni e si assicurano che i loro processi non siano un ostacolo mentre cerchiamo di rendere i sistemi più sicuri.”
2. Torna alle origini
Nick Pearson, CIO presso lo specialista tecnologico Ricoh Europe, ha affermato che la gestione della sicurezza informatica nell’period dell’intelligenza artificiale richiede un approccio multidimensionale – e trova nuove dimensioni quasi ogni giorno.
Pearson ha dichiarato a ZDNET che i professionisti potrebbero sentirsi sopraffatti dall’ampiezza delle minacce affiliate alla tecnologia emergente.
Eppure le sue conversazioni con altri esperti, tra cui il CISO di Ricoh Europe, suggeriscono che è importante contestualizzare le minacce informatiche legate all’intelligenza artificiale.
“La grande sicurezza si basa ancora sulle basi delle buone pratiche”, ha affermato. “Quindi, garantiamo la sicurezza in base alla progettazione, disponiamo di normal, di capacità e di group che analizzano, controllano e bilanciano.”
Inoltre: perché gli agenti di intelligenza artificiale aziendale potrebbero diventare la massima minaccia interna
Pearson ha affermato che i professionisti dovrebbero garantire che i dati siano gestiti e governati in modo efficace. Invece di reinventare la ruota, trova un modo per assorbire l’intelligenza artificiale nei tuoi framework esistenti.
“Altrimenti ci si può ritrovare con qualcosa di separato da quella che, advert esempio, è una buona pratica in materia di fuga di dati, che, nel nostro caso, esiste da 15 anni”, ha affermato.
3. Riconoscere il potere dell’assistenza
Martin Hardy, portafoglio informatico e direttore dell’architettura presso Royal Mail, ha affermato che una componente cruciale per l’approccio informatico della sua azienda è un discussion board interno sulla governance dell’intelligenza artificiale.
“Non impediamo alle persone di utilizzare l’intelligenza artificiale, ma quando integriamo l’intelligenza artificiale nelle applicazioni, ci stiamo assicurando che abbia un certo livello di governance attorno advert essa”, ha affermato.
“Capire dove si trovano i nostri dati e quali dati verranno inseriti in quelle soluzioni di intelligenza artificiale è la chiave del successo, così come ciò che poi chiediamo di fare a quelle soluzioni.”
Inoltre: le minacce dell’intelligenza artificiale peggioreranno: 6 modi per eguagliare la tenacia dei tuoi avversari digitali
Pur non volendo sottovalutare il potenziale potere della tecnologia emergente, Hardy ha dichiarato a ZDNET che è fondamentale che i professionisti considerino l’intelligenza artificiale come uno strumento piuttosto che come un effective in sé.
Sfruttare l’intelligenza artificiale in modo efficace e sicuro significa gestire i dati e decifrare potenziali casi d’uso.
“Ci saranno casi in cui le persone useranno l’intelligenza artificiale e commetteranno errori”, ha detto. “Il successo consiste nel cambiare la mentalità in una mentalità che suggerisca: ‘Questo è un aiuto, non la risposta.'”
4. Aumentare la consapevolezza del jaywalking
John-David Lovelock, capo meteorologo e illustre analista VP di Gartner, ha affermato che i chief digitali e i professionisti aziendali devono considerare le minacce informatiche quando investono nell’intelligenza artificiale fino al 2026.
Lovelock ha dichiarato a ZDNET che un problema chiave è che le organizzazioni non possono ancora beneficiare dell’accesso a una sicurezza IA misurabile, definibile e certificabile, il che significa che è improbabile che i requisiti di sicurezza degli utenti finali vengano soddisfatti da molti dei loro fornitori.
“Con l’intelligenza artificiale non siamo al punto in cui possiamo dire: ‘Ha una cintura di sicurezza? Sopravviverà a un incidente a 25 miglia all’ora?'” ha detto.
Inoltre: 10 modi in cui l’IA può infliggere danni senza precedenti nel 2026
Lovelock ha paragonato lo stato attuale della sicurezza dell’intelligenza artificiale all’aumento del jaywalking negli anni ’20, quando La nascente industria automobilistica fece pressioni sulle agenzie governative affinché approvassero nuove leggi.
Inoltre: perché i backup crittografati potrebbero fallire nell’period dei ransomware guidati dall’intelligenza artificiale
“Abbiamo cambiato la responsabilità da qualcuno che stava esprimendo il proprio diritto di precedenza ed è stato vittima dell’incidente a qualcuno che avrebbe dovuto saperlo meglio e ha effettivamente causato l’incidente”, ha detto.
“L’AI Jaywalking è il tentativo di fare la stessa cosa: è un tentativo di garantire che la ghiandaia sia responsabile di tutto ciò che va bene o male con il loro uso dell’IA.”
In breve, gli attuali accordi con i fornitori renderanno probabilmente gli utenti finali responsabili della sicurezza dell’intelligenza artificiale, non il fornitore di tecnologia, e i professionisti devono essere consapevoli di questa posizione.
“L’accettazione di questa situazione è fondamentale”, ha affermato. “Abbiamo visto questa tendenza con altre tecnologie. Non è una novità, in un certo senso, ma è una realtà con l’intelligenza artificiale, quindi almeno sii consapevole.”
5. Rendi l’intelligenza artificiale parte del tuo processo
Jeff Love, CTO presso la Skilled Rodeo Cowboys Affiliation (PRCA), ha recentemente spiegato a ZDNET come la sua organizzazione, che ha quasi 100 anni di storia, ha utilizzato l’intelligenza artificiale per superare la sua insolubile sfida IT legacy.
Quando i modelli di intelligenza artificiale non sono riusciti a penetrare il codice precedente, Love si è rivolto a Zencoder, una piattaforma di agenti che analizza la logica aziendale e la traduce in spiegazioni in inglese semplice.
Dopo aver abbracciato la tecnologia emergente, Love ha dichiarato a ZDNET che il suo group ora può utilizzare l’intelligenza artificiale come parte dei suoi processi per eliminare potenziali problemi di sicurezza e ha incoraggiato altri professionisti a cercare opportunità simili.
“Quando sorgono problemi, o anche mentre stiamo rilasciando un nuovo codice, possiamo dire: ‘Sai una cosa? Controlla questo per problemi di sicurezza. Controlla questo per cattiva logica,'” ha detto.
“L’intelligenza artificiale è più brava di un essere umano a svolgere questo lavoro perché considera la panoramica completa. Siamo così concentrati su aree specifiche che non riusciamo sempre a vedere il quadro generale.”
Love ha affermato che l’intelligenza artificiale può anche aiutare il suo group a considerare questioni che altrimenti avrebbero potuto trascurare.
“Controlla sempre se ci sono rischi per la sicurezza. E ci sono volte in cui ho pubblicato del codice e cube: ‘Sai una cosa, questo potrebbe essere un po’ migliore'”, ha detto. “Nel mondo di oggi, devi preoccuparti dei rischi per la sicurezza.”













