Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- Gli strumenti Anthropic, OpenAI e Google possono automatizzare il debug del codice.
- Ma la sicurezza informatica è un problema troppo complesso perché questi strumenti possano risolverlo.
- Il più grande contributo dell’intelligenza artificiale potrebbe essere quello di ridurre i difetti software program evitabili.
Puoi fidarti delle aziende che stanno costruendo l’intelligenza artificiale per rendere la tecnologia sicura per il mondo?
Questa è una delle domande più urgenti che devi affrontare quest’anno come utente dell’intelligenza artificiale, e non è una questione accademica. Man mano che le implementazioni della tecnologia nel mondo reale proliferano, stanno emergendo nuovi tipi di rischi con un impatto potenzialmente catastrofico, che richiedono nuove soluzioni.
Inoltre: 10 modi in cui l’IA può infliggere danni senza precedenti nel 2026
In soccorso arrivano i principali creatori di modelli AI, OpenAI, Anthropic e Google. Tutti e tre offrono strumenti che potrebbero mitigare i guasti e le violazioni della sicurezza negli LLM e nei programmi agenti basati su di essi.
(Divulgazione: Ziff Davis, la società madre di ZDNET, ha intentato una causa nell’aprile 2025 contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)
Gli osservatori di Wall Road ritengono che esista una reale possibilità che gli strumenti delle aziende di intelligenza artificiale sostituiscano le tradizionali offerte di sicurezza informatica di aziende come Palo Alto Networks, Zscaler e Examine Level Software program. Anche un campo correlato, chiamato osservabilità, è minacciato, comprese aziende come Dynatrace che vendono strumenti per rilevare guasti di sistema.
Inoltre: perché i backup crittografati potrebbero fallire nell’period dei ransomware guidati dall’intelligenza artificiale
L’concept che la maggior parte o tutti i problemi software program del mondo verranno risolti dai creatori di software program alla fonte, prima che i programmi entrino in circolazione, è davvero allettante. Niente più negazioni di servizio, niente più ransomware, niente più attacchi alla catena di fornitura se si agisce bene fin dall’inizio.
Solo che non è così semplice.
La sfida è maggiore dei potenziali risultati di qualsiasi strumento o approccio. I rischi del software program, compresi i modelli e gli agenti di intelligenza artificiale, hanno una portata troppo ampia perché le aziende possano risolverli da sole.
Ci vorranno tutti gli strumenti tradizionali di sicurezza e osservabilità per risolvere ciò che affligge l’intelligenza artificiale. Ci vorranno anche nuove forme di ingegneria dei dati. In effetti, la soluzione potrebbe anche richiedere una riprogettazione fondamentale degli stessi programmi di intelligenza artificiale per affrontare le trigger profonde del rischio.
L’intelligenza artificiale potrebbe rendere la sicurezza informatica obsoleta?
I titoli azionari delle aziende di sicurezza informatica sono stati scossi di recente quando Anthropic svelato Claude Code Safety, un’estensione del suo popolare strumento Claude Code che può automatizzare la scrittura di alcuni codici.
Anthropic ha affermato che Claude Code Safety consentirà “ai workforce di trovare e risolvere problemi di sicurezza che spesso i metodi tradizionali non riescono a cogliere”, con una dashboard che mostra potenziali problemi e propone patch per risolverli.
Inoltre: le minacce dell’intelligenza artificiale peggioreranno: 6 modi per eguagliare la tenacia dei tuoi avversari digitali
L’intento è che un analista umano esamini i risultati e le proposte per prendere la decisione finale. Claude Code Safety è “disponibile in un’anteprima di ricerca limitata”.
Una sessione terminale con Claude Code Safety di Anthropic.
Antropico
Risultato di oltre un anno di ricerca sulla sicurezza informatica, Claude Code Safety non si limita a sorvegliare il codice creato con Claude Code. Anthropic ha utilizzato lo strumento per individuare centinaia di vulnerabilità “che non erano state rilevate per decenni, nonostante anni di revisione da parte di esperti”.
Allo stesso modo, OpenAI in ottobre svelato Aardvark, quello che l’azienda definisce un “ricercatore di sicurezza agente basato su GPT-5”. Al momento nella beta privata, Aardvark intraprende lo stesso tipo di scansione automatica del codice promessa da Anthropic. “Aardvark funziona monitorando i commit e le modifiche alle basi di codice, identificando le vulnerabilità, come potrebbero essere sfruttate e proponendo correzioni”, ha affermato OpenAI.
Come funziona Aardvark di OpenAI.
Antropico
Tre settimane prima del lancio di Aardvark, l’unità di ricerca DeepMind di Google svelato CodeMender, che l’azienda ha definito “un nuovo agente basato sull’intelligenza artificiale che migliora automaticamente la sicurezza del codice”.
Come lo strumento di Anthropic, CodeMender non è pensato semplicemente per proteggere le creazioni di Google, ma per essere un ampio strumento di sicurezza. In sei mesi di sviluppo, ha osservato DeepMind, CodeMender aveva “già trasferito 72 correzioni di sicurezza a progetti open supply, inclusi alcuni fino a 4,5 milioni di righe di codice”.
A differenza di Anthropic e OpenAI, DeepMind enfatizza non solo la proposta di correzioni, ma anche l’applicazione automatica delle correzioni al codice. Finora il programma è utilizzato solo dai ricercatori di DeepMind. DeepMind ha sottolineato che “Attualmente, tutte le patch generate da CodeMender vengono esaminate da ricercatori umani prima di essere inviate a monte”.
Come funziona CodeMender di Google DeepMind.
Mente profonda
Tutte e tre le offerte, concorda la maggior parte degli osservatori, minacciano immediatamente il ruolo degli strumenti in categorie come “AppSec”, “Analisi della composizione del software program” e “Take a look at statico della sicurezza delle applicazioni”. Questa capacità copre aziende e strumenti come Snyk, Jfrog, Mend, GitHub Dependabot, Semgrep, Sonatype, Checkmarx e Veracode.
L’introduzione di Claude Code Safety “ha provocato una rinnovata debolezza tra i nomi di software program advert alta crescita, in particolare nell’osservabilità e nella sicurezza del cloud”, ha scritto William Energy, un analista software program della società di investimento RW Baird & Co.
Inoltre: perché gli agenti di intelligenza artificiale aziendale potrebbero diventare la massima minaccia interna
È ragionevole supporre che, come sottolineano Anthropic, OpenAI e DeepMind, probabilmente vorrai lavorare con strumenti provenienti dagli stessi fornitori che stanno costruendo il codice che sta proliferando il software program basato su LLM che sostituirà sempre più le tradizionali applicazioni in pacchetto.
La tecnologia ha l’ulteriore vantaggio di essere integrata nelle piattaforme di codifica di queste aziende. Claude Code Safety e Aardvark sono già integrati, in forma di anteprima, negli strumenti Claude Code e OpenAI Codex. Sebbene CodeMender sia ancora un progetto di ricerca, è chiaro che advert un certo punto potrebbe far parte dello strumento di sviluppo AI Studio di Google per Gemini, Imagen e gli altri suoi modelli.
Un problema più grande di un singolo strumento
Per quanto utili si dimostrino questi strumenti, la sicurezza informatica è un campo troppo vasto e il problema è troppo vasto nella portata e troppo profondo nelle sue trigger profonde perché gli strumenti di scansione del codice possano rendere sicuri gli output dell’intelligenza artificiale.
Nell’ambito della scansione del codice sorgente, dell’analisi dei problemi e dell’applicazione di patch o riprogettazione, il problema è più grande di un singolo pezzo di codice sorgente. Il software program moderno è conosciuto nel settore come un “artefatto”, una composizione di numerosi file provenienti da molte fonti. Un determinato programma embrace librerie, framework e altri elementi che devono funzionare in modo affidabile insieme.
In un recente publish sul weblog, il CTO e co-fondatore di JFrog, Yoav Landman, ha spiegato che “Il codice non è più il prodotto finale. È un passaggio intermedio. L’output reale – ciò che viene spedito, distribuito ed eseguito – è un artefatto binario: un’immagine del contenitore. Un pacchetto. Una libreria. Una versione compilata. ”
Inoltre: implementare l’intelligenza artificiale? 5 tattiche di sicurezza che la tua azienda non può sbagliare e perché
Nel più ampio ambito della tecnologia, la scansione e la correzione del codice rappresentano una piccola parte di ciò che fanno le aziende di sicurezza informatica, come Palo Alto, Zscaler e Examine Level, o di ciò che fanno Dynatrace, Splunk e Datadog in termini di osservabilità.
I firewall esistono a un livello più elementare rispetto a un’applicazione che protegge il perimetro di una rete di laptop. Il loro ruolo è tenere lontani i malintenzionati prima che possano avvicinarsi al codice vulnerabile. Allo stesso modo, i cosiddetti strumenti di sicurezza degli endpoint garantiscono che i laptop host compromessi non diventino piattaforme di lancio per un attacco. Nel frattempo, uno strumento “Safe Entry Service Edge” è un software program basato su cloud che identifica e autentica gli utenti su una rete in modo che solo le parti giuste interagiscano con i programmi.
Nessuno di questi problemi viene risolto avendo meno codice sorgente pieno di bug. Strumenti come “Safety Data and Occasion Administration” (SIEM) si trovano al di sopra della rete e delle app. Questi strumenti comunicano a un professionista della sicurezza cosa sta succedendo in un parco laptop in tempo reale.
Anche se è utile correggere il codice prima che venga spedito, SIEM fa cose che la scansione del codice non potrà mai fare. Lo strumento mostra le cose mentre si sviluppano che richiedono attenzione urgente perché stanno già causando problemi. Se il codice è difettoso, può attendere e probabilmente dovrebbe attendere. Quando qualcosa di potenzialmente catastrofico accade in un’intera rete di laptop, il tempo è essenziale.
Inoltre: l’intelligenza artificiale si sta silenziosamente avvelenando e spingendo i modelli verso il collasso, ma esiste una cura
Le aziende che vendono SIEM, come Palo Alto e Zscaler, stanno utilizzando l’intelligenza artificiale per accelerare il lavoro svolto dai professionisti della sicurezza. Tuttavia, il software program non sostituirà la “gola da soffocare” quando le cose vanno male. I fornitori di sicurezza esistono perché hanno persone che prendono il telefono nel cuore della notte e lavorano contro il tempo per trovare e risolvere problemi che sono più grandi di un singolo pezzo di codice errato.
Anthropic e OpenAI non sono generalmente noti per rispondere al telefono, anche se l’unità Cloud di Google può offrire le proprie operazioni di sicurezza come aiuto aggiuntivo.
AI, guarisci te stesso
A un livello più profondo, recenti ricerche hanno dimostrato che la frontiera dell’intelligenza artificiale, i sistemi advert agenti, sono essi stessi afflitti da errori di ingegneria e progettazione potenzialmente catastrofici.
I ricercatori del MIT la scorsa settimana hanno spiegato che numerosi sistemi di agenti di intelligenza artificiale venduti a livello commerciale non dispongono di funzionalità di base come controlli di sicurezza pubblicati o di un mezzo per chiudere gli agenti non autorizzati.
Anche: Gli agenti IA sono veloci, sciolti e fuori controllo, secondo uno studio del MIT
I ricercatori guidati dalla Northeastern College hanno recentemente rivelato i risultati di estesi sforzi del workforce rosso in cui più agenti di intelligenza artificiale interagiscono, per lo più senza che una persona sia coinvolta.
Hanno scoperto che ne è derivato il “caos”: bot che cercavano di chiudere altri bot; bot che “condividono” codice dannoso tra loro per espandere la “superficie di minaccia” del rischio informatico; e bot che rafforzano reciprocamente cattive pratiche di sicurezza.
Un modo per affrontare questo caos è creare nuovi set di dati di addestramento dell’IA raccolti in natura. La società di software program e servizi Innodata è un fornitore che aiuta i giganti dell’intelligenza artificiale a farlo.
“Gli avversari sono estremamente creativi e stanno escogitando cose che i modelli addestrati in ambienti di laboratorio non hanno mai visto prima”, ha detto a ZDNET Jack Abuhoff, CEO di Innodata. “Che cosa fare al riguardo? Sono necessari attacchi avversari di alta qualità, semanticamente diversificati e scalabili con cui sottoporre a stress check gli agenti.”
Anche: Server distrutti e attacchi DoS: cosa può succedere quando gli agenti AI di OpenClaw interagiscono
Poiché l’intelligenza artificiale e gli agenti hanno i loro difetti, un analista azionario della Barclays Financial institution che si occupa dei fornitori di sicurezza informatica, Saket Kalia, ha recentemente riflettuto: “Se lo sviluppatore del codice offre lo strumento di sicurezza del codice, è come la volpe a guardia del pollaio?”
Usare l’intelligenza artificiale per migliorare il codice
L’intelligenza artificiale verrà inevitabilmente utilizzata per aiutare a correggere il codice. Il contributo più grande che Claude Code Safety, Aardvark e CodeMender possono offrire non è quello di risolvere magicamente la sicurezza informatica, ma di ridurre l’incredibile numero di guasti software program evitabili.
In un articolo nel numero di novembre della rivista accademica IEEE Spectrum, intitolato “Trilioni spesi e grandi progetti software program stanno ancora fallendo”, il cronista di lunga knowledge del software program Robert N. Charette ha sottolineato che 5,6 trilioni di dollari vengono spesi ogni anno nell’IT, ma “le percentuali di successo del software program non sono migliorate in modo significativo negli ultimi due decenni”.
Anche per l’intelligenza artificiale è una grande sfida. Come ha scritto Charette, “ci sono limiti rigidi a ciò che l’intelligenza artificiale può portare sul tavolo” per risolvere l’ingegneria del software program. “Come sanno i professionisti del software program, i progetti IT soffrono di abbastanza allucinazioni e delusioni gestionali senza che l’intelligenza artificiale si aggiunga advert essi.”












