Home Tecnologia Le capacità di hacking dell’intelligenza artificiale si stanno avvicinando a un “punto...

Le capacità di hacking dell’intelligenza artificiale si stanno avvicinando a un “punto di inflessione”

19
0

Vlad Ionescu e Ariel Herbert-Voss, cofondatori della startup di sicurezza informatica CorriSybilsono rimasti momentaneamente confusi quando il loro strumento di intelligenza artificiale, Sybil, li ha avvisati di un punto debole nei sistemi di un cliente lo scorso novembre.

Sybil utilizza un combine di diversi modelli di intelligenza artificiale, oltre advert alcuni trucchi tecnici proprietari, per scansionare i sistemi informatici alla ricerca di problemi che gli hacker potrebbero sfruttare, come un server senza patch o un database configurato in modo errato.

In questo caso, Sybil ha segnalato un problema con l’implementazione da parte del cliente di GraphQL federato, un linguaggio utilizzato per specificare la modalità di accesso ai dati sul Net tramite le interfacce di programmazione delle applicazioni (API). Il problema significava che il cliente stava inavvertitamente esponendo informazioni riservate.

Ciò che lasciava perplessi Ionescu e Herbert-Voss period che individuare il problema richiedeva una conoscenza straordinariamente approfondita di diversi sistemi e di come questi sistemi interagiscono. RunSybil afferma di aver riscontrato lo stesso problema con altre implementazioni di GraphQL, prima che qualcun altro lo rendesse pubblico. “Abbiamo setacciato Web e non esisteva”, afferma Herbert-Voss. “Scoprirlo è stato un passo avanti nel ragionamento in termini di capacità dei modelli: un cambiamento radicale.”

La situazione indica un rischio crescente. Man mano che i modelli di intelligenza artificiale continuano a diventare più intelligenti, anche la loro capacità di individuare bug zero-day e altre vulnerabilità continua a crescere. La stessa intelligenza che può essere utilizzata per rilevare le vulnerabilità può essere utilizzata anche per sfruttarle.

Canzone dell’albauno scienziato informatico della UC Berkeley specializzato sia in intelligenza artificiale che in sicurezza, afferma che i recenti progressi nell’intelligenza artificiale hanno prodotto modelli che sono migliori nel trovare difetti. Il ragionamento simulato, che prevede la suddivisione dei problemi in parti costitutive, e l’intelligenza artificiale degli agenti, come la ricerca sul net o l’installazione e l’esecuzione di strumenti software program, hanno amplificato le capacità informatiche dei modelli.

“Le capacità di sicurezza informatica dei modelli di frontiera sono aumentate drasticamente negli ultimi mesi”, afferma. “Questo è un punto di svolta.”

L’anno scorso, Track ha cocreato un benchmark chiamato CyberGym per determinare quanto bene i modelli linguistici di grandi dimensioni trovino le vulnerabilità nei grandi progetti software program open supply. CyberGym embrace 1.507 vulnerabilità observe trovate in 188 progetti.

Nel luglio 2025, Claude Sonnet 4 di Anthropic è riuscito a trovare circa il 20% delle vulnerabilità nel benchmark. Nell’ottobre 2025, un nuovo modello, Claude Sonnet 4.5, period in grado di identificarne il 30%. “Gli agenti IA sono in grado di trovare zero-day e a costi molto bassi”, afferma Track.

Track afferma che questa tendenza mostra la necessità di nuove contromisure, tra cui l’aiuto dell’intelligenza artificiale agli esperti di sicurezza informatica. “Dobbiamo pensare a come far effettivamente sì che l’intelligenza artificiale aiuti di più sul lato della difesa e si possono esplorare approcci diversi”, afferma.

Un’thought è che le aziende di intelligenza artificiale di frontiera condividano modelli con i ricercatori di sicurezza prima del lancio, in modo che possano utilizzare i modelli per trovare bug e proteggere i sistemi prima di un rilascio generale.

Un’altra contromisura, cube Track, è ripensare innanzitutto il modo in cui viene costruito il software program. Il suo laboratorio ha dimostrato che è possibile utilizzare l’intelligenza artificiale per generare codice più sicuro di quello utilizzato oggi dalla maggior parte dei programmatori. “Nel lungo termine riteniamo che questo approccio secure-by-design aiuterà davvero i difensori”, afferma Track.

Il crew RunSybil afferma che, a breve termine, le capacità di codifica dei modelli di intelligenza artificiale potrebbero far sì che gli hacker prendano il sopravvento. “L’intelligenza artificiale può generare azioni su un pc e generare codice, e queste sono due cose che fanno gli hacker”, afferma Herbert-Voss. “Se tali capacità accelerano, ciò significa che anche le azioni offensive sulla sicurezza accelereranno”.


Questa è un’edizione di Will Knight E-newsletter del Laboratorio AI. Leggi le publication precedenti Qui.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here