Home Tecnologia La prossima grande minaccia per le auto è una backdoor dell’intelligenza artificiale...

La prossima grande minaccia per le auto è una backdoor dell’intelligenza artificiale che non puoi rilevare

12
0

Dimentica il paraurti. Il vero pericolo per le auto a guida autonoma potrebbe essere un hack che dorme nell’intelligenza artificiale del veicolo, in attesa del momento giusto per colpire. Georgia Tech i ricercatori hanno scoperto una nuova vulnerabilità chiamata VillainNet, che espone un punto cieco critico nei sistemi autonomi.

La backdoor rimane inattiva finché condizioni specifiche non la riattivano. Quindi funziona il 99% delle volte. Un criminale potrebbe programmare l’attivazione di quasi qualsiasi cosa, advert esempio un taxi a guida autonoma che risponde alla pioggia. Gli attuali strumenti di sicurezza non sono in grado di individuare questa minaccia. La tua auto potrebbe essere compromessa e non lo saprai mai finché non sarà troppo tardi.

Come VillainNet si nasconde in bella vista

Il difetto risiede nell’architettura della moderna intelligenza artificiale. Le auto a guida autonoma si basano su ciò che i ricercatori chiamano superreti, sistemi enormi che scambiano moduli più piccoli dentro e fuori a seconda del compito. Consideralo come una cassetta degli attrezzi digitale con miliardi di strumenti specializzati.

Il ricercatore capo David Oygenblik, un Ph.D. studente della Georgia Tech, ha detto che un aggressore deve solo avvelenare un piccolo strumento in quella scatola. Il codice dannoso rimane invisibile in innumerevoli configurazioni normali finché l’auto non richiama quel modulo specifico. Quindi si attiva. Lo spazio di ricerca è sconcertante. Oygenblik lo ha paragonato a trovare un singolo in the past in un pagliaio con 10 quintilioni di cannucce.

Lo state of affairs degli ostaggi è reale

Questo non è un esercizio teorico. Il staff delinea una possibilità spaventosa. Un hacker potrebbe programmare un taxi autonomo in modo che aspetti la pioggia, per poi prendere il controllo quando l’auto si adatta alle strade bagnate.

Una volta dentro, potrebbero tenere in ostaggio i passeggeri ed esigere il pagamento, minacciando di schiantarsi. Il metodo funziona. Nei take a look at di laboratorio, VillainNet ha avuto successo nel 99% dei casi quando attivato, senza lasciare traccia altrimenti.

Perché questa soluzione è quasi impossibile

La ricerca è arrivata a un’importante conferenza sulla sicurezza nell’ottobre 2025. Il messaggio per le case automobilistiche è schietto. Rilevare una backdoor di VillainNet richiederebbe una potenza di calcolo 66 volte maggiore di quella consentita dai metodi attuali.

Quella ricerca non è pratica oggi. Il staff definisce il proprio lavoro un campanello d’allarme, spingendo per nuove difese prima che questi attacchi si spostino dai laboratori alle strade pubbliche.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here