I chatbot AI con navigazione internet possono essere utilizzati in modo improprio come relè di malware, sulla base di a Demo di Check Point Research. Invece di chiamare il malware verso un tradizionale server di comando, può utilizzare il recupero dell’URL di un chatbot per estrarre istruzioni da una pagina dannosa, quindi riportare la risposta alla macchina infetta.
In molti ambienti, il traffico verso le principali destinazioni IA è già trattato come una routine, il che può lasciare che il comando e il controllo svaniscano nel normale utilizzo del internet. Lo stesso percorso può essere utilizzato anche per spostare i dati.
Microsoft ha affrontato il lavoro in una dichiarazione e lo ha inquadrato come un problema di comunicazione post-compromesso. Ha affermato che una volta che un dispositivo viene compromesso, gli aggressori proveranno a utilizzare tutti i servizi disponibili, compresi quelli basati sull’intelligenza artificiale, e ha sollecitato controlli approfonditi di difesa per prevenire l’infezione e ridurre ciò che accade dopo.
La demo trasforma la chat in un relè
Il concetto è semplice. Il malware richiede all’interfaccia internet AI di caricare un URL, riassumere ciò che trova, quindi preleva il testo restituito per un’istruzione incorporata.
Examine Level ha affermato di aver testato la tecnica contro Grok e Microsoft Copilot attraverso le loro interfacce internet. Un dettaglio chiave è l’accesso, il flusso è progettato per evitare le API degli sviluppatori e negli scenari testati può funzionare senza una chiave API, riducendo l’attrito per l’uso improprio.
Per il furto di dati il meccanismo può funzionare al contrario. Un metodo delineato consiste nell’inserire i dati nei parametri di question dell’URL, quindi fare affidamento sulla richiesta attivata dall’intelligenza artificiale per consegnarli all’infrastruttura avversaria. La codifica di base può oscurare ulteriormente ciò che viene inviato, il che rende meno affidabile il semplice filtraggio dei contenuti.
Perché è più difficile da individuare
Questa non è una nuova classe di malware. È un modello di comando e controllo familiare racchiuso in un servizio che molte aziende stanno abilitando attivamente. Se i servizi AI abilitati alla navigazione vengono lasciati aperti per impostazione predefinita, un sistema infetto può provare a nascondersi dietro domini che sembrano a basso rischio.
Examine Level evidenzia anche quanto siano comuni gli impianti idraulici. Il suo esempio utilizza WebView2 come componente del browser incorporato nelle moderne macchine Home windows. Nel flusso di lavoro descritto, un programma raccoglie i dettagli di base dell’host, apre una visualizzazione internet nascosta su un servizio AI, attiva una richiesta URL, quindi analizza la risposta per estrarre il comando successivo. Ciò può assomigliare al comportamento normale di un’app, non a un segnale evidente.
Cosa dovrebbero fare i group di sicurezza
Tratta i chatbot abilitati al Internet come qualsiasi altra app cloud advert alta affidabilità di cui si può abusare dopo essere stata compromessa. Se consentito, monitora i modelli di automazione, i caricamenti ripetuti di URL, la cadenza dispari dei immediate o i volumi di traffico che non corrispondono all’uso umano.
Le funzionalità di navigazione AI possono appartenere a dispositivi gestiti e ruoli specifici, non a tutte le macchine. La questione aperta è la scala, questa è una demo e non quantifica i tassi di successo rispetto alle flotte rafforzate. Ciò che vedremo dopo è se i fornitori aggiungeranno un rilevamento dell’automazione più efficace nella chat internet e se i difensori inizieranno a considerare le destinazioni AI come potenziali canali post-compromesso.













