L’period dell’intelligenza artificiale non è stata particolarmente eccezionale per la sicurezza informatica. Sappiamo che i siti Net e le app con codifica Vibe sono stati un focolaio di difetti di sicurezza che rendono le piattaforme vulnerabili agli attacchi. Si scopre che anche generare vibrazioni sulle tue password ti mette a rischio. Nuova ricerca della società di sicurezza informatica Irregular hanno scoperto che le password generate da modelli linguistici di grandi dimensioni appaiono forti ma sono “fondamentalmente insicure” e sorprendentemente facili da indovinare.
Per determinare la capacità dei modelli di intelligenza artificiale più diffusi di fungere da generatore di password, Irregular ha chiesto a Claude, ChatGPT e Gemini di generare password sicure di 16 caratteri che includono caratteri speciali, numeri e lettere e, in alcuni casi, passphrase. I modelli sono in grado di emettere stringhe di caratteri che appaiono come qualsiasi password generata automaticamente dal tuo gestore di password o dagli strumenti per password integrati forniti da Google o Apple. Secondo dama online come KeePass.
Eppure si sono rivelati piuttosto fragili. Perché? Perché i modelli linguistici di grandi dimensioni non sono particolarmente adatti alla randomizzazione. Advert esempio, quando i ricercatori hanno chiesto al modello Claude Opus 4.6 di Anthropic di generare 50 password univoche, in realtà ha utilizzato uno schema molto prevedibile. Ogni password generata iniziava con una lettera, la maggior parte delle quali period una “G” maiuscola. Il secondo carattere period quasi sempre la cifra “7”. I caratteri “L”, “9”, “m”, “2”, “$” e “#” apparivano in tutte le 50 password e la maggior parte dell’alfabeto non appariva mai in nessuna delle 50 opzioni.
Altri modelli avevano problemi simili. Il ChatGPT di OpenAI iniziava quasi ogni singola password con il carattere “v” e quasi la metà di tutte le password utilizzavano “Q” come secondo carattere. Come Claude, ChatGPT si è bloccato con un sottoinsieme ristretto di caratteri durante la generazione di una password, invece di utilizzare l’alfabeto completo. Gemini di Google aveva gli stessi schemi, con la maggior parte delle sue password che iniziavano con una “K” maiuscola o minuscola. I caratteri che seguivano erano quasi sempre una variazione di “#”, “P” o “9”.
I ricercatori hanno anche notato che i LLM sembravano fare scelte che avrebbero fatto apparire le password più casuali ma in realtà rivelavano una mancanza di casualità. I ricercatori hanno notato che non c’erano casi di ripetizione dei caratteri nelle password generate. Sebbene ciò faccia sembrare gli output più casuali a prima vista, Irregular ha osservato: “Probabilisticamente, ciò sarebbe molto improbabile se le password fossero veramente casuali”.
La forza della password è generalmente misurata in bit di entropia, che ha lo scopo di misurare quante ipotesi sarebbero necessarie per decifrare una password. Advert esempio, se potessi scegliere solo tra due password, diciamo “11111” o “12345”, c’è una probabilità del 50% che qualcuno indovini la tua password. Ciò significa che c’è 1 bit di entropia. Se la tua password può contenere una qualsiasi delle 1.000 parole, una persona impiegherebbe fino a 1.000 tentativi per indovinarla, ovvero circa 10 bit di entropia. Avendo un’elevata varietà di opzioni per ciascun carattere all’interno di una password, crei più bit di entropia, il che rende più difficile forzare la password. Una password con 20 bit di entropia genera circa un milione di possibilità, ma che può essere violato in pochi secondi se l’aggressore utilizza GPU moderne e di fascia alta per generare ipotesi. Nel frattempo, una password con 100 bit di entropia richiederebbe trilioni di anni per essere decifrata.
Quindi, quanto sono dannose le password generate da LLM? Secondo i ricercatori, se una password veramente sicura producesse 6,13 bit di entropia per carattere, gli output generati da LLM sarebbero più vicini a 2,08 bit di entropia. Se una password normal e veramente sicura di 16 caratteri avesse circa 98 bit di entropia, gli LLM sarebbero in grado di emettere solo password con circa 27 bit di entropia, rendendoli estremamente suscettibili agli attacchi di forza bruta.
Sarebbe abbastanza facile evitarlo come individuo: semplicemente non utilizzare un LLM per generare la tua password. Gemini offre anche un messaggio che ti cube di non utilizzare le password che crea per account sensibili. Ma sempre più spesso le persone scaricano la codifica e altri compiti sugli agenti IA. E anche questi agenti sono inclini a fare affidamento sugli LLM per creare password. I ricercatori hanno affermato di essere stati in grado di trovare modelli comuni creati da LLM in natura effettuando una ricerca su GitHub e altri documenti tecnici, il che significa che ci sono app e servizi protetti da password là fuori che aspettano solo di essere violati.
Irregular non sembra pensare che questo sia un problema che possa essere risolto con un semplice aggiornamento. “Le persone e gli agenti di codifica non dovrebbero fare affidamento sugli LLM per generare password. Le password generate tramite l’output diretto LLM sono fondamentalmente deboli e questo non è risolvibile tramite suggerimenti o aggiustamenti della temperatura: gli LLM sono ottimizzati per produrre output prevedibili e plausibili, il che è incompatibile con la generazione di password sicure”, l’azienda disse.
Gizmodo ha contattato Anthropic, OpenAI e Google per commentare i risultati dei ricercatori, ma non ha ricevuto risposta al momento della pubblicazione.










