Antropico è accusando tre società cinesi di intelligenza artificiale hanno creato più di 24.000 account falsi con il loro modello Claude AI per migliorare i propri modelli.
I laboratori – DeepSeek, Moonshot AI e MiniMax – avrebbero generato più di 16 milioni di scambi con Claude attraverso quegli account utilizzando una tecnica chiamata “distillazione”. Anthropic ha affermato che i laboratori “hanno preso di mira le capacità più differenziate di Claude: ragionamento agente, uso di strumenti e codifica”.
Le accuse arrivano nel contesto dei dibattiti su quanto rigorosamente applicare i controlli sulle esportazioni di chip IA avanzati, una politica volta a frenare lo sviluppo dell’IA in Cina.
La distillazione è un metodo di formazione comune che i laboratori di intelligenza artificiale utilizzano sui propri modelli per creare versioni più piccole ed economiche, ma i concorrenti possono utilizzarlo per copiare essenzialmente i compiti di altri laboratori. OpenAI ha inviato una nota ai legislatori della Digital camera all’inizio di questo mese accusando DeepSeek di utilizzare la distillazione per imitare i suoi prodotti.
DeepSeek ha fatto scalpore per la prima volta un anno fa quando ha rilasciato il suo modello di ragionamento open supply R1 che quasi eguagliava le prestazioni dei laboratori di frontiera americani a una frazione del costo. Si prevede che DeepSeek rilascerà presto DeepSeek V4, il suo ultimo modello, che secondo quanto riferito può superare Claude di Anthropic e ChatGPT di OpenAI nella codifica.
La portata di ciascun attacco differiva nella portata. Anthropic ha monitorato più di 150.000 scambi da DeepSeek che sembravano mirati a migliorare la logica e l’allineamento fondamentali, in particolare attorno advert different sicure alla censura alle question sensibili alle politiche.
Moonshot AI ha avuto più di 3,4 milioni di scambi mirati al ragionamento degli agenti e all’uso degli strumenti, alla codifica e all’analisi dei dati, allo sviluppo di agenti per l’uso del pc e alla visione artificiale. Il mese scorso, l’azienda ha rilasciato un nuovo modello open supply Kimi K2.5 e un agente di codifica.
Evento Techcrunch
Boston, MA
|
9 giugno 2026
I 13 milioni di scambi di MiniMax miravano alla codifica degli agenti, all’uso e all’orchestrazione degli strumenti. Anthropic ha affermato di essere stata in grado di osservare MiniMax in azione mentre reindirizzava quasi la metà del suo traffico verso le funzionalità di sifone dell’ultimo modello Claude quando è stato lanciato.
Anthropic afferma che continuerà a investire in difese che rendano gli attacchi alla distillazione più difficili da eseguire e più facili da identificare, ma chiede “una risposta coordinata tra il settore dell’intelligenza artificiale, i fornitori di servizi cloud e i responsabili politici”.
Gli attacchi alla distillazione arrivano in un momento in cui le esportazioni americane di chip verso la Cina sono ancora oggetto di accesi dibattiti. Il mese scorso, l’amministrazione Trump ha formalmente consentito advert aziende statunitensi come Nvidia di esportare chip IA avanzati (come l’H200) in Cina. I critici sostengono che questo allentamento dei controlli sulle esportazioni aumenta la capacità di calcolo dell’intelligenza artificiale della Cina in un momento critico nella corsa globale per il dominio dell’intelligenza artificiale.
Anthropic afferma che la scala di estrazione eseguita da DeepSeek, MiniMax e Moonshot “richiede l’accesso a chip avanzati”.
“Gli attacchi alla distillazione rafforzano quindi la logica alla base dei controlli sulle esportazioni: l’accesso limitato ai chip limita sia la formazione diretta dei modelli che la portata della distillazione illecita”, secondo il weblog di Anthropic.
Dmitri Alperovitch, presidente del assume tank Silverado Coverage Accelerator e co-fondatore di CrowdStrike, ha detto a TechCrunch di non essere sorpreso di vedere questi attacchi.
“È ormai chiaro da tempo che parte della ragione del rapido progresso dei modelli di intelligenza artificiale cinese è stato il furto attraverso la distillazione di modelli di frontiera statunitensi. Ora lo sappiamo per certo”, ha detto Alperovitch. “Questo dovrebbe darci ragioni ancora più convincenti per rifiutarci di vendere chip AI a qualcuno di questi [companies], il che non farebbe altro che avvantaggiarli ulteriormente.
Anthropic ha anche affermato che la distillazione non solo minaccia di indebolire il dominio americano sull’intelligenza artificiale, ma potrebbe anche creare rischi per la sicurezza nazionale.
“Anthropic e altre aziende statunitensi costruiscono sistemi che impediscono advert attori statali e non statali di utilizzare l’intelligenza artificiale, advert esempio, per sviluppare armi biologiche o svolgere attività informatiche dannose”, si legge nel put up sul weblog di Anthropic. “È improbabile che i modelli costruiti attraverso la distillazione illecita mantengano tali garanzie, il che significa che le capacità pericolose possono proliferare con molte protezioni completamente get rid of”.
Anthropic ha sottolineato che i governi autoritari utilizzano l’intelligenza artificiale di frontiera per cose come “operazioni informatiche offensive, campagne di disinformazione e sorveglianza di massa”, un rischio che si moltiplica se tali modelli sono open supply.
TechCrunch ha contattato DeepSeek, MiniMax e Moonshot per un commento.












