Anthropic accusa tre società cinesi di intelligenza artificiale di “campagne su scala industriale” per “estrarre illegalmente” la sua tecnologia utilizzando attacchi di distillazione. Anthropic afferma che queste aziende hanno creato 24.000 account fraudolenti per nascondere questi sforzi.
In un post sul blog che descrive in dettaglio gli attacchiAnthropic ha nominato tre aziende di intelligenza artificiale, tra cui DeepSeek, il produttore dei famosi modelli di intelligenza artificiale DeepSeek. Anthropic ha esplicitamente inquadrato l’attacco come una questione di sicurezza nazionale.
“Abbiamo identificato campagne su scala industriale da parte di tre laboratori di intelligenza artificiale – DeepSeek, Moonshot e MiniMax – per estrarre illecitamente le capacità di Claude per migliorare i propri modelli”, si legge nel publish sul weblog. “Questi laboratori hanno generato oltre 16 milioni di scambi con Claude attraverso circa 24.000 account fraudolenti, in violazione dei nostri termini di servizio e delle restrizioni di accesso regionali.”
Questo Tweet non è al momento disponibile. Potrebbe essere in fase di caricamento o è stato rimosso.
A gennaio, OpenAI ha anche accusato DeepSeek di aver intrapreso attacchi di distillazione, rubandone di fatto la tecnologia.
A quel tempo, molte persone non reagirono con simpatia, ma con schernopoiché OpenAI e altre società di intelligenza artificiale hanno affermato di avere il diritto assoluto di addestrare i propri modelli su opere protette da copyright senza autorizzazione o pagamento. In genere, i sostenitori dell’industria dell’intelligenza artificiale affermano di non avere altra scelta se non quella di formarsi sulle opere protette da copyright perché i concorrenti cinesi sicuramente ignoreranno comunque le leggi sul copyright.
“Non ci si può aspettare che tu abbia un programma di intelligenza artificiale di successo quando ogni singolo articolo, libro o qualsiasi altra cosa che hai letto o studiato, sei tenuto a pagare”, ha detto il presidente Donald Trump in un evento sull’intelligenza artificiale nel luglio 2025. “Quando una persona legge un libro o un articolo, ha acquisito una grande conoscenza. Ciò non significa che stai violando le leggi sul copyright o che devi stringere accordi con ogni fornitore di contenuti.” Ha anche aggiunto: “La Cina non lo sta facendo”.
Anthropic rilascia Claude Sonnet 4.6: prestazioni di riferimento, come provarlo
Ciò mette le aziende di intelligenza artificiale nella scomoda posizione di affermare che la loro proprietà intellettuale è vietata per la formazione dei modelli, impegnandosi anche loro stesse in comportamenti simili.
Velocità della luce mashable
Cosa sono gli attacchi di distillazione?
La distillazione è una tecnica di formazione comune per modelli linguistici di grandi dimensioni; tuttavia, può anche essere utilizzato per decodificare in modo efficace alcuni aspetti della tecnologia. Nella distillazione, i ricercatori dell’intelligenza artificiale eseguono ripetutamente variazioni dello stesso immediate per vedere come risponde un particolare modello.
“La distillazione è un metodo di formazione ampiamente utilizzato e legittimo. Advert esempio, i laboratori di intelligenza artificiale di frontiera distillano abitualmente i propri modelli per creare versioni più piccole ed economiche per i propri clienti. Ma la distillazione può essere utilizzata anche per scopi illeciti: i concorrenti possono usarla per acquisire potenti capacità da altri laboratori in una frazione del tempo, e a una frazione del costo, che sarebbe necessario per svilupparli in modo indipendente.”
Le aziende cinesi hanno la reputazione di ignorare palesemente i trattati sulla proprietà intellettuale e le leggi sul copyright tecnologia di reverse engineering da parte di aziende occidentali. Tuttavia, anche se Anthropic afferma che gli attacchi alla distillazione scoperti hanno violato i suoi termini di servizio, non è chiaro se abbiano violato le leggi internazionali, o quale rimedio abbia Anthropic oltre alla sospensione degli account in violazione.
Per prevenire attacchi come questo, Anthropic ha chiesto la cooperazione tra aziende di intelligenza artificiale, agenzie governative e altre parti interessate.
Le aziende di intelligenza artificiale come Anthropic, xAI, Meta e OpenAI sono nel mezzo di uno dei più grandi increase di spesa mai visti, con decine di miliardi di dollari investiti in infrastrutture di intelligenza artificiale, information heart e ricerca e sviluppo. Se le società straniere rivali di intelligenza artificiale potessero ricreare a buon mercato la loro tecnologia LLM utilizzando la distillazione, avrebbero chiaramente un vantaggio rispetto ai loro rivali statunitensi.
“Queste campagne stanno crescendo in intensità e sofisticatezza”, si legge nel publish sul weblog. “La finestra per agire è ristretta e la minaccia si estende oltre ogni singola azienda o regione. Affrontarla richiederà un’azione rapida e coordinata tra gli operatori del settore, i politici e la comunità globale dell’intelligenza artificiale”.
Mashable ha contattato Anthropic con domande sugli attacchi alla distillazione e aggiorneremo questo articolo se riceveremo una risposta.
Divulgazione: Ziff Davis, la società madre di Mashable, nell’aprile 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.













