Home Cronaca Anthropic si unisce a OpenAI nella segnalazione delle campagne di distillazione su...

Anthropic si unisce a OpenAI nella segnalazione delle campagne di distillazione su “scala industriale” da parte di aziende cinesi di intelligenza artificiale

20
0

Il emblem Anthropic esposto sul palco durante il Builder Summit dell’azienda a Bangalore, in India, lunedì 16 febbraio 2026. Fotografo: Samyukta Lakshmi/Bloomberg tramite Getty Pictures

Bloomberg | Bloomberg | Immagini Getty

Lunedì Anthropic ha accusato tre imprese cinesi di intelligenza artificiale di essersi impegnate in campagne coordinate per estrarre informazioni dal suo modello, rendendola l’ultima azienda tecnologica americana a sostenere tali affermazioni dopo che OpenAI ha presentato denunce simili.

Secondo a dichiarazione di Anthropic, DeepSeek, Moonshot AI e MiniMax – le tre aziende in questione – si sono impegnate in campagne concertate di “attacco alla distillazione”, inondando Claude con grandi volumi di suggerimenti appositamente realizzati per addestrare modelli proprietari.

Attraverso la distillazione, i modelli di intelligenza artificiale più piccoli sono in grado di imitare le prestazioni di modelli più grandi e pre-addestrati estraendo conoscenza dal modello meglio addestrato, una tecnica particolarmente utile per i group più piccoli con meno risorse.

Nonostante le restrizioni sui servizi di Anthropic impediscano l’accesso commerciale a Claude in Cina, le tre aziende avrebbero utilizzato servizi proxy commerciali per eludere le restrizioni di Anthropic, consentendo l’accesso a reti che gestiscono decine di migliaia di account Claude contemporaneamente.

“Una volta garantito l’accesso, i laboratori generano grandi volumi di suggerimenti attentamente realizzati progettati per estrarre funzionalità specifiche dal modello”, ha affermato Anthropic nella dichiarazione.

Le risposte di Claude a questi suggerimenti vengono coltivate in massa per l’addestramento diretto dei modelli cinesi o per eseguire un processo noto come apprendimento per rinforzo, un processo advert alta intensità di dati in cui i modelli di intelligenza artificiale apprendono il processo decisionale attraverso show ed errori, in assenza di guida umana..

Anthropic ha stimato che le tre aziende cinesi siano state collettivamente in grado di generare oltre 16 milioni di scambi con Claude da circa 24.000 conti creati in modo fraudolento. Delle tre aziende, Anthropic ha riscontrato che MiniMax ha generato la maggior parte del traffico, con oltre 13 milioni di scambi.

DeepSeek, Moonshot AI e MiniMax devono ancora rispondere a una richiesta di commento da parte della CNBC.

Non la prima volta

Anthropic si unisce al crescente coro di aziende americane che esprimono preoccupazione per la distillazione delle aziende cinesi di intelligenza artificiale.

All’inizio di questo mese, OpenAI di Sam Altman ha presentato un open lettera ai legislatori statunitensi, sostenendo di aver osservato attività “indicative di tentativi in ​​corso da parte di DeepSeek di distillare modelli di frontiera di OpenAI e altri laboratori di frontiera statunitensi, anche attraverso metodi nuovi e offuscati”.

La società ha segnalato show di distillazione da parte di aziende cinesi dall’inizio dello scorso anno, con il lancio del primo modello cinese DeepSeek, che gli utenti hanno trovato sorprendentemente simile a ChatGPT, il Monetary Instances riportato nel gennaio 2025, citando addetti ai lavori di OpenAI.

La distillazione, tuttavia, non è una pratica insolita nel settore dell’intelligenza artificiale.

Anthropic ha riconosciuto nella dichiarazione di lunedì che le aziende di intelligenza artificiale “distillano abitualmente i propri modelli per creare versioni più piccole ed economiche”.

L’azienda, tuttavia, period preoccupata del vantaggio competitivo che le aziende rivali avrebbero potuto ottenere, poiché la pratica poteva essere utilizzata “per acquisire potenti capacità da altri laboratori in una frazione del tempo, e a una frazione del costo, necessario per svilupparle in modo indipendente.”

Nelle loro rispettive dichiarazioni, Anthropic e OpenAI hanno inquadrato la distillazione di queste aziende cinesi come una minaccia alla sicurezza nazionale.

Come OpenAI, che ha descritto le pratiche di DeepSeek come “distillazione contraddittoria”, Anthropic ha espresso preoccupazione per la possibilità che “governi autoritari implementino[ing] IA di frontiera per operazioni informatiche offensive, campagne di disinformazione e sorveglianza di massa.”

Non è chiaro, tuttavia, quanto queste dichiarazioni riflettano reali preoccupazioni in materia di sicurezza rispetto al desiderio di preservare la management competitiva delle società americane di intelligenza artificiale.

Alcuni utenti on-line si sono affrettati a farlo sottolineare le somiglianze tra le affermazioni di Anthropic e il suo stesso utilizzo della distillazione per addestrare modelli proprietari.

Anthropic definisce da tempo la “management informatica come una priorità per la sicurezza nazionale”, in modo coerente sostenendo per controlli più severi sulle esportazioni di chip IA avanzati in Cina, secondo Rui Ma della società di consulenza Tech Buzz China.

“Che sia intenzionale o meno, la narrativa del trasferimento illecito di capacità rafforza la tesi a favore di restrizioni più extreme sui chip”, ha aggiunto Ma.

Lo stesso giorno della dichiarazione di Anthropic, Reuters segnalato che gli Stati Uniti avevano trovato show di DeepSeek che addestrava il suo modello di intelligenza artificiale sul chip Blackwell di punta di Nvidia, apparentemente violando i controlli sulle esportazioni, secondo alti funzionari anonimi.

Tali rapporti alimentano le preoccupazioni di un’amministrazione che appare sempre più preoccupata per i rapidi progressi della Cina nel settore dell’intelligenza artificiale, soprattutto perché i guadagni della Cina deriverebbero dall’uso di sistemi sviluppati dagli americani.

Venerdì scorso, la Casa Bianca ha annunciato l’istituzione del Peace Corps, un’iniziativa all’interno del Peace Corps istituita per promuovere gli interessi americani sull’intelligenza artificiale all’estero e per aiutare le nazioni accomplice advert adottare sistemi all’avanguardia.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here