Home Cronaca Una delle principali società di intelligenza artificiale sostiene che i laboratori cinesi...

Una delle principali società di intelligenza artificiale sostiene che i laboratori cinesi abbiano utilizzato account falsi da 24.000 per sottrarre tecnologia statunitense

19
0

NUOVOOra puoi ascoltare gli articoli di Fox Information!

PRIMO SU FOX: Mentre Washington rafforza i controlli sulle esportazioni per preservare il vantaggio dell’intelligenza artificiale americana, la principale azienda di intelligenza artificiale Anthropic afferma che tre laboratori di intelligenza artificiale con sede in Cina hanno trovato un altro modo per accedere alle capacità avanzate degli Stati Uniti.

L’azienda statunitense sostiene che DeepSeek, Moonshot AI e MiniMax hanno utilizzato circa 24.000 account fraudolenti per generare più di 16 milioni di scambi con il chatbot Claude di Anthropic in una campagna coordinata di “distillazione” progettata per estrarre risultati di modelli di alto valore, secondo un rapporto ottenuto per la prima volta da Fox Information Digital.

Secondo il rapporto, la minaccia va oltre la truffa delle aziende statunitensi. Anthropic sostiene che è improbabile che i modelli costruiti attraverso la distillazione su larga scala mantengano le barriere di sicurezza combine nei sistemi di frontiera statunitensi.

“I laboratori stranieri che distillano modelli americani possono poi inserire queste capacità non protette in sistemi militari, di intelligence e di sorveglianza, consentendo ai governi autoritari di utilizzare l’intelligenza artificiale di frontiera per operazioni informatiche offensive, campagne di disinformazione e sorveglianza di massa”, ha affermato Anthropic.

KYRSTEN SINEMA AVVERTE L’AVVERSARIO AMERICANO PROGRAMMERA’ L’AI CON “VALORI CINESI” SE L’AMERICA RIMANE INDIETRO NELLA CORSA TECNOLOGICA

Secondo quanto riferito, le forze armate statunitensi hanno utilizzato lo strumento AI di Anthropic, Claude, durante l’operazione che ha catturato il chief venezuelano Nicolás Maduro. (Kurt “CyberGuy” Knutsson)

Anthropic afferma di aver identificato le campagne utilizzando correlazioni di indirizzi IP, metadati delle richieste e indicatori di infrastruttura che differivano nettamente dal normale traffico dei clienti. L’attività, ha affermato la società, si è concentrata sulle capacità più avanzate di Claude, tra cui il ragionamento complesso, la codifica e l’uso di strumenti, piuttosto che sui suggerimenti casuali del consumatore.

“Abbiamo la massima fiducia che questi laboratori stessero conducendo attacchi di distillazione su larga scala”, ha dichiarato a Fox Information Digital Jacob Klein, responsabile dell’intelligence sulle minacce di Anthropic.

La distillazione è una tecnica comune di addestramento dell’intelligenza artificiale in cui un modello più piccolo o meno capace viene addestrato sui risultati di uno più forte.

I laboratori di frontiera spesso lo utilizzano internamente per creare versioni più economiche dei propri sistemi. Ma Anthropic afferma che le campagne scoperte non erano autorizzate e progettate per abbreviare anni di ricerca e di lavoro di apprendimento di rinforzo.

I DEMOCRATICI AVVERTONO CHE IL SEGNO VERDE DI TRUMP NELLE VENDITE DEI CHIP DI IA NVIDIA POTREBBE AUMENTARE IL VANTAGGIO MILITARE DELLA CINA

Secondo Klein, nel corso delle tre operazioni, sono stati generati più di 16 milioni di scambi in un periodo che va da settimane a mesi. Anthropic è intervenuto dopo aver rilevato l’attività, pur riconoscendo che la sfida più ampia è ancora in corso.

“Non c’è una soluzione immediata per fermare tutto questo”, ha detto Klein. “Lo consideriamo più grande di Anthropic.”

Sebbene la società non possa quantificare con precisione quanto i laboratori cinesi abbiano migliorato i loro sistemi, Klein ha affermato che i miglioramenti in termini di capacità sono stati “significativi” e “sostanziali”.

“Quello che possiamo dire con sicurezza è che ci hanno distillato su larga scala”, ha detto.

Il rapporto solleva nuove domande sull’efficacia degli attuali controlli sulle esportazioni statunitensi, che si sono in gran parte concentrati sulla limitazione dell’accesso della Cina ai chip avanzati di intelligenza artificiale e sui trasferimenti diretti dei pesi dei modelli.

Klein sostiene che la distillazione mira a un diverso livello di vantaggio competitivo: il processo di apprendimento per rinforzo che affina e affina i modelli di frontiera dopo che sono stati addestrati.

“Se pensi a come rimanere in vantaggio nella corsa all’intelligenza artificiale, il calcolo ne è una parte”, ha affermato Klein. “Ma l’apprendimento per rinforzo è sempre più fondamentale. La distillazione consente di estrarre tali capacità.”

Bandiera degli Stati Uniti e della Cina su un processore, microchip CPU sulla scheda madre, su sfondo blu della mappa del mondo, rendering 3d.

La Cina accusata di aver rubato la tecnologia IA statunitense. (Kritsapong Jieantaratip tramite Getty Photographs)

Ha sottolineato che i chip avanzati sono ancora “molto importanti”, ma ha affermato che i politici devono pensare alla questione “in modo olistico”.

Anthropic ha affermato di aver condiviso i suoi risultati con importanti enti governativi statunitensi e accomplice industriali. Klein ha suggerito che nominare pubblicamente i laboratori potrebbe indurre “un’azione ponderata del governo” o almeno un impegno con le aziende coinvolte.

Allo stesso tempo, la società ha affermato di non avere show che il governo cinese abbia coordinato direttamente le campagne. Ma i servizi proxy utilizzati per rivendere l’accesso ai modelli di intelligenza artificiale di frontiera degli Stati Uniti operano apertamente in Cina.

Washington ha cercato di rallentare il progresso dell’intelligenza artificiale in Cina limitando l’accesso ai chip dei pc più avanzati utilizzati per addestrare sistemi potenti. Ma Anthropic sostiene che anche senza accesso diretto a quei chip, i laboratori stranieri possono comunque copiare parti dell’intelligenza di un modello interrogandolo ripetutamente e addestrando i propri sistemi sulle risposte.

iStock per militari e intelligenza artificiale

Anthropic è stata sotto i riflettori nelle ultime settimane a causa delle tensioni segnalate con il Pentagono su come i suoi modelli di intelligenza artificiale possano essere utilizzati nelle operazioni militari. Il segretario alla guerra Pete Hegseth incontrerà il CEO Dario Amodei per discutere i termini che regolano l’uso militare di Claude. (iStock)

Il 12 febbraio, OpenAI ha inviato una nota al comitato ristretto della Digicam del Partito comunista cinese sostenendo che la startup cinese di intelligenza artificiale DeepSeek ha sistematicamente “rubato” la sua proprietà intellettuale attraverso una distillazione su larga scala. Secondo OpenAI, i dipendenti di DeepSeek hanno utilizzato router di terze parti e tecniche di mascheramento per aggirare le restrizioni di accesso geografiche e raccogliere risultati da ChatGPT.

CLICCA QUI PER SCARICARE L’APP FOX NEWS

Lo stesso giorno, il Menace Intelligence Group di Google ha avvertito di quelli che ha descritto come “attacchi di distillazione” contro i suoi modelli Gemini. Google ha affermato di aver osservato campagne che utilizzavano più di 100.000 suggerimenti volti a replicare le capacità di ragionamento dei Gemelli. L’azienda ha attribuito l’attività a “società del settore privato” e advert attori allineati allo Stato.

Insieme, i rapporti suggeriscono che la distillazione è emersa come un punto critico crescente nella corsa all’intelligenza artificiale tra Stati Uniti e Cina, sollevando interrogativi su come i sistemi americani di frontiera possano essere protetti anche quando i trasferimenti diretti di pesi di modelli e chip all’avanguardia sono limitati.

Anthropic è stata sotto i riflettori nelle ultime settimane a causa delle tensioni segnalate con il Pentagono su come i suoi modelli di intelligenza artificiale possano essere utilizzati nelle operazioni militari. Il segretario alla guerra Pete Hegseth incontrerà il CEO Dario Amodei per discutere i termini che regolano l’uso militare di Claude. Funzionari dell’amministrazione hanno detto che Anthropic ha posto domande sul ruolo del modello in un’operazione statunitense contro il chief venezuelano Nicolás Maduro, suggerendo che la società non approverebbe l’utilizzo del suo prodotto, mentre Anthropic ha insistito sul fatto che i disaccordi riguardavano la sorveglianza di massa e le armi completamente autonome.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here