Giovedì, il CTO del Dipartimento della Difesa, Emil Michael, ha affermato che i modelli di intelligenza artificiale di Claude di Anthropic “inquinerebbero” la catena di approvvigionamento dell’agenzia perché hanno “una diversa preferenza politica” incorporata.
“Non possiamo avere un’azienda che ha una preferenza politica diversa, insita nel modello attraverso la sua costituzione, la sua anima, le sue preferenze politiche, inquina la catena di fornitura in modo che i nostri combattenti di guerra ricevano armi inefficaci, armature inefficaci, protezione inefficace”, ha detto Michael a “Squawk Field” della CNBC. “È proprio da qui che deriva la designazione del rischio della catena di approvvigionamento.”
Anthropic è la prima azienda americana advert essere pubblicamente etichettata come un rischio per la catena di fornitura, una mossa straordinaria che storicamente è stata riservata agli avversari stranieri. La designazione richiederà agli appaltatori e ai fornitori della difesa di certificare di non utilizzare Claude nel loro lavoro con il Pentagono.
Lunedì la startup ha citato in giudizio l’amministrazione Trump, definendo le azioni del governo “senza precedenti e illegali”. Anthropic ha affermato in una dichiarazione che la società è stata danneggiata “irreparabilmente” e che contratti per centinaia di milioni di dollari sono in pericolo.
I commenti di Michael di giovedì sono la spiegazione più chiara che il DOD ha offerto sul motivo per cui ritiene che Anthropic sia un rischio per la catena di approvvigionamento. L’agenzia ha inviato un lettera ufficiale per informare la società della designazione all’inizio di questo mese, ma la lettera non delineava quale rischio Claude rappresenta per la sicurezza nazionale.
“Questo non vuole essere punitivo”, ha detto Michael giovedì.
Ha aggiunto che Anthropic ha “un’enorme attività commerciale” e che una “piccola frazione” proviene dal governo degli Stati Uniti. Michael ha anche respinto l’affermazione di Anthropic secondo cui il governo avrebbe attivamente contattato le aziende e avrebbe detto loro di non utilizzare Anthropic, definendo il concetto “voci”.
“Il Dipartimento della Guerra non si rivolge alle aziende per dire loro cosa fare, finché non è nella nostra catena di fornitura”, ha detto.
Anthropic è stata fondata nel 2021 da un gruppo di ricercatori e dirigenti che hanno disertato da OpenAI. L’azienda è conosciuta soprattutto per la sua famiglia di modelli Claude e ha avuto successo fin dall’inizio vendendo a grandi aziende, incluso il DOD.
La startup ha redatto e pubblicato una “costituzione” che utilizza per aiutare a formare i suoi principali modelli Claude advert accesso generale. Anthropic ha affermato che la Costituzione gioca un “ruolo cruciale” in questo processo e che il suo contenuto “modella direttamente il comportamento di Claude”, secondo il suo sito internet.
Anthropic ha condiviso la versione più recente della costituzione di Claude nel mese di gennaio.
“In esso, spieghiamo cosa pensiamo significhi per Claude essere d’aiuto pur rimanendo generalmente sicuro, etico e conforme alle nostre linee guida”, ha affermato Anthropic in un put up sul weblog. “La Costituzione fornisce a Claude informazioni sulla sua situazione e offre consigli su come affrontare situazioni difficili e compromessi, come bilanciare l’onestà con la compassione e la protezione delle informazioni sensibili”.











