Nessuno dei grandi laboratori di intelligenza artificiale è tuo amico, quindi non eccitarti troppo, ma il Pentagono sì. secondo una storia di Axios di origine anonimaminacciando di smettere di usare gli strumenti di intelligenza artificiale antropica a causa della “insistenza dell’azienda nel mantenere alcune limitazioni su come l’esercito utilizza i suoi modelli”.
La fonte del Pentagono che ha parlato con Axios a quanto pare ha detto che di tutte le società di intelligenza artificiale con cui ha a che fare, Anthropic è la più “ideologica”.
Tieni presente che Anthropic ha creato Claude e Claude Code, e che è iniziato uno schema inquietante in cui rilascia una modifica per i suoi sistemi di codifica delle vibrazioni e Wall Road vende obbedientemente azioni in qualunque tipo di attività i suoi ultimi strumenti stiano cercando di sostituire. Questa è un’azienda che vuole chiaramente conquistare il mondo, quindi potrebbe non essere una buona concept trarre conforto da molti storie su come le persone che lavorano lì siano un po’ a disagio con ciò che comporta la conquista del mondo.
L’anno scorso, Antropico ha strombazzato la sua eccitazione di aver vinto il contratto da 200 milioni di dollari del Pentagono, definendolo “un nuovo capitolo nell’impegno di Anthropic a sostegno della sicurezza nazionale degli Stati Uniti”.
Ma in ogni caso, una cosa interessante della storia di Axios è che le due aree di preoccupazione citate dal rappresentante di Anthropic, “limiti rigidi alle armi completamente autonome” e “sorveglianza di massa interna”, erano anche due aree di preoccupazione menzionate dal fondatore e amministratore delegato Dario Amodei su Podcast di Interesting Times di Ross Douthatdiffuso tre giorni fa dal New York Instances.
Gran parte di questo è spiegato anche nel saggio di Amodei del mese scorso, intitolato “L’adolescenza della tecnologia”.
Ma proprio la scorsa settimana su Attention-grabbing Instances, Amodei ha suggerito che qualsiasi presidente, non solo Donald Trump, potrebbe cedere troppo potere alla tecnologia di difesa dell’intelligenza artificiale, ed è per questo che cube di essere “preoccupato per lo sciame di droni autonomi” e osserva che “le protezioni costituzionali nelle nostre strutture militari dipendono dall’concept che ci siano esseri umani che, speriamo, disobbedirebbero agli ordini illegali. Con armi completamente autonome, non necessariamente abbiamo quelle protezioni. “
Amodei ha anche delineato cosa potrebbe comportare un abuso dell’intelligenza artificiale per la sorveglianza domestica di massa:
“Non è illegale posizionare telecamere ovunque nello spazio pubblico e registrare ogni conversazione. È uno spazio pubblico: non hai diritto alla privateness in uno spazio pubblico. Ma oggi il governo non è in grado di registrare tutto e dargli un senso. Con l’intelligenza artificiale, la capacità di trascrivere il discorso, esaminarlo e correlarlo tutto, potresti dire: questa persona è un membro dell’opposizione.”
Perdere Claude sarebbe davvero importante, secondo Axios. Il funzionario della Difesa che ha fatto trapelare advert Axios ha affermato che “le altre aziende modello sono appena dietro” Claude.
Quale sia esattamente l’oggetto del contendere rimane un po’ confuso nella storia di Axios, che (respiro profondo) afferma che il Pentagono sostiene che Anthropic abbia cercato informazioni da Palantir in merito se la sua tecnologia fosse parte dell’attacco americano del 3 gennaio al Venezuela. Anthropic nega di aver espresso preoccupazione per il fatto che “riguardano le operazioni correnti.” Ciononostante, il funzionario del Pentagono afferma che la questione è stata sollevata “in modo story da implicare che potrebbero disapprovare l’utilizzo del loro software program, perché ovviamente durante quel raid c’period fuoco cinetico e delle persone sono state uccise”.
Inoltre, resta altrettanto poco chiaro come qualcosa come Claude Code, che consente a chiunque di creare software program se ne ha voglia, possa essere incorporato nella perforazione di corpi umani con proiettili nel mondo reale.












