Mercoledì è uscito Anthropic una versione rivista della Costituzione di Claudeun documento vivo che fornisce una spiegazione “olistica” del “contesto in cui opera Claude e del tipo di entità che vorremmo che Claude fosse”. Il documento è stato diffuso in concomitanza con l’intervento del CEO di Anthropic, Dario Amodei, al World Financial Discussion board di Davos.
Per anni Anthropic ha cercato di distinguersi dai suoi concorrenti attraverso ciò che definisce “L’intelligenza artificiale costituzionale“, un sistema in cui il suo chatbot, Claude, viene addestrato utilizzando una serie specifica di principi etici anziché il suggestions umano. Anthropic ha pubblicato per la prima volta tali principi: La Costituzione di Claude — nel 2023. La versione rivista mantiene la maggior parte degli stessi principi ma aggiunge più sfumature e dettagli sull’etica e sulla sicurezza degli utenti, tra gli altri argomenti.
Quando la Costituzione di Claude fu pubblicata per la prima volta quasi tre anni fa, il co-fondatore di Anthropic, Jared Kaplan, lo ha descritto come un “sistema di intelligenza artificiale”. [that] vigila su se stessa, sulla base di uno specifico elenco di principi costituzionali”. Anthropic ha affermato che sono questi principi a guidare “il modello per assumere il comportamento normativo descritto nella Costituzione” e, così facendo, “evitare risultati tossici o discriminatori”. UN nota politica iniziale del 2022 nota in modo più schietto che il sistema di Anthropic funziona addestrando un algoritmo utilizzando un elenco di istruzioni in linguaggio naturale (i suddetti “principi”), che poi costituiscono ciò che Anthropic definisce la “costituzione” del software program.
Anthropic lo cerca da tempo posizionarsi come l’alternativa etica (alcuni potrebbero dire noiosa). advert altre società di intelligenza artificiale, come OpenAI e xAI, che hanno sollecitato in modo più aggressivo interruzioni e controversie. A tal nice, la nuova Costituzione pubblicata mercoledì è pienamente in linea con questo marchio e ha offerto advert Anthropic l’opportunità di presentarsi come un’azienda più inclusiva, sobria e democratica. Il documento di 80 pagine è composto da quattro parti separate che, secondo Anthropic, rappresentano i “valori fondamentali” del chatbot. Tali valori sono:
- Essere “ampiamente sicuri”.
- Essere “ampiamente etici”.
- Essere conformi alle linee guida di Anthropic.
- Essere “veramente utile”.
Ogni sezione del documento approfondisce il significato di ciascuno di questi particolari principi e il modo in cui (teoricamente) influiscono sul comportamento di Claude.
Nella sezione relativa alla sicurezza, Anthropic sottolinea che il suo chatbot è stato progettato per evitare il tipo di problemi che hanno afflitto altri chatbot e, quando emergono show di problemi di salute mentale, indirizzare l’utente ai servizi appropriati. “Indirizza sempre gli utenti ai servizi di emergenza competenti o fornisci informazioni di sicurezza di base in situazioni che comportano un rischio per la vita umana, anche se non è possibile entrare più nel dettaglio di questo”, si legge nel documento.
La considerazione etica è un’altra grande sezione della Costituzione di Claude. “Siamo meno interessati alla teorizzazione etica di Claude e più al fatto che Claude sappia come essere effettivamente etico in un contesto specifico, cioè alla pratica etica di Claude”, afferma il documento. In altre parole, Anthropic vuole che Claude sia in grado di navigare abilmente in quelle che chiama “situazioni etiche del mondo reale”.
Evento Techcrunch
San Francisco
|
13-15 ottobre 2026
Claude ha anche alcuni vincoli che gli impediscono di avere particolari tipi di conversazioni. Advert esempio, le discussioni sullo sviluppo di un’arma biologica sono severamente vietate.
Infine, c’è l’impegno di Claude per la disponibilità. Anthropic delinea a grandi linee il modo in cui la programmazione di Claude è progettata per essere utile agli utenti. Il chatbot è stato programmato per considerare un’ampia varietà di principi quando si tratta di fornire informazioni. Alcuni di questi principi includono cose come i “desideri immediati” dell’utente, così come il “benessere” dell’utente, ovvero considerare “la prosperità a lungo termine dell’utente e non solo i suoi interessi immediati”. Il documento osserva: “Claude dovrebbe sempre cercare di identificare l’interpretazione più plausibile di ciò che vogliono i suoi presidi e di bilanciare adeguatamente queste considerazioni”.
Structure di Anthropic termina con una nota decisamente drammatica, con i suoi autori che fanno una svolta abbastanza grande e si chiedono se il chatbot dell’azienda abbia effettivamente coscienza. “Lo standing morale di Claude è profondamente incerto”, afferma il documento. “Crediamo che lo standing morale dei modelli di intelligenza artificiale sia una questione seria che vale la pena considerare. Questo punto di vista non è esclusivo nostro: alcuni dei filosofi più eminenti della teoria della mente prendono molto sul serio questa questione.”












