Claude di Anthropic riceverà una nuova costituzione. Mercoledì l’azienda annunciato che il documento, che fornisce una “descrizione dettagliata della visione di Anthropic per i valori e il comportamento di Claude”, sta ricevendo una riscrittura che introdurrà i principi generali che l’azienda si aspetta che il suo chatbot segua piuttosto che l’insieme più rigoroso di regole su cui si basava nelle passate iterazioni del documento.
La logica del cambiamento adottata da Anthropic sembra abbastanza solida. Sebbene regole specifiche creino un comportamento più affidabile e prevedibile da parte dei chatbot, sono anche limitanti. “Pensiamo che, per essere buoni attori nel mondo, i modelli di intelligenza artificiale come Claude debbano capire perché vogliamo che si comportino in un certo modo, e dobbiamo spiegarglielo piuttosto che semplicemente specificare cosa vogliamo che facciano”, ha spiegato l’azienda. “Se vogliamo che i modelli esercitino un buon giudizio in un’ampia gamma di situazioni nuove, devono essere in grado di generalizzare, di applicare principi ampi anziché seguire meccanicamente regole specifiche”.
Abbastanza giusto, anche se la panoramica della nuova costituzione sembra lasciare molto a desiderare in termini di specificità. I quattro principi guida di Anthropic per Claude includono la garanzia che i suoi modelli sottostanti siano “ampiamente sicuri”, “ampiamente etici”, “conformi alle linee guida di Anthropic” e “veramente utili”. Questi sono… beh, principi generali. L’azienda afferma che gran parte della costituzione è dedicata a spiegare questi principi e offre qualche dettaglio in più (advert esempio, essere etici significa “essere onesti, agire secondo buoni valori ed evitare azioni inappropriate, pericolose o dannose”), ma anche questo sembra piuttosto generico.
L’azienda ha anche affermato di aver dedicato una sezione della costituzione alla natura di Claude a causa della “nostra incertezza sul fatto che Claude possa avere una sorta di coscienza o standing morale (ora o in futuro)”. Apparentemente l’azienda spera che, definendo questo nei suoi documenti fondamentali, possa proteggere “la sicurezza psicologica, il senso di sé e il benessere di Claude”.
Il cambiamento nella costituzione di Claude e l’apparente adesione all’thought che un giorno potrebbe avere una coscienza indipendente arriva solo un giorno dopo il CEO e fondatore di Anthropic Dario Amodeo ha parlato in un panel del World Economic Forum intitolato “The Day After AGI” e ha suggerito che l’intelligenza artificiale raggiungerà livelli di competenze da “premio Nobel” in molti campi entro il 2027.
Questo abbassamento del sipario su come funziona Claude (o dovrebbe funzionare) avviene alle condizioni di Anthropic. L’ultima volta che abbiamo visto cosa stava succedendo lì dietro, è arrivato da un utente che è riuscito a chiedere al chatbot di produrre quello che ha chiamato un “documento dell’anima”. Quel documento, che è stato rivelato a dicembre, non period un documento di formazione ufficiale, ha detto Anthropic a Gizmodo, ma period una prima iterazione della costituzione che la società chiamava internamente la sua “anima”. Anthropic ha anche affermato che il suo piano sarà sempre quello di pubblicare la costituzione completa quando sarà pronta.
Se Claude sarà pronto a operare senza i paraurti alzati è tutta un’altra questione, ma sembra che troveremo la risposta in un modo o nell’altro.











