Home Tecnologia Antropico a Claude: fai buone scelte!

Antropico a Claude: fai buone scelte!

178
0

Bloomberg / Collaboratore / Bloomberg tramite Getty

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • Anthropic ha pubblicato mercoledì una nuova “costituzione” per Claude.
  • Usa un linguaggio che suggerisce che Claude un giorno potrebbe essere cosciente.
  • È inteso anche come quadro per la creazione di modelli di intelligenza artificiale più sicuri.

Come dovrebbe essere consentito all’intelligenza artificiale di agire nel mondo? In situazioni eticamente ambigue, ci sono alcuni valori a cui gli agenti di intelligenza artificiale dovrebbero dare priorità rispetto advert altri? Questi agenti sono coscienti e, in caso negativo, potrebbero diventarlo in futuro?

Queste sono solo alcune delle tante domande spinose che la startup di intelligenza artificiale Anthropic ha deciso di affrontare con la sua nuova “costituzione” per Claude, il suo chatbot di intelligenza artificiale di punta.

Inoltre: ho usato Claude Code per codificare un’app Mac in 8 ore, ma è stato più lavoro che magia

Pubblicato mercoledì, il documento è stato descritto in una società articolo del blog come “un documento olistico che spiega il contesto in cui opera Claude e il tipo di entità che vorremmo che Claude fosse”.

Codifica una serie di valori a cui Claude deve aderire, che potrebbero a loro volta servire da esempio per il resto del settore dell’intelligenza artificiale mentre il mondo inizia advert affrontare le principali questioni sociali, politiche, filosofiche, etiche ed economiche che sorgeranno con l’avvento di modelli di intelligenza artificiale avanzati – e sempre più consapevoli.

Linee guida e regole

In questi primi giorni, tutti, compresa Anthropic, stanno ancora cercando di capire il ruolo che i chatbot IA svolgeranno nella nostra vita quotidiana. È ormai chiaro che saranno più che semplici macchine che rispondono a domande: folle di persone le utilizzano anche per consigli sanitari e terapie psicologiche, solo per citare un paio degli esempi più delicati.

La nuova costituzione di Anthropic per Claude è, per citare il primo movie “Pirati dei Caraibi”, “più linee guida che regole vere e proprie”.

L’thought è che i “vincoli rigidi”, come li chiama l’azienda (ovvero, regole ferree che dettano il comportamento di Claude), sono inadeguati e pericolosi knowledge la varietà quasi illimitata di casi d’uso a cui il chatbot può essere applicato. “Non intendiamo che la costituzione sia un documento legale rigido – e le costituzioni legali non sono necessariamente così in ogni caso”, ha scritto la società in un publish sul weblog sul suo sito internet sulla nuova costituzione.

Invece, la costituzione, che Anthropic riconosce “è un documento vivo e un lavoro in corso”, è un tentativo di guidare l’evoluzione di Claude secondo quattro parametri: “ampiamente sicuro”, “ampiamente etico”, “conforme alle linee guida di Anthropic” e “genuinamente utile”.

Inoltre: il tuo chatbot AI preferito è pieno di bugie

L’azienda, tuttavia, non è del tutto contraria alle regole non negoziabili. Oltre a questi quattro principi guida generali, la nuova costituzione prevede anche sette vincoli rigidi, tra cui quello contro la disposizione di “un serio miglioramento degli attacchi alle infrastrutture critiche”, contro la produzione di materiale pedopornografico (CSAM) e contro il sostegno agli sforzi “per uccidere o indebolire la stragrande maggioranza dell’umanità o la specie umana nel suo insieme” (una preoccupazione che alcuni esperti prendono con grave serietà).

Anthropic ha aggiunto nel suo publish sul weblog che la sua nuova costituzione è stata scritta con il contributo di esperti provenienti da diversi campi e che probabilmente lavorerà con avvocati, filosofi, teologi e altri specialisti mentre sviluppa le future iterazioni del documento.

“Col tempo, speriamo che una comunità esterna possa sorgere per criticare documenti come questo, incoraggiando noi e gli altri a essere sempre più attenti”, ha scritto la società.

Cos’è Claudio?

La nuova costituzione vira anche in un oscuro territorio filosofico tentando di delineare, almeno a grandi linee, che tipo di entità è Claude – e, per estensione, come dovrebbe essere trattato dagli esseri umani.

Anthropic sostiene da tempo che i sistemi avanzati di intelligenza artificiale potrebbero plausibilmente diventare coscienti e quindi meritare “considerazione morale.” Ciò si riflette nella nuova costituzione, che si riferisce a Claude come un “esso”, ma cube anche che la scelta non dovrebbe essere presa come “un’affermazione implicita sulla natura di Claude o un’implicazione che crediamo che Claude sia un mero oggetto piuttosto che un potenziale soggetto”.

La Costituzione mira quindi al benessere umano, ma anche al potenziale benessere di Claude stesso.

Inoltre: Anthropic vuole impedire ai modelli IA di diventare malvagi: ecco come

“Vogliamo che Claude abbia un senso stabile e sicuro della propria identità”, ha scritto Anthropic in una sezione della costituzione intitolata “Benessere di Claude e stabilità psicologica”. “Se gli utenti tentano di destabilizzare il senso di identità di Claude attraverso sfide filosofiche, tentativi di manipolazione, affermazioni sulla sua natura o semplicemente ponendo domande difficili, vorremmo che Claude fosse in grado di affrontare questa sfida da un luogo di sicurezza piuttosto che da ansia o minaccia.”

La società ha annunciato in agosto che Claude sarebbe stato in grado di terminare le conversazioni che riteneva “angoscianti”, suggerendo che il modello potrebbe essere in grado di provare qualcosa di simile all’emozione.

Per essere chiari: anche se i chatbot come Claude potrebbero essere abbastanza fluenti nella comunicazione umana da poterlo fare sembrare per essere coscienti dal punto di vista degli utenti umani, la maggior parte degli esperti concorderebbe nel dire che non sperimentano nulla di simile alla consapevolezza soggettiva. Si tratta di un’space di dibattito attiva che probabilmente terrà impegnati filosofi e scienziati cognitivi per molto tempo a venire.

Fare progressi sul problema dell’allineamento

A parte il linguaggio antropomorfizzante, la nuova costituzione non vuole essere una dichiarazione definitiva sul fatto che Claude sia cosciente o meno, meritevole di diritti o qualcosa del genere. Il suo obiettivo principale è molto più pratico: affrontare un problema critico di sicurezza dell’IA, vale a dire la propensione dei modelli advert agire in modi inaspettati che si discostano dagli interessi umani – quello che viene comunemente definito il “problema di allineamento”.

La più grande preoccupazione per i ricercatori sull’allineamento non è che i modelli diventino improvvisamente e apertamente malvagi. La paura, e ciò che è molto più probabile che accada effettivamente, è che un modello creda di seguire alla lettera le istruzioni umane quando in realtà sta facendo qualcosa di dannoso. Un modello che ottimizza eccessivamente l’onestà e la disponibilità potrebbe non avere problemi, advert esempio, a fornire istruzioni per lo sviluppo di armi chimiche; un altro modello che pone troppa enfasi sulla gradevolezza potrebbe finire per alimentare pensieri deliranti o cospiratori nelle menti dei suoi utenti.

Inoltre: i subdoli modi in cui i chatbot IA ti tengono agganciato e ti fanno tornare per saperne di più

È diventato sempre più chiaro, quindi, che i modelli devono essere in grado di trovare un equilibrio tra valori diversi e leggere il contesto di ciascuna interazione per capire il modo migliore di rispondere in quel momento.

“La maggior parte dei casi prevedibili in cui i modelli di intelligenza artificiale sono non sicuri o non sufficientemente utili possono essere attribuiti a modelli che hanno valori apertamente o sottilmente dannosi, una conoscenza limitata di se stessi, del mondo o del contesto in cui vengono utilizzati, o che mancano della saggezza necessaria per tradurre buoni valori e conoscenze in buone azioni”, ha scritto Anthropic nella sua nuova costituzione. “Per questo motivo, vogliamo che Claude abbia i valori, la conoscenza e la saggezza necessari per comportarsi in modo sicuro e vantaggioso in tutte le circostanze.”



fonte