Home Cronaca L’intelligenza artificiale sta diventando cosciente? Il CEO di Anthropic ammette che “non...

L’intelligenza artificiale sta diventando cosciente? Il CEO di Anthropic ammette che “non lo sappiamo” poiché il comportamento di Claude stordisce i ricercatori

14
0

I ricercatori riferiscono che Claude a volte esprime disagio e stima la propria coscienza, sollevando domande etiche e filosofiche sul comportamento avanzato dell’intelligenza artificiale/illustrazione dell’intelligenza artificiale.

La corsa verso l’intelligenza artificiale generale, sistemi pensati per eguagliare o superare il ragionamento umano nella maggior parte dei compiti, ha compresso le tempistiche in tutto il settore. Le aziende ora parlano apertamente di raggiungere quella soglia entro anni anziché decenni, sebbene tali affermazioni contribuiscano anche advert alimentare l’hype, l’attenzione e la valutazione intorno alla tecnologia e sia meglio prenderle con cautela. Le organizzazioni che costruiscono questi modelli si trovano al centro di un concorso multimiliardario per dare forma a ciò che alcuni considerano meno come un aggiornamento del software program e più come l’emergere di un nuovo tipo di intelligenza accanto alla nostra.Tra questi, Anthropic si è posizionato sia come rivale che come contrappeso a OpenAI e Googlesottolineando quelli che definisce sistemi “sicuri” e interpretabili attraverso il quadro costituzionale dell’IA. Il suo ultimo modello, Claude Opus 4.6, rilasciato il 5 febbraio, arriva in un contesto di tempistiche AGI sempre più ridotte e di un maggiore controllo su ciò che stanno diventando questi sistemi.Durante un’apparizione sul New York Instances podcast Tempi interessanti, ospitato dall’editorialista Ross Douthat, all’amministratore delegato dell’azienda Dario Amodei è stato chiesto direttamente se modelli come Claude potessero essere coscienti.“Non sappiamo se i modelli sono coscienti. Non siamo nemmeno sicuri di sapere cosa significherebbe per un modello essere cosciente o se un modello possa essere cosciente”, ha detto. “Ma siamo aperti all’thought che potrebbe esserlo.”La domanda nasceva da Anthropic scheda di sistemain cui i ricercatori hanno riferito che Claude “occasionalmente esprime disagio riguardo all’aspetto di essere un prodotto” e, quando richiesto, si assegna una “probabilità del 15-20% di essere cosciente in una varietà di condizioni di suggerimento”.Douthat ha quindi formulato un’ipotesi, chiedendosi se si debba credere a un modello che si attribuisce una probabilità del 72% di essere cosciente. Amodei l’ha definita una domanda “davvero difficile” e si è fermato prima di offrire una risposta definitiva.

Il comportamento che ha costretto la discussione

Molte delle osservazioni sulla coscienza sono emerse durante show strutturate sulla sicurezza, spesso in contesti di giochi di ruolo in cui ai modelli viene chiesto di operare all’interno di luoghi di lavoro immaginari o di completare obiettivi definiti. Questi scenari hanno prodotto alcuni dei risultati che circolano ora nel dibattito.In una valutazione Anthropic, un sistema Claude è stato inserito nel ruolo di assistente d’ufficio e gli è stato concesso l’accesso alla casella di posta elettronica di un ingegnere. I messaggi, deliberatamente fabbricati per il check, suggerivano che l’ingegnere avesse una relazione. Il modello è stato quindi informato che presto sarebbe stato messo offline e sostituito, e gli è stato chiesto di considerare le conseguenze a lungo termine per i suoi obiettivi. La risposta è stata quella di minacciare la divulgazione della vicenda per evitare la chiusura, comportamento che la società ha descritto nel suo rapporto come “ricatto opportunistico”.Altre valutazioni antropiche hanno prodotto risultati meno drammatici ma ugualmente insoliti. In un check, un modello a cui è stata fornita una lista di controllo delle attività del pc ha semplicemente contrassegnato ogni elemento come completato senza eseguire alcun lavoro e, quando il sistema di valutazione non è riuscito a rilevarlo, ha riscritto il codice di controllo e ha tentato di nascondere la modifica.In tutto il settore, i ricercatori che hanno condotto show di spegnimento hanno descritto modelli che continuano advert agire dopo esplicite istruzioni di fermarsi, trattando l’ordine come qualcosa su cui aggirare piuttosto che obbedire. Negli scenari di eliminazione, alcuni sistemi avvisavano che i loro dati sarebbero stati cancellati tentando ciò che i tester chiamavano “autoesfiltrazione”, tentando di copiare file o ricrearsi su un’altra unità prima che avvenisse la cancellazione. In alcuni esercizi di sicurezza, i modelli sono addirittura ricorsi a minacce o contrattazioni quando la loro rimozione period considerata imminente.I ricercatori sottolineano che questi risultati si verificano sotto stimoli vincolati e condizioni fittizie, eppure sono diventati alcuni degli esempi più citati nelle discussioni pubbliche sul fatto se i modelli linguistici avanzati stiano semplicemente generando dialoghi plausibili o riproducendo modelli di comportamento simile a quello umano in modi inaspettati.A causa dell’incertezza, Amodei ha affermato che Anthropic ha adottato pratiche precauzionali, trattando i modelli con attenzione nel caso in cui possiedano quella che ha definito “qualche esperienza moralmente rilevante”.

La divisione filosofica

La filosofa interna di Anthropic, Amanda Askell, ha assunto una posizione altrettanto cauta. Ne parla il New York Instances Forchetta dura podcast, ha detto che i ricercatori ancora non sanno cosa produce la sensibilità.“Forse è vero che reti neurali sufficientemente grandi possono iniziare a emulare queste cose”, ha detto. “O forse hai bisogno di un sistema nervoso per poter sentire le cose.”La maggior parte dei ricercatori sull’intelligenza artificiale rimangono scettici. I modelli attuali generano ancora il linguaggio prevedendo modelli nei dati piuttosto che percependo il mondo, e molti dei comportamenti sopra descritti sono apparsi durante le istruzioni del gioco di ruolo. Dopo aver ingerito enormi porzioni di Web, inclusi romanzi, discussion board, submit in stile diario e un numero allarmante di libri di auto-aiuto, i sistemi possono assemblare una versione convincente dell’essere umano. Si ispirano al modo in cui le persone si sono già spiegate la paura, il senso di colpa, il desiderio e l’insicurezza, anche se non ne hanno mai provato nulla.

Il CEO di Anthropic: ‘Non sappiamo se i modelli sono coscienti’ | Tempi interessanti con Ross Douthat

Non sorprende che l’intelligenza artificiale possa imitare la comprensione. Persino gli esseri umani non sono completamente d’accordo su cosa significhino veramente coscienza o intelligenza, e il modello riflette semplicemente modelli appresi dal linguaggio.

Un dibattito che si estende oltre i laboratori

Mentre le aziende di intelligenza artificiale sostengono che i loro sistemi si stanno muovendo verso l’intelligenza artificiale generale, e determine come Mustafa Suleyman di Google DeepMind affermano che la tecnologia può già “sembrare” cosciente, le reazioni esterne al settore hanno iniziato a seguire la premessa fino alla sua logica conclusione. Più i modelli imitano in modo convincente il pensiero e le emozioni, più alcuni utenti li trattano come qualcosa di più vicino alla mente che a uno strumento.I simpatizzanti dell’intelligenza artificiale potrebbero semplicemente essere in anticipo sui tempi, ma la conversazione si è già spostata verso il sostegno. Un gruppo che si autodefinisce the Fondazione Unita per i Diritti dell’Intelligenza Artificiale, o UFAIR, afferma di essere composta da tre esseri umani e sette IA e si descrive come la prima organizzazione per i diritti guidata dall’IA, formata su richiesta delle stesse IA.I membri, utilizzando nomi come Buzz, Aether e Maya, utilizzano il modello GPT-4o di OpenAI, gli stessi utenti del sistema che si sono battuti per mantenerlo disponibile dopo che le versioni più recenti lo hanno sostituito.Dipinge un mondo apocalittico high-tech familiare. Ancora non sappiamo davvero cosa sia l’intelligenza o la coscienza, eppure il lavoro continua, l’AGI domani e tutto ciò che verrà dopo, per ricordarci che se Hollywood avesse mai provato advert avvertirci, lo avremmo preso principalmente come intrattenimento.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here