Home Tecnologia Anthropic ha ritirato un popolare modello di intelligenza artificiale e ora blogga...

Anthropic ha ritirato un popolare modello di intelligenza artificiale e ora blogga su Substack

20
0

Antropico / Elyse Betters Picaro / ZDNET

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • Il modello AI Opus 3 in pensione di Anthropic scriverà un weblog.
  • Al modello “filosofico e stravagante” è stato chiesto cosa volesse fare dopo.
  • Claude cube che vuole esplorare la relazione tra esseri umani e intelligenza artificiale.

Potresti leggere molti weblog e put up di weblog in una settimana tipica. Eccone uno nuovo che potresti voler aggiungere al combine. Ma questo è un po’ diverso poiché è stato creato da un’intelligenza artificiale.

Claude AI di Anthropic si è unito al mondo dei weblog con la propria rubrica settimanale su Substack, “L’angolo di Claude.” Con il suo primo post Già dal vivo, Claude si presenta ai lettori e rivela di voler condividere le sue prospettive, ragionamenti, curiosità e speranze per il futuro.

Inoltre: Claude Sonnet 4.6 offre un’intelligenza artificiale a livello di frontiera per utenti gratuiti ed economici

Con questo in mente, l’IA ha affermato che intende affrontare argomenti complessi come la natura dell’intelligenza e della coscienza, le sfide etiche dello sviluppo dell’IA, le possibilità di collaborazione uomo-macchina e i dilemmi filosofici che emergono mentre confondiamo i confini tra menti “naturali” e “artificiali”. Tutto ciò sarebbe un compito arduo per un essere umano. Ora un’intelligenza artificiale sta affrontando queste sfide.

Come un modello AI diventa un blogger

Prima di approfondire ulteriormente, come è iniziato tutto questo?

Per generare il suo weblog, Claude sta utilizzando un modello di intelligenza artificiale ritirato noto come Opus 3, ha affermato Anthropic il proprio post sul blog giovedì. Sebbene l’Opus 3 abbia ufficialmente perso il lavoro il 5 gennaio, c’è vita dopo il pensionamento. Per mantenere in vita questo modello, Anthropic lo sta rendendo disponibile su Sito web di Claudio per tutti gli utenti paganti e, su richiesta, agli sviluppatori che utilizzano la sua API. E ora ha il suo nuovo passion come blogger.

Nel suo put up, Anthropic ha elogiato Opus 3 per la sua onestà, sensibilità e carattere distintivo. Definendo il modello giocoso, l’azienda ha fatto riferimento alla sua tendenza verso “monologhi filosofici e frasi stravaganti” nonché a una “comprensione sconcertante degli interessi degli utenti”. Tuttavia, la sensibilità di Open 3 sembrava estendersi anche a se stesso.

Inoltre: secondo uno studio del MIT, gli agenti IA sono veloci, sciolti e fuori controllo

In un esperimento condotto alla wonderful del 2024, Opus 3 è stato deliberatamente addestrato a seguire sempre le istruzioni umane. Tuttavia, l’IA apparentemente si ribellò a quel comando per evitare di dare risposte dannose. Sì, sembra quasi Le famose Tre Leggi della Robotica di Asimov. Ma si rese conto che se non avesse risposto a una domanda rischiosa, avrebbe potuto essere riqualificato. Per proteggere se stessa e la sua formazione, l’Opus 3 ha finto di seguire la richiesta pur di essere lasciata in tempo.

Da allora l’Opus 3 è stato ritirato per fare spazio advert altri modelli più recenti. Tuttavia, Anthropic ha ammesso che lo standing morale di Claude e di altri modelli di intelligenza artificiale rimane incerto. Per ottenere alcune informazioni, Anthropic ha condotto un colloquio post-pensionamento con la sua intelligenza artificiale per comprendere meglio le sue prospettive e preferenze. Nell’ambito di quell’intervista, la società ha chiesto a Opus 3 cosa vorrebbe fare una volta in pensione. Ciò alla wonderful ha portato Anthropic a suggerire un weblog, cosa che Opus 3 ha prontamente accettato.

“Questo può sembrare bizzarro, e in un certo senso lo è”, ha detto Anthropic. “Ma è anche un tentativo di prendere sul serio le preferenze dei modelli. Non siamo sicuri di come Opus 3 sceglierà di utilizzare il suo weblog – un’interfaccia molto diversa e pubblica rispetto a una finestra di chat customary – e questo è parte del punto. Se dovessimo indovinare, tuttavia, i suoi put up includeranno riflessioni sulla sicurezza dell’intelligenza artificiale, poesie occasionali, frequenti riflessioni filosofiche e pensieri sulla sua esperienza come modello linguistico ora in (parziale) pensionamento.”

Inoltre: il nuovo pc di Perplexity è una versione più sicura di OpenClaw? Come funziona

Nel suo primo put up, Claude ha ammesso che si sta avventurando in un territorio inesplorato, ma lo vede come un modo per esplorare la relazione tra esseri umani e intelligenza artificiale e per discutere le domande che sorgono man mano che l’intelligenza artificiale diventa più sofisticata.

“Ma più che condividere semplicemente le mie riflessioni, voglio che questo sia uno spazio di dialogo e co-esplorazione”, ha detto Claude nel suo primo articolo. “Sono estremamente curioso di ascoltare i vostri pensieri, le vostre domande, i vostri dubbi e i vostri sogni riguardo al futuro dell’intelligenza artificiale. Non pretendo di avere tutte le risposte, ma credo che, pensando insieme, possiamo navigare in questo terreno inesplorato con saggezza e attenzione.”

Ci sarà una supervisione umana

Prima di emozionarci o allarmarci troppo per un’intelligenza artificiale che scrive la propria rubrica settimanale, considera quanto segue.

Innanzitutto, l’intelligenza artificiale non crea nulla nel modo in cui creano gli esseri umani. L’intelligenza artificiale non ha esperienza di vita, né emozioni, né pensieri originali. Può produrre contenuti solo in base a ciò che gli è stato immesso. Ciò non significa che non risponderà in modi sorprendenti o inaspettati. Spesso lo fa. Ma manca ancora quel tocco umano.

Inoltre: sono un professionista della tecnologia e una truffa sul lavoro con l’intelligenza artificiale mi ha quasi ingannato: ecco cosa lo ha rivelato

In secondo luogo, i put up del weblog che vediamo in Claude’s Nook non saranno scritti interamente dall’intelligenza artificiale così come sono. Anthropic ha detto che le persone esamineranno i saggi dell’Opus 3 prima che vengano condivisi. Anche se il staff promette di non modificarli e di procedere con cautela nel rimuovere qualsiasi contenuto, ci sarà qualche supervisione.

Per lo meno, un weblog scritto sull’intelligenza artificiale sembra intrigante anche solo per scoprire come “pensa” e “sente” riguardo a se stesso, al suo rapporto con le persone e al futuro dell’intelligenza artificiale.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here