Home Tecnologia Il CEO di Anthropic teme che l’umanità possa non essere abbastanza “matura”...

Il CEO di Anthropic teme che l’umanità possa non essere abbastanza “matura” per l’intelligenza artificiale avanzata

15
0

Dario Amodei ha qualche riflessione sull’intelligenza artificiale. Circa 38 pagine di pensieri, insomma. Il fondatore di Anthropic, creatore di Claude, ha pubblicato lunedì un ampio saggio intitolato “L’adolescenza della tecnologia”, in cui discute di ciò che vede come l’immenso potenziale di pericoli che il raggiungimento dello sviluppo di una superintelligenza presenterebbe per il mondo.

A proposito, la sua azienda continuerà a sviluppare l’intelligenza artificiale.

Amodei, che di tanto in tanto abbandona questi saggi, lascia intendere che l’umanità sta per entrare in una nuova period. “Credo che stiamo entrando in un rito di passaggio, turbolento e inevitabile, che metterà alla prova chi siamo come specie”. Potrebbe anche essere la nostra ultima period se le cose andassero male. “L’umanità sta per ricevere un potere quasi inimmaginabile, e non è profondamente chiaro se i nostri sistemi sociali, politici e tecnologici possiedano la maturità per esercitarlo”, ha scritto Amodei, affermando in seguito che “l’autoritarismo abilitato dall’intelligenza artificiale mi terrorizza”.

Nota a margine: Anthropic ha offerto Claude al governo federale dell’amministrazione Trump per $ 1 all’anno.

A suo merito, Amodei ha una vivida immaginazione che mostra in tutto il saggio. Racconta di quando il movimento religioso Aum Shinrikyo rilasciò fuel nervino sarin in una metropolitana di Tokyo nel 1995, provocando 14 morti e molti feriti. Ha poi suggerito che mettere un “genio nelle tasche di tutti” eliminerebbe gli ostacoli alla realizzazione di un attacco del genere, o anche di attacchi più mortali.

“Il solitario disturbato che vuole uccidere le persone ma non ha la disciplina o l’abilità per farlo sarà ora elevato al livello di capacità del virologo PhD, che difficilmente avrà questa motivazione”, ha scritto. “Sono preoccupato che ci siano potenzialmente un gran numero di persone di questo tipo là fuori, e che se hanno accesso a un modo semplice per uccidere milioni di persone, prima o poi uno di loro lo farà”.

A proposito di niente, sapevi che una delle valutazioni è Anthropic pubblicato nel suo rapporto “Scheda di sistema” per Claude Opus 4.5 è stato un take a look at in cui il modello aveva il compito di aiutare i virologi a ricostruire un virus impegnativo?

Amodei è comprensibilmente impressionato dal tasso di miglioramento che l’intelligenza artificiale ha visto negli ultimi anni, ma ha avvertito che se continua a migliorare allo stesso ritmo, allora non siamo lontani dallo sviluppo di una superintelligenza, quella che ragazzi come Amodei chiamavano intelligenza artificiale generale, ma che da allora si sono allontanati da quella. “Se l’esponenziale continua – il che non è certo, ma ora è supportato da un decennio di esperienza – allora non può passare più di qualche anno prima che l’intelligenza artificiale sia migliore degli esseri umani essenzialmente in tutto”, ha scritto.

Cosa significherebbe, esattamente? Amodei ha offerto un’analogia: “Supponiamo che un vero e proprio ‘paese dei geni’ dovesse materializzarsi da qualche parte nel mondo nel 2027 circa. Immaginate, diciamo, 50 milioni di persone, tutte molto più capaci di qualsiasi vincitore del Premio Nobel, statista o tecnologo”, ha scritto. “Supponiamo che tu sia il consigliere per la sicurezza nazionale di uno stato importante, responsabile della valutazione e della risposta alla situazione. Immagina, inoltre, che poiché i sistemi di intelligenza artificiale possono operare centinaia di volte più velocemente degli esseri umani, questo ‘paese’ opera con un vantaggio temporale rispetto a tutti gli altri paesi: per ogni azione cognitiva che possiamo intraprendere, questo paese può prenderne dieci.”

In questo contesto, il CEO di Anthorpic ha affermato che vale la pena considerare quali dovrebbero essere le nostre maggiori preoccupazioni. Amodei ha lanciato i suoi, inclusi “rischi di autonomia”, “abuso per la distruzione” e “abuso per la presa del potere”, e alla nice ha concluso che il rapporto su quel paese lo considererebbe “la più grave minaccia alla sicurezza nazionale che abbiamo affrontato in un secolo, forse mai”.

Un promemoria del fatto che Anthropic sta costruendo quel paese nell’analogia.

Anthropic è stata, più di ogni altra azienda di intelligenza artificiale, proattiva nell’identificare i rischi associati allo sviluppo dell’intelligenza artificiale e nel sostenere un ulteriore controllo normativo e la tutela dei consumatori (se si ritiene che sia legittimo o una forma di acquisizione normativa è negli occhi di chi guarda, ma almeno è un bel gioco). Ma continua a costruire la macchina che avverte potrebbe causare un disastro imminente. Non devi costruire la macchina del destino! E francamente, continuare a costruirlo mina la serietà con cui chiunque dovrebbe prendere gli avvertimenti sulle minacce esistenziali.

Se c’è una reale preoccupazione che l’umanità possa non essere abbastanza matura per gestire l’intelligenza artificiale, forse non renderla pubblicamente disponibile per le persone con barriere minime all’accesso, e poi vantarti dei tuoi utenti attivi mensili.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here