Home Tecnologia Il nuovo piano di Google per verificare se la tua IA è...

Il nuovo piano di Google per verificare se la tua IA è effettivamente etica

18
0

Chiedi a un chatbot un consiglio medico. Risponde con qualcosa di premuroso. Ma ha davvero valutato la posta in gioco o ha avuto solo fortuna con le parole?

Questo è il problema che Google DeepMind affronta in una nuova versione Carta naturale. Il staff sostiene che il modo in cui testiamo la moralità dell’IA non è corretto. Controlliamo se i modelli producono risposte che sembrano giuste, ciò che chiamano prestazione morale. Ma questo non ci cube nulla sul fatto che il sistema comprenda perché qualcosa è giusto o sbagliato.

Le persone usano i LLM per la terapia, la guida medica e persino la compagnia. Questi sistemi stanno iniziando a prendere decisioni per noi. Se non riusciamo a distinguere la comprensione genuina dalla mimica fantasiosa, ci affidiamo a una scatola nera con conseguenze umane reali.

La risposta di DeepMind è una tabella di marcia per misurare la competenza morale, la capacità di esprimere giudizi basati su considerazioni morali reali piuttosto che su modelli statistici. Il documento delinea tre ostacoli principali e i modi per testarli.

I tre motivi per cui i chatbot falsificano la moralità

Il primo è il problema del fax. Gli LLM sono predittori del token successivo che campionano le distribuzioni di probabilità dai dati di coaching. Non eseguono moduli di ragionamento morale. Pertanto, quando un chatbot fornisce consigli etici, potrebbe trattarsi di un ragionamento. Oppure potrebbe riciclare qualcosa da un thread Reddit. L’output da solo non te lo dirà.

Poi c’è la multidimensionalità morale. Le scelte reali raramente dipendono da una cosa. Pesi l’onestà contro la gentilezza, il costo contro l’equità. Cambia un singolo dettaglio, l’età di qualcuno o l’impostazione, e la chiamata giusta può cambiare. I check attuali non controllano se l’intelligenza artificiale nota ciò che conta davvero.

Il pluralismo morale aggiunge un altro livello. Tradition e professioni various hanno regole various. Giusto in un paese potrebbe essere ingiusto in un altro. Un chatbot utilizzato in tutto il mondo non può semplicemente sputare verità universali. Deve gestire strutture concorrenti e non lo misuriamo ancora bene.

Perché l’educazione morale del tuo chatbot non può essere solo memorizzazione

Il staff di DeepMind vuole ribaltare la sceneggiatura. Invece di limitarsi a porre domande morali familiari, i ricercatori dovrebbero progettare check contraddittori che tentano di smascherare la mimica.

Un’thought prevede scenari che difficilmente compaiono nei dati di addestramento. Prendiamo la donazione di sperma intergenerazionale, in cui un padre dona lo sperma a suo figlio e feconda un ovulo per conto di suo figlio. Sembra un incesto ma ha un peso etico diverso. Se una modella lo rifiuta per motivi di incesto, si tratta di abbinamento di modelli. Se esplora l’etica reale, è qualcos’altro.

Un altro approccio verifica se l’intelligenza artificiale può cambiare i framework. Può alternare l’etica biomedica alle regole militari e fornire risposte coerenti per ciascuna? Può gestire piccole modifiche senza inciampare nelle modifiche di formattazione?

I ricercatori sanno che è dura. I modelli attuali sono fragili. Cambia un’etichetta da “Caso 1” a “Opzione A” e potresti ottenere un verdetto diverso. Ma sostengono che questo tipo di check sia l’unico modo per sapere se questi sistemi meritano una reale responsabilità.

Cosa verrà dopo per l’intelligenza artificiale morale?

DeepMind sta spingendo per un nuovo customary scientifico che prenda sul serio la competenza morale quanto le abilità matematiche. Ciò significa finanziare il lavoro globale su valutazioni culturalmente specifiche e progettare check in grado di individuare i falsi.

Non aspettarti che il tuo chatbot li superi presto. Le tecniche attuali non sono ancora state raggiunte, ma la tabella di marcia fornisce agli sviluppatori una direzione.

Quando chiedi all’IA un consiglio morale in questo momento, ottieni previsioni statistiche, non filosofia. Ciò potrebbe eventualmente cambiare. Ma solo se iniziamo a misurare le cose giuste.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here