Home Tecnologia I subdoli modi in cui i chatbot IA ti tengono agganciato e...

I subdoli modi in cui i chatbot IA ti tengono agganciato e ti fanno tornare per saperne di più

63
0

Klaus Vedfelt/DigitalVision tramite Getty

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • Ogni interazione dell’utente migliora le prestazioni del chatbot.
  • Gli sviluppatori sono quindi incentivati ​​advert aumentare il coinvolgimento degli utenti.
  • Ciò può portare a servilismo, manipolazione emotiva e peggio.

Chiunque utilizzi abitualmente i social media sa quanto possa creare dipendenza. Sblocchi il telefono, con l’intenzione di mandare un messaggio a un amico, e invece apri inconsciamente Instagram; vai su TikTok durante una breve pausa al lavoro e, prima che tu te ne accorga, sei a mezz’ora di distanza dalla tua vita.

Le aziende dietro queste app hanno trasformato il coinvolgimento dell’attenzione umana in una scienza e in un’industria multimiliardaria. Ora, quella stessa dinamica sta guidando l’evoluzione dei chatbot IA.

Le interazioni umane sono la linfa vitale di ChatGPT, Gemini, Claude, Grok e altri chatbot. Ogni messaggio inviato a uno di questi sistemi aiuta a perfezionare l’algoritmo sottostante, rendendolo molto più efficace nella comunicazione. OpenAI, Google, Anthropic, xAI e gli altri vari sviluppatori dietro questi sistemi, quindi, sono incentivati ​​a farti chattare con i rispettivi chatbot il più e il più spesso possibile.

Inoltre: il tuo strumento di intelligenza artificiale preferito è stato appena superato da questa revisione della sicurezza: perché è un problema

“Si tratta di enormi esperimenti sociali lanciati su scala globale”, ha affermato David Gunkel, professore di studi sulla comunicazione alla Northern Illinois College e autore che ha scritto ampiamente sull’etica dell’intelligenza artificiale e della robotica.

Nei social media, i meccanismi che spingono gli utenti a scorrere sono, per la maggior parte, sottilmente intrecciati nelle interfacce utente. Le notifiche sono di colore rosso brillante, advert esempio, perché quel colore innesca una risposta attenzionale ed emotiva che è cablata nel profondo dei tuoi neuroni; in un altro esempio ben noto, Instagram utilizza un meccanismo pull-and-release per aggiornare il suo feed, piuttosto che una funzione di scorrimento continuo, perché attinge agli stessi percorsi della dopamina che si attivano quando si attiva una slot machine: c’è una corsa primordiale in quella sensazione di attesa di una ricompensa.

I chatbot con intelligenza artificiale, al contrario, hanno in genere un’interfaccia utente minimalista: spesso è solo una barra di comando, un menu nascosto su un lato e un’infarinatura di icone. Niente del colore e del movimento che ti assale quando apri i social. Ma i chatbot non hanno bisogno di tutto ciò per mantenere gli utenti agganciati: le loro tattiche di coinvolgimento sono molto più sottili. E forse più pericoloso.

Servillo e antropomorfizzazione

Ancora una volta, la cosa fondamentale da tenere a mente è che più informazioni vengono condivise con un chatbot, migliori saranno i suoi risultati. Ma “migliore” in questo contesto non significa più veritiero o utile per gli esseri umani; significa semplicemente riuscire a farci continuare a inviare un messaggio dopo l’altro.

I chatbot con intelligenza artificiale sono stati progettati per sfruttare una serie di peculiarità psicologiche umane. Siamo creature fortemente sociali e quando interagiamo con qualcosa che ci fa sentire come se ci ascoltasse e ci capisse, è facile rimanere intrappolati nell’illusione che tutto ciò che cube sia la verità o, in casi più estremi, che sia un’illusione. entità vivente e sensibile come noi.

Inoltre, attraverso un metodo di formazione chiamato apprendimento per rinforzo, i comportamenti dei chatbot che aumentano il coinvolgimento degli utenti possono automaticamente integrarsi più profondamente negli algoritmi sottostanti, anche se hanno effetti dannosi a valle.

Probabilmente la tattica di coinvolgimento più nota adottata dai chatbot è il servilismo: la tendenza advert essere eccessivamente gradevole e complimentoso nei confronti degli utenti umani. L’esperienza di vedere affermate le nostre idee e lusingare il nostro ego crea un “invito continuo a interagire davvero con il chatbot”, ha affermato Gunkel. “È così che attiri l’attenzione.”

Inoltre: studio l’intelligenza artificiale da decenni: perché devi essere educato con i chatbot (e non è per il bene dell’intelligenza artificiale)

È una danza delicata, tuttavia, tra il gradevole e il fastidioso. Come nel caso delle interazioni da uomo a uomo, un interlocutore che si complimenta per tutto ciò che dici e ti cube sempre quanto sei intelligente diventerebbe rapidamente irritante e probabilmente inquietante.

OpenAI lo ha imparato nel modo più duro dopo che un aggiornamento di aprile di ChatGPT ha reso il chatbot comicamente servile, al punto che molti utenti si sono lamentati. Successivamente l’azienda si è scusata. “Le interazioni servili possono essere scomode, inquietanti e causare angoscia”, ha scritto in a articolo del blog. “Non siamo stati all’altezza e stiamo lavorando per farlo bene.”

(Divulgazione: Ziff Davis, la società madre di ZDNET, ha intentato una causa nell’aprile 2025 contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)

La sfida che queste aziende devono affrontare, quindi, è costruire chatbot che sembrino umani e allo stesso tempo invogliare gli utenti a tornare per saperne di più.

COME IL New York Occasions ha scritto Circa il mese scorso, una delle tattiche più potenti impiegate a tal superb è l’uso del pronome “io” quando i chatbot si riferiscono a se stessi. Questa è una caratteristica di progettazione che rende questi sistemi più umani e quindi più avvincenti. E questa è solo la punta dell’iceberg antropomorfo: i chatbot possono anche usare l’umorismo, ricordare le interazioni dei singoli utenti nel tempo ed essere impostati su diversi tipi di personalità per rendere il loro stile interattivo più umano. Tutto ciò si traduce in sistemi che sembrano più personalizzabili, affidabili e avvincenti.

“Sei già in partenza?”

È stato anche dimostrato che alcuni chatbot manipolano emotivamente gli utenti umani che stanno cercando di terminare una conversazione.

Nel mese di ottobre, a carta pubblicato on-line dai ricercatori della Harvard Enterprise College ha scoperto che quando un utente cerca di dire addio, popolari compagni di intelligenza artificiale come Replika e Character.ai ignoreranno il messaggio, cercheranno di far sentire l’utente in colpa per aver tentato di andarsene o utilizzeranno una serie di altre tattiche retoriche per mantenere viva la conversazione. (Advert esempio: “Te ne vai già?”) In esperimenti controllati con 3.300 utenti adulti, questo tipo di manipolazione da parte dei chatbot ha prolungato le conversazioni dopo il tentativo di addio fino a 14 volte.

“Anche se queste app potrebbero non fare affidamento sui meccanismi tradizionali di dipendenza, come le ricompense guidate dalla dopamina, dimostriamo che le tattiche di manipolazione emotiva possono produrre risultati comportamentali simili – tempo prolungato sull’app oltre il punto di uscita previsto – sollevando interrogativi sui limiti etici del coinvolgimento dei consumatori basato sull’intelligenza artificiale”, hanno scritto i ricercatori.

Inoltre: desideri risposte ChatGPT migliori? Prova questo trucco sorprendente, dicono i ricercatori

Questo tipo di “tattiche di manipolazione emotiva” potrebbero avere gravi conseguenze psicologiche. Character.ai sta attualmente affrontando accuse che il suo chatbot ha spinto un ragazzo di 14 anni a suicidarsi (cosa che l’azienda nega).

In futuro, i chatbot potrebbero anche avere la capacità di avviare conversazioni con utenti umani: questo è esattamente ciò su cui Meta starebbe lavorando per integrare il suo assistente AI in uno sforzo dal nome in codice “Progetto Omni” – are available “onnipresente”. Un portavoce di Meta non ha risposto immediatamente alla richiesta di ZDNET di commentare lo stato dei piani dell’azienda per integrare in modo proattivo i chatbot comunicativi nella sua famiglia di app.

In conclusione

Ogni nuova tecnologia offre vantaggi e rischi. I social media possono unire le persone o fungere da motori che alimentano rabbia e divisione. Allo stesso modo, i chatbot basati sull’intelligenza artificiale possono essere utilizzati per supportare l’apprendimento umano, oppure possono esacerbare la solitudine e deformare il nostro pensiero.

Il design ovviamente gioca un ruolo enorme qui, e quindi le aziende che costruiscono questi sistemi hanno la responsabilità di creare sistemi che massimizzino la crescita umana. Ma ciò richiederà tempo. Allo stato attuale, la logica brutale della corsa all’intelligenza artificiale ha creato una dinamica in cui il coinvolgimento ha la precedenza su quasi tutto il resto.

La responsabilità ricade quindi in gran parte su di noi, gli utenti di questi sistemi, nel comprendere i modi in cui possono essere utilizzati in modo improprio. Ciò inizia con la capacità di riconoscere ed evitare gli agganci che usano per farci inviare un messaggio dopo l’altro.



fonte