C’è stata la sensazione strisciante che, da quando modelli linguistici di grandi dimensioni come ChatGPT sono diventati accessibili al pubblico e più ampiamente utilizzati, le persone hanno iniziato a scrivere e suonare più come contenuti generati dall’intelligenza artificiale. (Naturalmente, l’intelligenza artificiale sta semplicemente creando l’impressione di un amalgama di materiale creato dall’uomo, quindi qui c’è chiaramente un uovo e una gallina.) Ora ci sono show a sostegno di questo sospetto subdolo. In un documento pubblicato mercoledì sulla rivista Trends in Cognitive Sciencesi ricercatori della College of Southern California hanno avvertito che l’uso degli LLM rischia di appiattire il pensiero e la creatività umana.
Il workforce di ricercatori ha analizzato più di 130 studi per comprendere meglio come i grandi modelli linguistici influenzano la diversità cognitiva, esaminando la ricerca in una varietà di campi, dalla linguistica all’informatica. Il workforce ha scoperto che, nonostante il fatto che i modelli di intelligenza artificiale attingono da un enorme database di informazioni, producono costantemente risultati meno vari rispetto al pensiero umano.
Ciò è in parte dovuto al fatto che, sebbene questi modelli possano essere addestrati su una fornitura apparentemente infinita di pensieri e idee prodotti dall’uomo, non sono in grado di elaborare effettivamente tutto quel materiale in un modo che consideri la diversità di opinioni disponibile. Invece, gli LLM tendono a favorire modelli coerenti che possono identificare nei dati di addestramento, il che è parte del motivo per cui alcune critiche ai modelli li definiscono una sorta di glorificato completamento automatico.
“Poiché gli LLM sono addestrati a catturare e riprodurre regolarità statistiche nei loro dati di formazione, che spesso rappresentano in modo eccessivo le lingue e le ideologie dominanti, i loro risultati spesso rispecchiano una fetta ristretta e distorta dell’esperienza umana”, ha affermato in una dichiarazione l’autore e scienziato informatico Zhivar Sourati della College of Southern California.
Alcuni LLM pubblicizzano addirittura questo fatto. OpenAI afferma esplicitamente che ChatGPT è “distorto verso le visioni occidentali”, per esempio, e xAI ha, ovviamente, ha ottimizzato il suo chatbot Grok per riflettere le opinioni del CEO Elon Musk in più di un’occasione.
Il risultato dell’interazione con modelli che favoriscono in modo significativo determinate prospettive, tuttavia, è che gli esseri umani iniziano quindi a interiorizzare e riflettere quelle prospettive. Questo può essere semplice come una persona che utilizza un chatbot per perfezionare la propria scrittura e rimuovere alcune delle proprie scelte stilistiche, ma ricerche precedenti hanno dimostrato che interagire con gli LLM può effettivamente cambiare il modo in cui le persone pensano di essere più in linea con le informazioni fornite loro da un chatbot. Gli LLM utilizzano anche il ragionamento a catena di pensiero, che riflette una forma di pensiero lineare. Sono incapaci di stili di ragionamento più astratti che potrebbero richiedere salti logici che non sono ovvi ma possono essere molto efficaci.
Forse una delle osservazioni più interessanti fatte dai ricercatori è che, mentre gli individui che utilizzano LLM per generare idee spesso producono più quantity (anche se con meno creatività), i gruppi di persone in realtà producono meno idee quando utilizzano LLM rispetto a quando hanno semplicemente il compito di collaborare e scambiarsi idee. Fondamentalmente, l’utilizzo del modello blocca le persone in un particolare modo di pensare e riduce la diversità di prospettive che potrebbero altrimenti emergere dalla discussione e dalla condivisione di esperienze.
Si comprende bene ormai da tempo che diversità di pensiero e di esperienze produce risultati migliori per gruppi e organizzazioni. Ciò è vero per quanto riguarda gli LLM, che sono essenzialmente incoraggiati a cercare il consenso piuttosto che la diversità. Non aspettatevi nemmeno che il problema venga risolto presto, considerando che l’amministrazione Trump ha emesso un ordine esecutivo che punisce di fatto qualsiasi azienda che crei un modello di intelligenza artificiale che promuova la diversità.













