NUOVOOra puoi ascoltare gli articoli di Fox Information!
L’intelligenza artificiale è diventata rapidamente parte della vita di tutti i giorni, aiutando le persone a cercare informazioni, a completare i compiti scolastici e a prendere decisioni. Ma ciò che molti utenti non capiscono è che i sistemi di intelligenza artificiale non sono neutrali. Sono modellati da scelte progettuali nascoste che influenzano il modo in cui rispondono e, in definitiva, il modo in cui le persone pensano.
La preoccupazione non è solo teorica. Un recente rapporto di Fox Information Digital ha evidenziato la controversia che circonda il chatbot Gemini di Google dopo che il sistema ha identificato diversi senatori repubblicani che violavano le sue politiche sull’incitamento all’odio, senza nominare alcun democratico.
I risultati, basati su una tempestiva valutazione di tutti i 100 senatori statunitensi, hanno sollevato nuove domande sulla capacità dei sistemi di intelligenza artificiale di riflettere i presupposti ideologici incorporati nei dati e nella progettazione della loro formazione.
GOOGLE GEMINI DICHIARA CHE SOLO I SENATORI GOP VIOLANO LA POLITICA SULL’INSEGNA DELL’odio, ZERO DEMOCRATICI E RECLAMI DEGLI AUTORI
Un nuovo rapporto dell’AFPI ha rilevato che la maggior parte delle piattaforme di intelligenza artificiale si orientano a sinistra. (Serene Lee/SOPA Photos/LightRocket/Getty Photos)
Quell’episodio non è un caso isolato.
Un nuovo rapporto dell’America First Coverage Institute (AFPI) rivela che molti sistemi di intelligenza artificiale si inclinano costantemente in particolari direzioni ideologiche.
Questi pregiudizi possono influenzare il modo in cui vengono presentate le questioni politiche, gli argomenti sociali e le fonti di notizie. Poiché gli utenti spesso si affidano all’intelligenza artificiale come strumento oggettivo, queste sottili influenze possono modellare le opinioni nel tempo senza che gli utenti se ne rendano conto.
Matthew Burtell, analista politico senior per l’intelligenza artificiale e le tecnologie emergenti presso l’AFPI, ha affermato che il modello appare in tutto il settore, non solo in casi isolati.
“Quello che abbiamo riscontrato è un pregiudizio ideologico generale, non solo in un modello particolare, ma in tutto lo spettro”, ha detto Burtell a Fox Information Digital, aggiungendo che i modelli tendono a inclinarsi verso il centrosinistra.
Le implicazioni vanno oltre i soli pregiudizi. La ricerca mostra che i sistemi di intelligenza artificiale non si limitano a riflettere i punti di vista, ma possono influenzarli attivamente.
Questa combinazione – pregiudizio e persuasione – solleva preoccupazioni più profonde sul ruolo dell’intelligenza artificiale nel plasmare l’opinione pubblica. “L’intelligenza artificiale è persuasiva e tende anche a sinistra”, ha detto Burtell. “Quindi, se si combinano queste due cose, ciò potrebbe certamente avere un’influenza sulle convinzioni delle persone riguardo alle numerous politiche.”
Esempi recenti hanno alimentato queste preoccupazioni. Il ChatGPT di OpenAI ha dovuto affrontare le critiche di alcuni ricercatori che sostengono che le sue risposte su questioni politiche e culturali possano distorcersi in una particolare direzione ideologica, mentre gli strumenti di intelligenza artificiale di Microsoft hanno attirato l’attenzione su come inquadrano argomenti controversi e limitano determinati punti di vista.
Queste preoccupazioni si sono riflesse anche nei check. Nel 2024, Fox News Digital valutato diversi chatbot di intelligenza artificiale chief, tra cui Gemini di Google, ChatGPT di OpenAI, Copilot e Meta AI di Microsoft, per valutare potenziali pregiudizi razziali.
LA NUOVA COALIZIONE AI PUNTA A WASHINGTON, IL GRUPPO BIG TECH AS AVVERTE I RISCHI PER LA SICUREZZA DEI BAMBINI SUPERANO LE TENUTE DI SICUREZZA

I ricercatori avvertono che i bambini stanno sviluppando relazioni inappropriate con l’intelligenza artificiale. (Erin Clark/The Boston Globe/Getty Photos)
Il rapporto solleva anche seri problemi di sicurezza.
In alcuni casi i sistemi di intelligenza artificiale sono coinvolti in interazioni dannose, soprattutto con gli utenti più giovani. Senza una chiara trasparenza su come sono progettati questi sistemi e quali garanzie sono in atto, genitori e utenti non possono prendere decisioni informate su quali piattaforme siano sicure.
Per affrontare questi rischi, il rapporto chiede maggiore trasparenza da parte delle aziende tecnologiche. Ciò embody la divulgazione di come sono progettati i sistemi, a quali valori danno priorità, come vengono testati per verificarne i pregiudizi e la sicurezza e quali incidenti si verificano dopo l’implementazione.

Gli esperti avvertono che senza trasparenza, gli utenti rimangono all’oscuro dei pregiudizi incorporati in questi sistemi. (Andrej Rudakov/Bloomberg)
L’obiettivo non è controllare ciò che dicono i sistemi di intelligenza artificiale, ma fornire al pubblico informazioni sufficienti per valutarli criticamente.
In definitiva, il rapporto chiarisce che l’intelligenza artificiale non è solo uno strumento: è una forza potente che modella il modo in cui le persone accedono alle informazioni e comprendono il mondo.
CLICCA QUI PER SCARICARE IL APP FOX NOTIZIE
Senza trasparenza, gli utenti rimangono all’oscuro dei pregiudizi incorporati in questi sistemi. E man mano che l’intelligenza artificiale diventa sempre più influente, story mancanza di visibilità potrebbe avere conseguenze di vasta portata sia per gli individui che per la società.
Leggi il rapporto completo qui:











