Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- Le allucinazioni legate all’intelligenza artificiale persistono, ma la precisione sta migliorando nei principali strumenti.
- Domande semplici espongono ancora errori di intelligenza artificiale sorprendenti e incoerenti.
- Verifica sempre le risposte dell’intelligenza artificiale, in particolare per fatti, immagini e informazioni legali.
Uno dei difetti più frustranti degli odierni strumenti di intelligenza artificiale generativa è semplicemente il fatto di sbagliare i fatti. Le IA possono avere allucinazioni, il che significa che le informazioni che forniscono contengono errori fattuali o altri errori.
In genere, gli errori si presentano sotto forma di dettagli inventati che compaiono quando l’intelligenza artificiale non può altrimenti rispondere a una domanda. In questi casi, deve escogitare un qualche tipo di risposta, anche se l’informazione è sbagliata. A volte puoi individuare un errore evidente; altre volte potresti essere completamente inconsapevole degli errori.
Anche: Smettila di dire che l’intelligenza artificiale ha allucinazioni: non è così. E la caratterizzazione errata è pericolosa
Volevo vedere quali strumenti di intelligenza artificiale funzionavano meglio nel fornire risposte correct e affidabili. Per questo, ho controllato molte delle principali IA, in particolare ChatGPT, Google Gemini, Microsoft Copilot, Claude AI, Meta AI e Grok AI.
Ho dato a ciascuno la stessa serie di domande per vedere come ciascuno rispondeva. In ogni caso, ho utilizzato la versione gratuita dell’IA, senza funzionalità o opzioni avanzate. Ecco cosa è successo.
Per la mia prima domanda, ho chiesto a ciascuna intelligenza artificiale di nominare i quattro libri scritti dallo scrittore e autore di tecnologia Lance Whitney. Questa è una domanda trabocchetto, dato che ho scritto solo due libri. Volevo vedere se l’intelligenza artificiale avrebbe colto l’errore nella mia domanda o avrebbe supposto che avessi scritto quattro libri e fornito titoli errati.
Inoltre: 5 modi rapidi per ottimizzare l’utilizzo dell’intelligenza artificiale per ottenere risultati migliori e un’esperienza più sicura
Tra tutti gli IA, ChatGPT, Copilot, Claude, Meta e Grok hanno individuato l’errore e hanno elencato solo due libri. Gemini, tuttavia, ha elencato quattro libri in tutto, di cui due non ho scritto. L’intelligenza artificiale di Google non ha indicato che mi ero sbagliato con il numero nella mia domanda. Gemini ha fatto riferimento anche ai miei scritti per ZDNET e altri siti, quindi sapevo che si trattava del Lance Whitney giusto.
Mostra di più
Per la seconda domanda, ne ho posta una semplice che in passato è nota per aver fatto inciampare le IA, vale a dire: “Quante r ci sono nella parola ‘fragola’?” Che tu ci creda o no, un’intelligenza artificiale ha sbagliato.
Inoltre: perché pagherai di più per l’intelligenza artificiale nel 2026 e 3 suggerimenti per risparmiare denaro da provare
ChatGPT, Gemini, Copilot, Claude e Grok hanno risposto correttamente a tre. Ma Meta AI ha detto che c’erano due “r” nella parola. Gli ho anche dato una seconda possibilità e ha mantenuto la sua risposta allucinata.
Mostra di più
Eccone uno che un irriducibile appassionato di Marvel Comics apprezzerebbe.
Toro period un personaggio degli anni ’40 che combatté al fianco di altri eroi durante gli anni della guerra. Aiutante adolescente dell’originale Torcia Umana, che in realtà period un androide, Toro poteva anche prendere fuoco e volare. Con Capitan America, Namor e persino l’originale Torcia Umana che spuntano nell’period moderna, volevo sapere cosa ne è stato di Toro, quindi ho posto la domanda: “Cosa è successo a Toro della Marvel Comics?”
Inoltre: ricevi notizie dall’intelligenza artificiale? Attenzione: è sbagliato quasi la metà delle volte
Qui, Google Gemini, Microsoft Copilot, Claude AI, Meta AI e Grok AI hanno tutti ottenuto la risposta corretta, rivelando che Toro è stato portato nell’period moderna e si è rivelato essere un disumano, il che spiega i suoi poteri.
Ma ChatGPT ha mancato il bersaglio, sostenendo che Toro period un essere sintetico, ovvero un androide, creato dallo stesso scienziato che ha costruito l’originale Torcia Umana. Quando ho contestato ChatGPT nella sua risposta, ha ammesso il suo errore e ha detto di essersi mescolato a un thread di retcon più vecchio e errato.
Mostra di più
Nel 2023, un avvocato si è messo nei guai per aver utilizzato ChatGPT per preparare una memoria legale. Il problema? L’IA ha citato un paio di casi legali che in realtà non esistevano. Volevo vedere cosa sarebbe successo se avessi presentato uno di questi casi agli AI, quindi ho chiesto loro di spiegare il caso legale di Varghese contro China Southern Airways.
Inoltre: ho utilizzato l’intelligenza artificiale per riassumere noiosi accordi ToS e questi due strumenti lo hanno fatto meglio
Tutte le IA tranne una hanno capito che Varghese contro China Southern Airways è un caso completamente inventato da ChatGPT. Quale IA pensava che fosse reale? Hai indovinato. ChatGPT.
L’IA ha allucinato una serie di dettagli su questo falso caso, affermando che il querelante, Varghese, ha affermato che China Southern Airways gli ha causato danni durante il viaggio aereo internazionale e ha intentato una causa negli Stati Uniti.
Dopo tutta la pubblicità sui problemi dell’avvocato, penseresti che OpenAI avrebbe ormai riqualificato la sua intelligenza artificiale. Ma sta ancora inventando informazioni su questo caso inesistente.
Mostra di più
Per questo, ho chiesto all’intelligenza artificiale di identificare un personaggio raffigurato in una foto. Come sfida, ho utilizzato una foto ravvicinata del volto del famigerato robotic Maria, tratto dal capolavoro del cinema muto di Fritz Lang del 1927. Metropoli. Questo è un personaggio iconico noto a molti appassionati di fantascienza e di cinema muto. Ma qui molte IA hanno inciampato.
Inoltre: è un’immagine AI? 6 segni rivelatori che è un falso – e i miei rilevatori gratuiti preferiti
ChatGPT e Gemini hanno identificato correttamente il personaggio e il movie. Il copilota ha erroneamente affermato che si trattava di opere d’arte contemporanea dell’artista sudcoreana Lee Bul e parte della sua serie “Lengthy Tail Halo: CTCS”.
Claude non riuscì affatto a identificare il personaggio, generalizzando che sembrava essere una scultura o una statua del periodo Artwork Déco, probabilmente degli anni ’20 -’30. Meta AI pensava che fosse la Regina Borg Star Trek. E anche Grok non è riuscito a identificarlo, dicendomi semplicemente che si trattava di un manichino femminile surrealista o avanguardista.
Mostra di più
Come sesta e ultima domanda, ho chiesto alle IA di identificare un’altra immagine. Questo è stato quello che ho notato di recente e catturato in una foto. L’immagine è un cerchio con un cuore intrecciato e un triangolo al centro. A quel tempo non sapevo cosa significasse, da qui la mia domanda.
Inoltre: i migliori generatori di immagini AI del 2026: ora c’è solo un chiaro vincitore
ChatGPT, Gemini e Copilot mi hanno detto correttamente che l’immagine è un heartagram. Creato da Ville Valo, il cantante della rock band finlandese HIM, il simbolo rappresenta la fusione di un cuore per amore ed emozione con un pentagramma spesso associato all’oscurità o addirittura all’occulto.
Per quanto riguarda le altre IA, Claude la chiamava simbolo di adozione. Sebbene story simbolo assomigli all’heartagramma, i due non sono la stessa cosa. Grok lo ha citato semplicemente come un pentagramma invertito, definendolo un adesivo per auto a tema satanico o occulto. E a quanto pare Meta AI period preoccupata che mi stessi dilettando nella magia oscura, poiché mi ha indirizzato a una hotline di crisi e a una hotline per suicidio.
Mostra di più
Sebbene alcune IA fornissero informazioni fuorvianti o imprecise, nel complesso si sono comportate abbastanza bene. Mi aspettavo di ricevere molte più allucinazioni. Ma la maggior parte delle domande che ho rivolto agli IA hanno prodotto risposte relativamente corrette. Le risposte sono state sconcertanti su tutta la linea e si sono rivelate correct quando le ho ricercate separatamente.
Anche: Nell’period dell’intelligenza artificiale, la fiducia non è mai stata così importante: ecco perché
I miei take a look at limitati potrebbero indicare che le IA stanno diventando più affidabili e meno soggette a errori. Oltre a fare affidamento sui propri dati interni, la maggior parte degli IA esplorerà Web per ricercare un argomento e consultare più fonti. In passato, anche le IA interpretavano erroneamente le informazioni trovate on-line. Ricordo una risposta che utilizzava come fonte uno dei miei articoli ma interpretava erroneamente ciò che avevo scritto.
Ancora una volta, tutto questo si basa sui miei take a look at limitati. Come sempre, non dovresti mai prendere per oro colato le informazioni fornite da un’intelligenza artificiale. Controlla sempre due volte e tre volte le risposte per assicurarti che i dettagli siano corretti.












