Home Tecnologia Smettere di fare clic sulla spazzatura: come identificare e ignorare oggi lo...

Smettere di fare clic sulla spazzatura: come identificare e ignorare oggi lo slop generato dall’intelligenza artificiale

23
0

Scorrere i social media on-line non è più divertente. In effetti, è difficile liberarsi della sensazione che qualcosa sia “spento”, che tu sia su Fb, Instagram o TikTok. Web è positivamente pieno di Pendenza dell’IA“contenuti” creati dalle macchine che altrimenti sarebbero spazzatura di bassa qualità a cui non riesci proprio a sfuggire.

Il termine è iniziato come slang on-line qualche anno fa, ma è diventato rapidamente una scorciatoia per il crescente flusso di attività a basso sforzo Generato dall’intelligenza artificiale materiale. Pensatelo come spam per l’period dei social media. Le truffe through e-mail sono state sostituite da blandi submit di weblog, clip di notizie false, video surreali e foto d’archivio che, francamente, non dovrebbero mai vedere la luce.


Non perdere nessuno dei nostri contenuti tecnici imparziali e le recensioni di laboratorio. Aggiungi CNET come fonte Google preferita.


Cosa significa in realtà “slop” dell’intelligenza artificiale

Slop period usato per descrivere il mangime per animali fatto con gli avanzi. Nel contesto odierno, cattura lo stesso senso di riempitivo economico. Lo slop dell’intelligenza artificiale è un contenuto generato rapidamente e con noncuranza, senza originalità o accuratezza fattuale.

Troverai problemi di intelligenza artificiale su ogni piattaforma, da Video di YouTube con narrazione robotica su filmati rubati, a siti internet di “notizie” che copiano reciprocamente articoli scritti dall’intelligenza artificiale e clip TikTok con voci che somigliano Siri cercando di sembrare umano. Anche i risultati di ricerca iniziano a sembrare più sciatti, con Process generate dall’intelligenza artificiale e le recensioni dei prodotti si classificano al di sopra delle segnalazioni legittime dei clienti.

Il problema non è che l’intelligenza artificiale sia intrinsecamente pessima nel creare. È che troppe persone lo usano per inondare Web con contenuti che sembrano informativi ma non lo sono. Persino John Oliver ha dedicato un intero segmento all’intelligenza artificiale nel suo programma.

Sean King O’Gradyil creatore della docuserie Menti sospettose e un regista pluripremiato, mi ha dato qualche speranza nelle generazioni più giovani. Il suo bambino di 10 anni ha dato un’occhiata a a Sora iper-reale clip di Marc Cuban che O’Grady ha creato e lo ha immediatamente definito falso e ha detto: “Toglimi dalla faccia quella schifezza di intelligenza artificiale”.

Ma in alcuni casi, l’intelligenza artificiale è molto buona e inganna con sicurezza le persone. Quel contenuto viene condiviso, ripubblicato e monetizzato prima che qualcuno controlli se è reale abbiamo visto spesso sui social.

In che modo lo slop dell’intelligenza artificiale differisce dai deepfake e dalle allucinazioni

Lo slop dell’IA non è lo stesso di a deepfake o a allucinazioneanche se i tre spesso si confondono. La differenza sta nell’intento e nella qualità.

I deepfake sono falsificazioni di precisione che utilizzano l’intelligenza artificiale per generare o alterare video e audio realistici, facendo sembrare che qualcuno faccia o dica qualcosa che non ha mai fatto. L’obiettivo è l’inganno, da falsi discorsi politici A cloni vocali utilizzati nelle truffe. I deepfake prendono di mira gli individui e il loro pericolo risiede nella loro capacità di essere convincenti.

Le allucinazioni dell’intelligenza artificiale sono errori tecnici. Un chatbot potrebbe citare uno studio che non esiste o inventare un caso legale dal nulla. Il modello non cerca di fuorviare: le allucinazioni si verificano quando prevede la prossima parola probabile e la sbaglia.

Lo slop dell’intelligenza artificiale è più ampio e più negligente. Succede quando le persone utilizzano l’intelligenza artificiale per produrre in serie contenuti come articoli, video, musica e arte senza verificarne l’accuratezza o la coerenza. Intasa i feed, aumenta le entrate pubblicitarie e riempie i risultati di ricerca con materiale ripetitivo o senza senso. La sua inesattezza deriva dalla negligenza, non dall’inganno o dall’errore.

In breve, i deepfake ingannano di proposito, le allucinazioni si creano per sbaglio e l’intelligenza artificiale inonda Web per indifferenza, spesso alimentata dall’avidità di soldi facili.

Uno screenshot di un'immagine generata dall'intelligenza artificiale di una ciotola di ramen, orsetti gommosi e una papera di gomma

Il mio suggerimento per creare questa immagine in Grok è stato: “crea un’immagine di un primo piano fotorealistico di una ciotola di ramen noodles fatti di gelatina, con orsetti gommosi al posto della carne e un’anatra giocattolo di plastica che galleggia al suo interno, in una stanza scarsamente illuminata, altrimenti vuota, con bordi sfocati e una tavolozza di colori strana e poco appetitosa.”

Barbara Pazur/Grok AI

Da dove viene tutto il problema dell’intelligenza artificiale?

Parte del motivo per cui la crisi dell’intelligenza artificiale si è diffusa così rapidamente è che la tecnologia dell’intelligenza artificiale è diventata potente ed economica. Le aziende di intelligenza artificiale hanno creato questi modelli nella speranza che riducessero la barriera d’ingresso per le persone che hanno grandi idee ma non hanno il talento o le finanze per creare cose. Ciò che alla wonderful è successo è che le persone chiedono agli strumenti di intelligenza artificiale di sfornare migliaia di testo e immagini per ottenere clic o entrate pubblicitarie.

È un gioco di quantity. Se un video funziona bene, viene creato più esattamente come è stato creato, quindi ci ritroveremo con disordine digitale e inquietanti iterazioni on-line.

Una volta strumenti come ChatGPT, Gemelli E Claudio ha reso possibile generare testo, immagini e video leggibili in pochi secondi, soprattutto con le versioni più recenti Generatori di intelligenza artificiale come Sora e Veo — Sono intervenute le content material farm. Si sono rese conto che potevano riempire siti internet, feed social e YouTube con contenuti AI più velocemente di quanto qualsiasi group umano potrebbe scrivere, montare o filmare.

Advert esempio, nonostante abbia solo quattro video, questo canale YouTube ha accumulato 4,2 milioni di abbonati e centinaia di milioni di visualizzazioni:

Uno screenshot di un canale YouTube pieno di video di gatti generati dall'intelligenza artificiale

Schermata di CNET

Anche le piattaforme hanno avuto un ruolo. Gli algoritmi spesso premiano la quantità e l’impegno, non la qualità. Più pubblichi, maggiore sarà l’attenzione, anche se ciò che pubblichi non ha senso (mukbang tanto?). L’intelligenza artificiale rende banale l’implementazione di story strategia.

Ci sono anche soldi in gioco. Alcuni creatori pubblicano notizie false sulle celebrità o video clickbait pieni di pubblicità. Altri riutilizzano i contenuti dell’intelligenza artificiale per ingannare i consigli e indirizzare il traffico verso siti a basso impegno. L’obiettivo non è informare o intrattenere. Significa fare una frazione di centesimo per visualizzazione, moltiplicata per milioni.

O’Grady ha osservato l’evoluzione del rallentamento dell’intelligenza artificiale nel corso degli anni, ma afferma: “Anche la novità di molti di questi nuovi rallentamenti svanirà molto rapidamente”.

Come la lentezza dell’intelligenza artificiale sta rovinando Web

A prima vista, lo slop sembra innocuo: qualche brutto submit nel tuo feed e forse ti farai una risata o due. Ma il quantity cambia tutto e affatica il pubblico. Man mano che circola più spazzatura, le fonti credibili vengono spinte verso il basso nei risultati di ricerca e spiazzano i creatori umani. Inoltre offusca il confine tra verità e invenzione. Quando metà di ciò che vedi sembra una simulazione, è più difficile fidarsi del resto.

Questa erosione della fiducia ha conseguenze reali. La disinformazione si diffonde più velocemente quando nessuno sa cosa è reale. I truffatori utilizzano l’intelligenza artificiale come arma per costruire marchi falsi convincenti o impersonare persone e anche i funzionari. Gli inserzionisti sono in difficoltà perché le loro campagne a volte appaiono insieme all’intelligenza artificiale su piattaforme come YouTube, danneggiando la credibilità del marchio per associazione.

C’è un costo culturale più profondo. O’Grady vede un lungo arco di intorpidimento on-line dando l’esempio di Bob Ross che prende a pugni Stephen Hawking.

“Penso che Web, in un modo strano, abbia desensibilizzato tutti noi alla violenza in un modo piuttosto orribile”, cube a CNET. “Mi chiedo cosa ci cube della nostra umanità quando i mashup di IA violenti o grotteschi diventano virali?”

Il pensiero di dove stiamo andando come cultura e di cosa faremo con questi strumenti spaventa O’Grady più che pensare alle conseguenze economiche di IA generativa video.

Cosa possiamo fare per risolvere il problema dell’IA?

Nessuno ha ancora una soluzione perfetta, ma alcune aziende ci stanno provando. Piattaforme come Spotify ha iniziato a etichettare i media generati dall’intelligenza artificiale e aggiustare gli algoritmi per ridimensionare l’output di bassa qualità. Google, TikTok E OpenAI hanno promesso sistemi di watermarking per aiutarti a distinguere i contenuti umani dal materiale sintetico. Sebbene questi metodi siano ancora facili da eludere se qualcuno cattura uno screenshot di un’immagine, ricodifica il video o riscrive il testo AI.

Alcune delle correzioni si basano su un framework chiamato C2PAabbreviazione di Coalition for Content material Provenance and Authenticity. È uno commonplace di settore supportato da aziende come Adobe, Amazon, Microsoft e Meta che incorpora i metadati direttamente nei file digitali per mostrare quando e come sono stati creati e modificati.

Se funziona come previsto, C2PA ti aiuterà a tracciare se un’immagine, un video o un articolo proviene da una fonte umana verificata o da un generatore di intelligenza artificiale. La sfida è l’adozione, poiché i metadati possono essere eliminati o ignorati e la maggior parte delle piattaforme non li applica in modo coerente.

Logo dell'Atlante AI

CNET

O’Grady è scettico solo riguardo alle etichette, preoccupato che anche i video autentici di eventi gravi, come un politico che commette un crimine, possano essere facilmente liquidati come falsi con una filigrana AI falsa.

“Potrei essere pessimista su questo fronte, ma non credo che l’etichettatura servirà a molto”, afferma. “Penso che le filigrane potrebbero essere utilizzate anche per de-autenticare cose autenticamente reali.”

Anche i creatori si stanno opponendo a modo loro. Molti giornalisti e artisti sottolineano l’abilità umana. Alcuni autori includono una semplice nota, “non è stata utilizzata alcuna intelligenza artificiale”, per rassicurare i lettori che è stata una persona, e non un suggerimento, a realizzare il lavoro.

È possibile fermare il rallentamento dell’IA?

Probabilmente non completamente. Una volta che la produzione di massa di parole e immagini divenne quasi gratuita e abbastanza facile, le chiuse si aprirono. All’intelligenza artificiale non interessa la verità, il gusto o l’originalità. Si preoccupa della probabilità. Ed è proprio questo che rende lo slop così facile da realizzare e così difficile da evitare.

Ma portare consapevolezza aiuta. Le persone stanno imparando a individuare gli schemi, le stesse frasi (“arazzo”, “nell’period di”, “non solo ma anche”, sono alcune di quelle comuni), lo stesso linguaggio vuoto che sembra umano ma che risulta vuoto.

Tuttavia, gli strumenti di intelligenza artificiale stanno avanzando rapidamente e qualunque modello di intelligenza artificiale sia attualmente disponibile è il peggiore che mai sarà.

Il costo cognitivo è reale. “Penso che tutto questo sia probabilmente molto dannoso per il tuo cervello, allo stesso modo del cibo spazzatura”, cube O’Grady. “La tua mente è ciò che ci metti dentro. Se è ciò che consumiamo tutto il giorno, perché è tutto ciò che c’è là fuori, penso che sia piuttosto pericoloso.”

Invece di condurre alla prevista “tecno-utopia galattica”, come la chiama O’Grady, o alla singolarità in cui le coscienze si fondono, sostiene che l’attuale tendenza dell’intelligenza artificiale suggerisce che il nostro futuro potrebbe essere solo un universo infinito e insensato di meme di Bob Ross, “Gesù gamberetti” e altre assurde sciocchezze.

Per ora, la migliore difesa è la nostra attenzione. Slop prospera grazie all’automazione e allo scorrimento o alla condivisione senza pensare, qualcosa di cui tutti siamo colpevoli. Rallenta, controlla le fonti, premia i creatori che continuano a impegnarsi davvero. Potrebbe non risolvere questo pasticcio da un giorno all’altro, ma è un inizio.

Web è già esistito qui. Abbiamo combattuto lo spam, il clickbait, la disinformazione e la disinformazione. Lo slop dell’intelligenza artificiale è la versione successiva della stessa storia, più veloce e più efficace ma più difficile da rilevare. Il fatto che il internet mantenga la sua integrità dipende da quanto diamo ancora valore al lavoro umano rispetto al risultato delle macchine.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here