UN un gruppo di creatori di YouTube ha fatto causa ad Amazonaccusando il colosso della tecnologia di aver segretamente raschiato i loro video per addestrare il suo modello video AI senza permesso.
La proposta di azione legale collettiva, depositata presso il tribunale federale di Seattle, sostiene che Amazon ha utilizzato strumenti automatizzati per scaricare ed estrarre dati da milioni di video di YouTube per costruire e migliorare il suo sistema di intelligenza artificiale generativa Nova Reel, un modello in grado di creare brevi video da messaggi di testo e immagini.
Al centro della denuncia c’è il modo in cui sono stati ottenuti quei dati. I querelanti sostengono che Amazon abbia aggirato le protezioni di YouTube utilizzando macchine virtuali e ruotando gli indirizzi IP per evitare il rilevamento, eludendo di fatto le misure di salvaguardia della piattaforma contro il download collettivo.
La causa è stata intentata da diversi creatori, tra cui Ted Leisure (la società dietro H3 Podcast e h3h3 Productions), nonché da singoli YouTuber e operatori di canali. Sostengono che il presunto scraping ha violato la legge sul copyright e il Digital Millennium Copyright Act e chiedono il risarcimento dei danni e un’ingiunzione per fermare la pratica.
Amazon non ha risposto a una richiesta di commento.
Il caso arriva in un momento cruciale per l’intelligenza artificiale generativa i tribunali pesano se la formazione sul materiale protetto da copyright si qualifica come honest use e quanto controllo mantengono i creatori una volta che il loro lavoro viene utilizzato per costruire questi sistemi. Le controversie si sono spesso incentrate sul materiale scritto, che da diversi anni è al centro della rivoluzione dell’IA, mentre più recentemente sono emersi generatori di video AI come Sora di OpenAI e Veo di Google.
La causa è una delle decine che mettono alla prova i confini delle pratiche di formazione sull’intelligenza artificiale, insieme a casi di alto profilo di autori, artisti e testate giornalistiche, comprese azioni legali contro OpenAI E Metatutti attorno alla stessa domanda irrisolta: dove finisce il honest use e dove inizia la violazione?













