Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- L’intelligenza artificiale funziona su Linux. Periodo. Non ci sono sostituti.
- Canonical e Purple Hat stanno costruendo distribuzioni Linux specifiche per Nvidia Vera Rubin.
- Il kernel Linux è stato ottimizzato per i carichi di lavoro AI e ML.
L’intelligenza artificiale moderna è iniziata con l’open supply e funzionava su Linux. Oggi Linux non è importante solo per l’intelligenza artificiale; è la base su cui poggia l’intero moderno stack dell’intelligenza artificiale di oggi. Dai cluster di formazione su vasta scala fino alle caselle di inferenza edge, è tutto Linux da cima a fondo.
Anche: Ho provato una distribuzione Linux che promette un’intelligenza artificiale integrata gratuita e le cose sono diventate strane
I trucchi magici dell’intelligenza artificiale sono in realtà il risultato aggregato di infrastrutture molto prosaiche: supercomputer, GPU farm e cluster cloud che quasi tutti eseguono qualche versione di Linux. I principali framework di machine studying (TensorFlow, PyTorch, scikit-learn e simili) erano tutti sviluppato e messo a punto prima su Linux. Gli strumenti attorno a questi strumenti, da Jupyter e Anaconda a Docker e Kubernetes, sono ottimizzati in modo simile per Linux.
Perché i lavori IT vivranno e moriranno su Linux
Perché? Perché è su Linux che i ricercatori e gli ingegneri di produzione implementano effettivamente l’intelligenza artificiale. I futuri lavori IT vivranno e moriranno su Linux.
Vedete, l’intelligenza artificiale funziona su Linux perché è l’ambiente più flessibile, potente e scalabile per i carichi di lavoro distribuiti e con uso intensivo di GPU richiesti dall’intelligenza artificiale moderna. Inoltre, l’intero ecosistema di strumenti e cloud si è standardizzato su Linux.
Sì, ogni piattaforma AI, che si tratti di OpenAI, Copilot, Perplexity, Anthropic o del tuo chatbot AI preferito, è costruita su Linux, oltre a driver, librerie e orchestrazione, il tutto incollato insieme in modi diversi. Le parti proprietarie possono impossessarsi del marchio, ma senza Linux non vanno da nessuna parte.
Ciò si traduce in più lavori Linux.
Come quello della Linux Basis Rapporto sullo stato dei talenti tecnologici 2025 osservato, l’intelligenza artificiale sta determinando un aumento netto dei lavori nel settore tecnologico, in particolare dei lavori Linux. Ciò che sembra dipende da “AI [is] rimodellare i ruoli invece di eliminarli”, secondo il rapporto, “portando a cambiamenti nella domanda di competenze e a nuove opportunità di crescita della forza lavoro”.
Oltre advert aumentare i lavori di amministrazione del sistema Linux e della rete, il sito Carriere su Linux vede “una tendenza rapidamente emergente che coinvolge professionisti che combinano l’esperienza Linux con l’intelligenza artificiale e operazioni di machine studying.” Tali nuovi lavori AI/Linux includono AI Operations Specialist, MLOps Engineer, ML Engineer e DevOps/AI Engineer.
Naturalmente, i distributori Linux sanno tutto questo, motivo per cui, quando vengono rilasciate nuove distribuzioni Linux, i loro produttori enfatizzano le funzionalità di intelligenza artificiale.
Per esempio, Canonico E Cappello Rosso stanno correndo per piantare le loro bandiere Linux sulla nuova piattaforma di supercomputer Vera Rubin AI di Nvidia. È aperta la gara per vedere chi possiederà il livello del sistema operativo delle “fabbriche di intelligenza artificiale su scala gigantesca”.
Da parte sua, Purple Hat sta introducendo Red Hat Enterprise Linux (RHEL) per Nvidia. Questa edizione curata di RHEL è ottimizzata specificamente per la piattaforma Rubin di Nvidia, incluso Sistemi su bilancia rack Vera Rubin NVL72.
Anche: Come AI e Rust stanno riscrivendo la programmazione Linux e Home windows
L’azienda afferma che questa variante verrà fornita con il supporto Day 0 per la CPU Vera, le GPU Rubin e lo stack CUDA X di Nvidia, con driver e toolkit OpenRM convalidati forniti direttamente tramite i repository Purple Hat.
Il kernel Linux e l’intelligenza artificiale
Canonical sta inoltre lanciando il supporto ufficiale Ubuntu per la piattaforma Nvidia Rubin, prendendo di mira anche Vera Rubin NVL72. L’azienda con sede a Londra sta ancorando la sua storia rendendo la CPU Vera personalizzata basata su Arm un “cittadino di prima classe”, con la parità x86 nella sua prossima versione. Versione Ubuntu 26.04.
Quindi, a differenza di Purple Hat, che ha un RHEL solo per i processori Nvidia, la nuova Ubuntu supporterà Nvidia. Questa versione includerà anche funzionalità upstream come Virtualizzazione annidata E Partizionamento e monitoraggio della memoria ARM (MPAM) per partizionare meglio la larghezza di banda della memoria e la cache per i carichi di lavoro AI multi-tenant.
Anche: Anche Linus Torvalds sta codificando le vibrazioni adesso
Ciò che fa funzionare tutto questo è un kernel Linux che è stato costantemente modificato per tenere il passo con il vorace appetito dell’intelligenza artificiale per l’accelerazione {hardware}. I kernel moderni si destreggiano tra GPU e driver di accelerazione specializzati, una sofisticata gestione della memoria per spostare rapidamente i tensori e pianificatori ottimizzati per lavori batch massivamente paralleli.
In breve, negli ultimi dieci anni il kernel è stato ricablato per diventare un sistema operativo per acceleratori {hardware} AI.
Memoria: mettere i dati dove sono le GPU
Nello specifico, uno dei fattori abilitanti più importanti è stato Gestione della memoria eterogenea. Ciò consente di integrare la memoria del dispositivo, come l’unità di elaborazione grafica/la memoria advert accesso casuale video (GPU VRAM), nel sottosistema di memoria virtuale di Linux.
Questo, combinato con il Direct Reminiscence Entry Buffering (DMA-BUF) e Accesso alla memoria non uniforme (NUMA) L’ottimizzazione, consente ai runtime dell’intelligenza artificiale di mantenere i tensori vicino all’acceleratore e di ridurre la copia dei dati, che tende a rallentare le prestazioni.
Anche: Ecco come ho finalmente risolto un complicato problema Linux con questa app terminale AI
I kernel recenti trattano anche le combinazioni CPU-GPU avanzate, come i nodi CPU/GPU in stile NUMA strettamente accoppiati, come cittadini di prima classe. In questo modo, la memoria può essere migrata tra la RAM collegata alla CPU e la memoria GPU a larghezza di banda elevata su richiesta.
Questo, come ha spiegato Nvidia, “consente alla CPU e alla GPU di condividere un’unica tabella di pagine per processo, consentendo a tutti i thread di CPU e GPU di accedere a tutta la memoria allocata dal sistema.”
Acceleratori: un vero e proprio sottosistema, non un componente aggiuntivo
Linux ora dispone di un sottosistema di acceleratori di calcolo dedicato progettato per esporre GPU, unità di elaborazione tensore (TPU) e circuiti integrati specifici per l’applicazione (ASIC) di intelligenza artificiale personalizzati ai tuoi programmi di intelligenza artificiale e machine studying (ML).
Oltre a ciò, il supporto GPU è maturato passando da prima grafica a pesante calcolo, tramite Direct Rendering Supervisor (DRM), stack aperti come ROCm e OpenCL e driver Compute Unified Gadget Structure (CUDA) di Nvidia.
Anche: L’intelligenza artificiale fa già parte dell’impianto idraulico di Linux, che piaccia o no agli sviluppatori
Il lavoro sul kernel è stato ampliato per coprire i più recenti acceleratori IA come Habana Gaudi di Intel, Edge TPU di Google e schede FPGA/ASIC, con driver e astrazioni di bus. Ciò consente ai programmi di intelligenza artificiale come PyTorch o TensorFlow di vederli e utilizzarli come un semplice dispositivo. Pertanto, chiunque oggi produca nuovo silicio AI presuppone giustamente che Linux verrà eseguito su di esso.
Pianificazione: nutrire gli acceleratori affamati
Lo scheduler predefinito di Linux, il Prima scadenza virtuale idonea (EEVDF)lo scheduler in tempo reale e il bilanciamento NUMA sono stati tutti ottimizzati per consentire ai carichi di lavoro AI di bloccare le CPU, isolare i vicini rumorosi e alimentare gli acceleratori senza jitter. Continua a lavorare aumentando la frequenza predefinita del timer del kernel da 250 Hz a 1000 Hz sta già mostrando incrementi misurabili nell’accelerazione del Massive Language Mannequin (LLM) con un costo energetico trascurabile.
Anche: Ho trovato 7 app Linux essenziali per gli studenti, inclusa un’intelligenza artificiale locale
Sebbene non sia un’impostazione predefinita di Linux, alcune distribuzioni, come Kernel Ubuntu a bassa latenzaora imposta questa impostazione come commonplace.
Percorsi diretti: eliminare l’intermediario della CPU
I kernel moderni consentono alle GPU di accedere direttamente alla memoria, allo spazio di archiviazione e persino ai dispositivi peer, utilizzando tecnologie come quelle di Nvidia GPUDirect e DMA peer-to-peer. Combinato con Calcolo Express Link (CXL) e la gestione migliorata dell’unità di gestione della memoria di enter/output (IOMMU), consente agli acceleratori di bypassare la CPU durante lo spostamento dei dati. Ciò elimina i colli di bottiglia che in precedenza bloccavano le esecuzioni di coaching ML. Questo sistema idraulico invisibile è il motivo per cui i cluster di intelligenza artificiale possono espandersi senza collassare a causa del proprio I/O.
Anche: Le mie due app IA preferite su Linux e come le utilizzo per fare di più
Ciò a cui tutto ciò si aggiunge è che, quando i dirigenti parlano di “strategia AI”, ciò che non stanno dicendo è che la realtà poco affascinante è che la strategia AI dipende dalla gestione di Linux su larga scala. Si tratta di applicare patch ai kernel, rafforzare i contenitori e proteggere carichi di lavoro opachi. L’intelligenza artificiale potrebbe finire sui giornali, ma Linux rimane il sistema operativo che svolge il lavoro vero e proprio.













