Quando tocco l’app per Anthropic’s Claudio AI sul telefono e invia un messaggio, advert esempio “Raccontami la storia di un gatto dispettoso”, succedono molte cose prima che il risultato (The Nice Tuna Heist) appaia sul mio schermo.
La mia richiesta viene inviata al cloud: un pc in a grande centro dati da qualche parte – da leggere nel Sonetto 4.5 di Claude modello linguistico di grandi dimensioni. Il modello assembla una risposta plausibile utilizzando testo predittivo avanzato, attingendo all’enorme quantità di dati su cui è stato addestrato. Quella risposta viene quindi reindirizzata al mio iPhone, apparendo parola per parola, riga per riga, sul mio schermo. Ha percorso centinaia, se non migliaia, di miglia ed è passato attraverso più pc nel suo viaggio da e verso il mio piccolo telefono. E tutto avviene in pochi secondi.
Per saperne di più: CNET sta scegliendo il meglio dei premi CES 2026
Questo sistema funziona bene se quello che stai facendo è a bassa posta in gioco e la velocità non è davvero un problema. Posso aspettare qualche secondo per la mia piccola storia su Whiskers e la sua disavventura in un cellular da cucina. Ma non tutti i compiti dell’intelligenza artificiale sono così. Alcuni richiedono una velocità enorme. Se un dispositivo di intelligenza artificiale avvisa qualcuno della presenza di un oggetto che blocca il suo percorso, non può permettersi di aspettare un secondo o due.
Altre richieste richiedono maggiore privateness. Non mi interessa se la storia del gatto passa attraverso decine di pc di proprietà di persone e aziende che non conosco e di cui potrei non fidarmi. Ma per quanto riguarda le mie informazioni sanitarie o i miei dati finanziari? Potrei voler mantenere un coperchio più stretto su questo.
Non perdere nessuno dei nostri contenuti tecnici imparziali e le recensioni di laboratorio. Aggiungi CNET come fonte Google preferita.
Velocità e privateness sono due delle ragioni principali per cui gli sviluppatori tecnologici stanno spostando sempre più l’elaborazione dell’intelligenza artificiale dai grandi information middle aziendali ai dispositivi personali come telefoni, laptop computer o smartwatch. Ci sono anche risparmi sui costi: non è necessario pagare un grande operatore di information middle. Inoltre, i modelli sul dispositivo possono funzionare senza una connessione Web.
Ma rendere possibile questo cambiamento richiede {hardware} migliore e modelli di intelligenza artificiale più efficienti, spesso più specializzati. La convergenza di questi due fattori determinerà infine la velocità e la fluidità della tua esperienza su dispositivi come il tuo telefono.
Mahadev Satyanarayanan, noto come Satya, è professore di informatica alla Carnegie Mellon College. Ha studiato a lungo ciò che è noto come edge computing: il concetto di gestire l’elaborazione e l’archiviazione dei dati il più vicino possibile all’utente reale. Secondo lui, il modello ideale per il vero edge computing è il cervello umano, che non scarica compiti come la visione, il riconoscimento, la parola o l’intelligenza su alcun tipo di “cloud”. Succede tutto proprio lì, completamente “sul dispositivo”.
“Ecco il problema: la natura ha impiegato un miliardo di anni per evolverci”, mi ha detto. “Non abbiamo un miliardo di anni da aspettare. Stiamo cercando di farlo in cinque o 10 anni al massimo. Come accelereremo l’evoluzione?”
Puoi accelerarlo con un’intelligenza artificiale migliore, più veloce e più piccola in esecuzione su {hardware} migliore, più veloce e più piccolo. E come stiamo già vedendo con le app e i dispositivi più recenti, compresi quelli visti al CES 2026, il processo è ben avviato.
Probabilmente l’intelligenza artificiale è in esecuzione sul tuo telefono in questo momento
L’intelligenza artificiale sul dispositivo è tutt’altro che nuova. Ricordi nel 2017 quando potevi sbloccare per la prima volta il tuo iPhone tenendolo davanti al viso? Quella tecnologia di riconoscimento facciale utilizzava un motore neurale integrato nel dispositivo: non è un’intelligenza artificiale genuina come Claude o ChatGPT, ma è un’intelligenza artificiale fondamentale.
Gli iPhone di oggi utilizzano un modello di intelligenza artificiale sul dispositivo molto più potente e versatile. Ha circa 3 miliardi di parametri: i calcoli individuali del peso attribuito a una probabilità in un modello linguistico. Si tratta di un valore relativamente piccolo rispetto ai grandi modelli generici su cui gira la maggior parte dei chatbot IA. Deepseek-R1, advert esempio, ha 671 miliardi di parametri. Ma non è destinato a fare tutto. È invece progettato per attività specifiche sul dispositivo come il riepilogo dei messaggi. Proprio come la tecnologia di riconoscimento facciale per sbloccare il telefono, questo è qualcosa che non può permettersi di fare affidamento su una connessione Web per eseguire un modello nel cloud.
Apple ha potenziato le sue capacità di intelligenza artificiale sul dispositivo, soprannominate Apple Intelligence, per includere funzionalità di riconoscimento visivo, come consentirti di cercare le cose di cui hai acquisito uno screenshot.
I modelli di intelligenza artificiale sul dispositivo sono ovunque. I telefoni Pixel di Google eseguono il modello Gemini Nano dell’azienda su misura Chip tensore G5. Questo modello alimenta funzionalità come Magic Cue, che fa emergere le informazioni dalle tue e-mail, dai messaggi e altro ancora, proprio quando ne hai bisogno, senza che tu debba cercarle manualmente.
Gli sviluppatori di telefoni, laptop computer, pill e dell'{hardware} al loro interno stanno costruendo dispositivi pensando all’intelligenza artificiale. Ma va oltre quelli. Pensa agli orologi e agli occhiali intelligenti, che offrono uno spazio molto più limitato anche del telefono più sottile?
“Le sfide del sistema sono molto various”, ha affermato Vinesh Sukumar, responsabile dell’intelligenza artificiale generativa e dell’apprendimento automatico presso Qualcomm. “Posso fare tutto su tutti i dispositivi?”
In questo momento, la risposta è solitamente no. La soluzione è abbastanza semplice. Quando una richiesta supera le capacità del modello, scarica l’attività su un modello basato su cloud. Ma a seconda di come viene gestito questo trasferimento, può compromettere uno dei principali vantaggi dell’intelligenza artificiale integrata sul dispositivo: mantenere i dati interamente nelle tue mani.
IA più privata e sicura
Gli esperti sottolineano ripetutamente la privateness e la sicurezza come vantaggi chiave dell’intelligenza artificiale integrata nel dispositivo. In una situazione cloud, i dati volano in ogni direzione e affrontano più momenti di vulnerabilità. Se rimane su un telefono o su un laptop computer crittografato, è molto più semplice proteggerlo.
I dati utilizzati dai modelli di intelligenza artificiale dei tuoi dispositivi potrebbero includere cose come le tue preferenze, la cronologia di navigazione o le informazioni sulla posizione. Sebbene tutto ciò sia essenziale affinché l’intelligenza artificiale possa personalizzare la tua esperienza in base alle tue preferenze, è anche il tipo di informazioni che potresti non voler cadere nelle mani sbagliate.
“Ciò per cui stiamo spingendo è garantire che l’utente abbia accesso e sia l’unico proprietario di tali dati”, ha affermato Sukumar.
Apple Intelligence ha dato a Siri un nuovo look su iPhone.
Esistono diversi modi in cui è possibile gestire lo scaricamento delle informazioni per proteggere la tua privateness. Un fattore chiave è che dovresti dare il permesso affinché ciò accada. Sukumar ha affermato che l’obiettivo di Qualcomm è garantire che le persone siano informate e abbiano la capacità di dire no quando un modello raggiunge il punto di essere scaricato nel cloud.
Un altro approccio – che può funzionare insieme alla richiesta dell’autorizzazione dell’utente – è garantire che tutti i dati inviati al cloud siano gestiti in modo sicuro, breve e temporaneo. Apple, advert esempio, utilizza la tecnologia che chiama Calcolo cloud privato. I dati scaricati vengono elaborati solo sui server di Apple, vengono inviati solo i dati minimi necessari per l’attività e nessuno di essi viene archiviato o reso accessibile advert Apple.
IA senza il costo dell’IA
I modelli di intelligenza artificiale eseguiti sui dispositivi presentano un vantaggio sia per gli sviluppatori di app che per gli utenti in quanto il costo corrente per gestirli è praticamente nullo. Non esiste alcuna società di servizi cloud che paghi per l’energia e la potenza di calcolo. È tutto nel tuo telefono. La tua tasca è il information middle.
Questo è ciò che ha attirato Charlie Chapman, sviluppatore di un’app per la macchina del rumore chiamata Rumore oscuroall’utilizzo del Basis Fashions Framework di Apple per uno strumento che ti consente di creare un combine di suoni. Il modello AI sul dispositivo non genera nuovo audio, ma seleziona semplicemente diversi suoni e livelli di quantity esistenti per creare un combine.
Poiché l’intelligenza artificiale è in esecuzione sul dispositivo, non ci sono costi continui mentre crei i tuoi combine. Per un piccolo sviluppatore come Chapman, ciò significa che ci sono meno rischi legati alla portata della base utenti della sua app. “Se qualche influencer pubblicasse casualmente qualcosa a riguardo e ottenessi un’incredibile quantità di utenti gratuiti, non significa che andrò improvvisamente in bancarotta”, ha detto Chapman.
Per saperne di più: Elementi essenziali dell’intelligenza artificiale: 29 modi in cui puoi far sì che la generazione AI funzioni per te, secondo i nostri esperti
La mancanza di costi correnti dell’intelligenza artificiale sul dispositivo consente di automatizzare attività piccole e ripetitive come l’immissione di dati senza costi enormi o contratti informatici, ha affermato Chapman. Lo svantaggio è che i modelli su dispositivo differiscono in base al dispositivo, quindi gli sviluppatori dovrebbero fare ancora più lavoro per garantire che le loro app funzionino su {hardware} diverso.
Più attività di intelligenza artificiale vengono gestite su dispositivi client, meno le aziende di intelligenza artificiale devono spendere per la massiccia costruzione di information middle che costringe tutte le principali aziende tecnologiche a lottare per denaro e chip di pc. “Il costo delle infrastrutture è enorme”, ha detto Sukumar. “Se vuoi davvero aumentare la scala, non vuoi aumentare l’onere dei costi.”
Per i creatori che utilizzano l’intelligenza artificiale per l’enhancing di video o foto, l’esecuzione di tali modelli sul proprio {hardware} ha il vantaggio di evitare costosi abbonamenti basati su cloud o costi di utilizzo. Al CES. abbiamo visto come pc dedicati o dispositivi specializzaticome il Nvidia DGX Sparkpuò alimentare modelli di generazione video intensiva come Lightricks-2.
Il futuro è tutta una questione di velocità
Soprattutto quando si tratta di funzioni su dispositivi come occhiali, orologi e telefoni, gran parte della vera utilità dell’intelligenza artificiale e dell’apprendimento automatico non è come il chatbot che ho usato per creare una storia di gatti all’inizio di questo articolo. Sono cose come il riconoscimento degli oggetti, la navigazione e la traduzione. Questi richiedono modelli e {hardware} più specializzati, ma richiedono anche più velocità.
Satya, professore alla Carnegie Mellon, ha studiato i diversi usi dei modelli di intelligenza artificiale e se possono funzionare in modo accurato e abbastanza rapido utilizzando modelli su dispositivo. Quando si tratta di classificazione delle immagini degli oggetti, la tecnologia odierna sta andando piuttosto bene: è in grado di fornire risultati accurati entro 100 millisecondi. “Cinque anni fa, non eravamo in grado di ottenere quel tipo di precisione e velocità”, ha detto.
Questo screenshot ritagliato di riprese video acquisite con gli occhiali Oakley Meta Vanguard AI mostra le metriche di allenamento estratte dall’orologio Garmin associato.
Ma per altri quattro compiti – rilevamento di oggetti, segmentazione istantanea (la capacità di riconoscere gli oggetti e la loro forma), riconoscimento delle attività e tracciamento degli oggetti – i dispositivi devono ancora essere scaricati su un pc più potente da qualche altra parte.
“Penso che nei prossimi anni, cinque anni o giù di lì, sarà molto entusiasmante poiché i fornitori di {hardware} continueranno a cercare di rendere i dispositivi mobili più adatti all’intelligenza artificiale”, ha affermato Satya. “Allo stesso tempo, gli stessi algoritmi di intelligenza artificiale stanno diventando sempre più potenti, più accurati e advert alta intensità di calcolo.”
Le opportunità sono immense. Satya ha affermato che i dispositivi in futuro potrebbero essere in grado di utilizzare la visione artificiale per avvisarti prima di inciampare in caso di pagamenti irregolari o ricordarti con chi stai parlando e fornire un contesto sulle tue comunicazioni passate con loro. Questo genere di cose richiederanno un’intelligenza artificiale più specializzata e {hardware} più specializzato.
“Emergeranno”, ha detto Satya. “Possiamo vederli all’orizzonte, ma non sono ancora qui.”












