Uno dei più grandi annunci del mondo tecnologico – e tra due delle più grandi aziende tecnologiche del pianeta – è stato condensato in una breve dichiarazione congiunta di meno di cento parole. Mela annunciato che Gemini alimenterà la rinascita dell’assistente Siri e il framework che alimenterà le esperienze software program AI su iPhone e Mac.
“Questi modelli contribuiranno a potenziare le future funzionalità di Apple Intelligence, inclusa una Siri più personalizzata in arrivo quest’anno”, ha affermato la società. Questa è una grande vittoria per Google, un’ottima notizia per gli utenti dei dispositivi Apple e un’autoammissione che Apple non è riuscita a guidare la corsa all’intelligenza artificiale con le stesse capacità di Google, Meta o OpenAI.
La scritta è sul muro già da un po’. Advert un certo punto, secondo quanto riferito, Apple stava provando i modelli GPT di Anthropic e Claude di OpenAI per alimentare Siri. Ma alla nice, l’azienda ha scelto Google, il che rappresenta un’enorme conferma delle capacità di Gemini. Analizziamo cosa probabilmente accadrà dopo per milioni di utenti iPhone come te e me.
Quindi… privateness?
Con l’intelligenza artificiale c’è un grande dilemma difficile da trascurare. I chatbot basati sull’intelligenza artificiale scavano più a fondo nelle nostre vite di quanto abbiano mai fatto i social media. I chatbot hanno accesso alla nostra posta elettronica, al calendario, alla galleria, ai file e, ovviamente, ai nostri pensieri quotidiani. Gli esperti sono già alle prese con il crescente problema di una profonda connessione emotiva tra uomo e intelligenza artificiale.
Ma non è la nice. Ogni volta che chiamiamo un chatbot AI, i dati vengono inviati al server di un’azienda per l’elaborazione. In alcuni casi sani, viene archiviato per l’addestramento del modello o per sicurezza e non è possibile disattivarlo. La soluzione? IA sul dispositivo. Advert esempio, Gemini Nano è un approccio su dispositivo che funziona sul silicio locale del tuo telefono o PC.
Nessun dato lascia mai il tuo telefono. Ma è lento e non altrettanto capace. Per le attività legate ai media o altre attività impegnative, l’elaborazione cloud è obbligatoria. Allora, sei pronto, ora che Google sta potenziando le esperienze di intelligenza artificiale sul tuo iPhone e Mac, soprattutto considerando la sua storia? Bene, Apple ha già una soluzione per questo, ed è abbastanza chiara riguardo alla privateness, ora che Gemini alimenterà le esperienze di intelligenza artificiale.

“Apple Intelligence continuerà a funzionare sui dispositivi Apple e sul Personal Cloud Compute, pur mantenendo gli commonplace di privateness chief del settore di Apple”, afferma l’azienda. Ciò significa che i tuoi dati e le interazioni con l’intelligenza artificiale verranno instradati solo attraverso server Personal Cloud Compute, che si basano sul silicio Apple personalizzato e sul sistema operativo della sicurezza dell’azienda.
“Riteniamo che PCC sia l’architettura di sicurezza più avanzata mai implementata per l’elaborazione basata su intelligenza artificiale nel cloud su larga scala”, afferma Apple. Con PCC, i dati vengono crittografati non appena lasciano il telefono. E una volta completata l’attività assegnata, la richiesta dell’utente e il materiale condiviso vengono cancellati dai server.
Nessun dato utente viene conservato e qualunque cosa finisca sui server cloud, nessuno di essi è accessibile advert Apple. Gemini fornisce semplicemente l’intelligenza per elaborare i tuoi comandi di testo o vocali. Tutto il lavoro che segue viene gestito in modo sicuro sui server protetti di Apple, invece di andare su Google.
E dopo?

Se hai mai usato Gemini e poi hai chiesto a Siri di gestire le stesse attività (e l’hai visto fallire), saprai la differenza. L’ultima partnership Google-Apple sta colmando questa lacuna. E, cosa ancora più importante, sta dando advert Apple il foraggio per offrire le proprie esperienze IA uniche.
In generale, il framework sottostante Gemini AI migliorerà Siri e Apple Intelligence. Come esattamente? Questo non è chiaro, perché Apple non farà semplicemente un lavoro di copia-incolla. Probabilmente non vedrai alcun marchio Gemini evidente quando spingerai queste funzionalità AI di nuova generazione sul tuo iPhone.
Apple sta solo prendendo in prestito i cervelli. Il corpo e il comportamento saranno i soliti affari di Apple.
Tuttavia, se confronti ciò che Gemini può già realizzare sui telefoni Android – e ciò che Siri non può fare – puoi avere un assaggio dei progressi che arriveranno sul tuo iPhone, iPad e Mac. Vedete, Apple non sta semplicemente utilizzando la tecnologia AI di Gemini per Apple Intelligence e Siri. Funziona molto più in profondità.

Apple utilizzerà il toolkit AI di Google per la prossima generazione di modelli Apple Basis. Pensa a questi modelli come alla salsa segreta che abilita le funzionalità di Apple Intelligence come il riepilogo, gli strumenti di scrittura, la generazione di immagini e persino le azioni tra app.
Questi modelli, introdotti nel 2024, possono essere eseguiti localmente su un dispositivo (senza richiedere una connessione Web) o sui server cloud di Apple. Un anno dopo, Apple ha introdotto versioni aggiornate più veloci, più capaci di elaborare contenuti multimediali, con una migliore comprensione della lingua e che offrivano supporto per più lingue.
La grande attrazione period che il framework Basis Fashions avrebbe consentito agli sviluppatori di sfruttare queste capacità di intelligenza artificiale sul dispositivo e migliorare l’esperienza dell’utente. Immagina di aprire Spotify e, invece di fare un lavoro manuale, di aprire Siri e di dargli un comando come “crea una playlist con le mie canzoni più ascoltate questo mese”.
Ciò non è ancora possibile sugli iPhone.
Un altro punto debole è l’intelligenza intrinseca di Siri. Ogni volta che fai una domanda che va oltre le domande di base, le scaricherà su ChatGPT. Con Gemini sui dispositivi Android, come Google Pixel 10 Professional, le risposte vengono offerte istantaneamente e le attività possono essere eseguite senza problemi in altre app.

Advert esempio, posso dire a Gemini di “inviare un messaggio a Saba, chiedendole lo stato della classe per il giorno su WhatsApp” e lui si conformerà inviando un messaggio a mia sorella nell’app di messaggistica. Le app e i servizi di Google Workspace sono già ben integrati e consentono agli utenti di gestire attività su Gmail, Calendario, Drive e altri servizi simili con comandi vocali.
Trovare informazioni su una prenotazione di viaggio dalla mia casella di posta, cercare il contenuto di un file o semplicemente controllare il programma del calendario, Gemini fa tutto. Siri non è affatto vicino a questo livello di comodità. Ed è qui che Gemini viene in soccorso anche di Apple.
Un inizio completamente nuovo
Apple sottolinea chiaramente che Gemini alimenterà la “prossima generazione di Apple Basis Fashions”. Ciò significa che Siri sarà in grado di comprendere i comandi del linguaggio naturale in modo più fluido rispetto al suo attuale stato robotico e di gestire le attività su iPhone. Ci sono molti benefici che possono derivare da questo trapianto di cervello dei Gemelli.
Il sistema di ricerca universale su iPhone o Mac verrà migliorato e diventerà più conversazionale. Le attività all’interno dei prodotti Apple, come Observe, Musica, Mail e altro, possono essere gestite con comandi vocali o di testo senza mai aprire tali app. E, soprattutto, anche su altre app.

Con App Intent, l’azienda ha già il framework pronto per portare a termine il lavoro su app di terze parti. Non ha ancora preso piede, probabilmente perché i modelli di intelligenza artificiale disponibili non sono stati ritenuti abbastanza intelligenti dagli sviluppatori. Con Gemini che potenzia le azioni di intelligenza artificiale sul dispositivo, sempre più sviluppatori abbracceranno con sicurezza le azioni conversazionali basate sull’intelligenza artificiale nelle loro app.
Immagina che Siri lavori per te su tutte le app, senza nemmeno aprirle. Su un iPhone puoi già avere un assaggio di come funziona. Apri l’app ChatGPT, abilita i connettori delle app e, con i comandi in linguaggio naturale, puoi eseguire attività su decine di app, inclusa Apple Music.
Ma c’è un avvertimento. Stai collegando un’altra app (tramite login) con ChatGPT, il che significa che OpenAI impara di più su di te. Quando la stessa attività viene eseguita utilizzando il framework integrato a livello di sistema operativo, il rischio per la privateness è teoricamente inferiore. Inoltre, l’intero flusso di lavoro sarà più fluido.
Apple può imitare la strategia Gemini di Google in molti altri modi. Deve semplicemente distribuire Siri sulle proprie app, ma in un modo meno invadente e più ponderato rispetto all’insensato affollamento che abbiamo visto con Copilot, Alexa+ e sì, Gemini stesso. Apple è brava in questo aspetto e sono piuttosto entusiasta di vedere la visione dell’IA dell’azienda realizzarsi entro la nice dell’anno.
C’è molto che Apple può semplicemente imparare dall’esecuzione di Gemini su Android e sul Internet tramite i servizi Google. E ora che ha il cervello Gemini a portata di mano, può modificarlo e integrarlo nelle proprie app e servizi, in tipico stile Apple.
La grande domanda è: dove va a finire ChatGPT, che è già al centro dell’intelligenza di Apple? Ne sapremo di più nei prossimi mesi, e più probabilmente alla prossima conferenza degli sviluppatori Apple a giugno. Ma per ora, il futuro di Siri (e dell’intelligenza artificiale sull’{hardware} Apple) sembra più luminoso che mai per un utente medio come me, e per te!










