Home Tecnologia Perché l’aggiornamento Siri a iOS 26.4 di Apple sarà più grande di...

Perché l’aggiornamento Siri a iOS 26.4 di Apple sarà più grande di quanto originariamente promesso

128
0

Nell’aggiornamento iOS 26.4 in arrivo questa primavera, Apple introdurrà una nuova versione di Siri che revisionerà il modo in cui interagiamo con l’assistente personale e cosa è in grado di fare.


La versione iOS 26.4 di ‌Siri‌ non funzionerà come ChatGPT o Claude, ma si baserà su modelli linguistici di grandi dimensioni (LLM) ed è stata aggiornata da zero.

Architettura aggiornata

La versione di prossima generazione di ‌Siri‌ utilizzerà modelli linguistici avanzati di grandi dimensioni, simili a quelli utilizzati da ChatGPT, Claude e Gemini. Apple non sta implementando interazioni chatbot full, ma Qualunque l’aggiornamento è migliore di quello disponibile ora e atteso da tempo.

Al momento, ‌Siri‌ utilizza l’apprendimento automatico, ma non ha le capacità di ragionamento impartite dai modelli LLM. ‌Siri‌ si basa su più modelli specifici per attività per completare una richiesta, passando da un passaggio all’altro. ‌Siri‌ deve determinare l’intento di una richiesta, estrarre informazioni rilevanti (un’ora, un evento, un nome, ecc.) e quindi utilizzare API o app per completare la richiesta. Non è un sistema tutto in uno.

In iOS 26.4, ‌Siri‌ avrà un core LLM attorno al quale è costruito tutto il resto. Invece di limitarsi a tradurre la voce in testo e cercare parole chiave su cui eseguire, ‌Siri‌ capirà effettivamente le specifiche di ciò che un utente sta chiedendo e utilizzerà il ragionamento per portarlo a termine.

Miglioramenti LLM

‌Siri‌ oggi di solito va bene per attività semplici come impostare un timer o una sveglia, inviare un messaggio di testo, accendere o spegnere un dispositivo domestico intelligente, rispondere a una semplice domanda o controllare una funzione del dispositivo, ma non capisce nulla di più complicato, non può completare attività in più passaggi, non può interpretare parole che non sono nella struttura che desidera, non ha un contesto personale e non supporta domande di follow-up.

Un LLM dovrebbe risolvere la maggior parte di questi problemi perché ‌Siri‌ avrà qualcosa di simile a un cervello. Gli LLM possono comprendere le sfumature di una richiesta, scoprire cosa vuole effettivamente qualcuno e adottare le misure necessarie per fornire tali informazioni o completare l’azione richiesta.

Sappiamo già parte di ciò che LLM ‌Siri‌ sarà in grado di fare perché Apple ha descritto le funzionalità di Apple Intelligence che intende implementare quando iOS 18 ha debuttato.

Funzionalità Promesse di Siri Apple Intelligence

Apple ha descritto tre modi specifici in cui ‌Siri‌ migliorerà, incluso il contesto personale, la capacità di vedere cosa c’è sullo schermo per sapere di cosa sta parlando l’utente e la capacità di fare di più all’interno e tra le app.

‌Siri‌ comprenderà i pronomi, i riferimenti ai contenuti sullo schermo e nelle app e avrà una memoria a breve termine per le richieste di follow-up.

Contesto personale

Con il contesto personale, ‌Siri‌ sarà in grado di tenere traccia di e-mail, messaggi, file, foto e altro, imparando di più su di te per aiutarti a completare le attività e tenere traccia di ciò che ti è stato inviato.

  • Mostrami i file che Eric mi ha mandato la settimana scorsa.
  • Trova l’e-mail in cui Eric menziona il pattinaggio sul ghiaccio.
  • Trova i libri che mi ha consigliato Eric.
  • Dov’è la ricetta che mi ha mandato Eric?
  • Qual è il numero del mio passaporto?

Consapevolezza sullo schermo

La consapevolezza sullo schermo consentirà a ‌Siri‌ di vedere cosa c’è sul tuo schermo e di completare azioni che coinvolgono qualunque cosa tu stia guardando. Se qualcuno ti invia un indirizzo tramite SMS, advert esempio, puoi dire a ‌Siri‌ di aggiungerlo alla sua scheda contatto. Oppure, se stai guardando una foto e desideri inviarla a qualcuno, puoi chiedere a ‌Siri‌ di farlo per te.

Integrazione più profonda delle app

Una più profonda integrazione delle app significa che ‌Siri‌ sarà in grado di fare di più all’interno e tra le app, eseguendo azioni e completando attività che al momento non sono possibili con l’assistente personale. Non abbiamo un quadro completo di ciò di cui sarà capace ‌Siri‌, ma Apple ha fornito alcuni esempi di cosa aspettarsi.

  • Spostamento di file da un’app all’altra.
  • Modificare una foto e inviarla a qualcuno.
  • Ottieni indicazioni per tornare a casa e condividi l’orario di arrivo stimato con Eric.
  • Invia l’e-mail che ho redatto a Eric.

Aggiornamento più grande di quanto promesso

In un incontro collettivo nell’agosto 2025, il capo dell’ingegneria del software program Apple Craig Federighi ha spiegato la debacle di ‌Siri‌ ai dipendenti. Apple aveva tentato di unire due sistemi separati, ma non ha funzionato.

Esisteva un sistema per la gestione dei comandi attuali e un altro basato su ampi modelli linguistici, e l’approccio ibrido non funzionava a causa dei confini dell’attuale architettura ‌Siri‌. L’unica through da seguire period passare all’architettura di seconda generazione costruita attorno a un modello linguistico di grandi dimensioni.

Nell’incontro di agosto, Federighi ha affermato che Apple ha rinnovato con successo ‌Siri‌ e che Apple sarà in grado di introdurre un aggiornamento più grande di quanto promesso in iOS 18.

“Il lavoro che abbiamo svolto su questo rinnovamento end-to-end di ‌Siri‌ ci ha dato i risultati di cui avevamo bisogno”, ha detto Federighi ai dipendenti. “Questo ci ha messo nella posizione non solo di fornire ciò che avevamo annunciato, ma di fornire un aggiornamento molto più grande di quello che avevamo previsto.”

Adozione di Google Gemini

Parte del problema di Apple period che si affidava a modelli di intelligenza artificiale costruiti internamente e che non erano in grado di eguagliare le capacità della concorrenza. Apple ha iniziato a prendere in considerazione l’utilizzo di un modello di terze parti per ‌Siri‌ e altre future funzionalità di intelligenza artificiale poco dopo aver ritardato ‌Siri‌, e a gennaio Apple ha annunciato una partnership pluriennale con Google.

Per il prossimo futuro, le funzionalità AI di Apple, inclusa la versione più personalizzata di ‌Siri‌, utilizzeranno un modello personalizzato creato da Apple in collaborazione con il group Gemini di Google. Apple prevede di continuare a lavorare sui propri modelli interni, ma per ora farà affidamento su Gemini per molte funzionalità rivolte al pubblico.

‌Siri‌ in iOS 26.4 sarà più simile a Google Gemini di ‌Siri‌ oggi, anche se senza funzionalità full di chatbot. Apple prevede di continuare a eseguire alcune funzionalità sul dispositivo e di utilizzare il Personal Cloud Compute per mantenere la privateness. Apple manterrà i dati personali sul dispositivo, anonimizzerà le richieste e continuerà a consentire la disabilitazione delle funzionalità AI.

Cosa non arriverà in iOS 26.4

‌Siri‌ non funzionerà come chatbot, quindi la versione aggiornata non includerà memoria a lungo termine o conversazioni avanti e indietro, inoltre Apple prevede di utilizzare la stessa interfaccia vocale con funzionalità di digitazione limitate.

L’imbarazzante ritardo di Siri di Apple

Con quella che è diventata una mossa famigerata, Apple è andata all-in sfoggiando una versione più intelligente di ‌Siri‌ basata sull’intelligenza di Apple quando ha introdotto iOS 18 alla Worldwide Builders Convention del 2024. Apple ha affermato che queste funzionalità sarebbero arrivate con un aggiornamento di iOS 18, ma proprio quando period previsto il lancio, Apple ha ammesso che ‌Siri‌ non period pronto e sarebbe stato ritardato fino alla primavera del 2026.

Annuncio Siri più personale di AppleAnnuncio Siri più personale di Apple

I dirigenti Apple hanno partecipato a un tour stampa per spiegare le carenze di ‌Siri‌ dopo la WWDC 2025, promettendo cose migliori e più grandi per iOS 26 e spiegando cosa è andato storto. Le funzionalità di ‌Apple Intelligence‌ ‌Siri‌ che abbiamo visto alla WWDC 2024 sono state effettivamente implementate e non erano false, ma ‌Siri‌ non funzionava come previsto dietro le quinte e Apple stava affrontando problemi di qualità.

Da quando Apple ha pubblicizzato le nuove funzionalità di ‌Siri‌ con l’iPhone 16, alcune persone che hanno acquistato l’iPhone a causa della nuova funzionalità sono rimaste sconvolte dal ritardo e hanno fatto causa. Apple è riuscita a risolvere silenziosamente il caso nel dicembre 2025, quindi la maggior parte del problema relativo a ‌Siri‌ è stato risolto.

Ristrutturazione interna

Il passo falso con il debutto di ‌Siri‌ e il fallimento dell’architettura ibrida hanno portato Apple a ristrutturare l’intero group AI. Il capo dell’intelligenza artificiale di Apple, John Giannandrea, è stato rimosso dal group dirigente di ‌Siri‌, mentre il capo di Imaginative and prescient Professional, Mike Rockwell, è subentrato.

Il CEO di Apple Tim Prepare dinner non period più fiducioso nella capacità di Giannandrea di supervisionare lo sviluppo del prodotto, e Giannandrea andrà in pensione nella primavera del 2026. Rockwell riferisce a Federighi e Federighi ha detto ai dipendenti che la nuova management ha “potenziato” lo sviluppo di ‌Siri‌. Apparentemente Federighi ha svolto un ruolo determinante nel cambiare l’approccio di Apple all’intelligenza artificiale e sta prendendo le decisioni che consentiranno all’azienda di raggiungere i rivali.

Apple ha faticato a trattenere i dipendenti dell’intelligenza artificiale a causa del problema di ‌Siri‌ e delle strategie di reclutamento di aziende come Meta. Meta ha sottratto advert Apple diversi ingegneri chiave dell’intelligenza artificiale, offrendo pacchetti salariali fino a 200 milioni di dollari. All’incontro generale di Apple di agosto, Prepare dinner e Federighi hanno mirato a rassicurare i dipendenti che l’intelligenza artificiale è di fondamentale importanza per l’azienda. “Non esiste progetto che le persone prendano più sul serio”, ha detto Federighi di ‌Siri‌.

Prepare dinner ha affermato che Apple “effettuerà l’investimento” per diventare chief nell’intelligenza artificiale.

Information di lancio di iOS 26.4 Siri

Apple ha promesso che la nuova versione di ‌Siri‌ arriverà nella primavera del 2026, ovvero quando ci aspettiamo iOS 26.4. I check su iOS 26.4 dovrebbero iniziare a positive febbraio o inizio marzo, con un lancio che seguirà intorno al periodo di aprile.

Compatibilità LLM Siri

La nuova versione di ‌Siri‌ funzionerà presumibilmente su tutti i dispositivi che supportano ‌Apple Intelligence‌, sebbene Apple non abbia fornito esplicitamente dettagli. Alcune nuove funzionalità di ‌Siri‌ potrebbero essere disponibili anche sui dispositivi più vecchi.

Aggiornamento chatbot per iOS 27

Apple prevede di aggiornare ulteriormente ‌Siri‌ nell’aggiornamento iOS 27, trasformando Siri in un chatbot. ‌Siri‌ funzionerà come Claude o ChatGPT, in grado di comprendere e impegnarsi in conversazioni avanti e indietro.

I dettagli sull’interfaccia di ‌Siri‌ e su come funzionerà una versione chatbot di ‌Siri‌ sono ancora scarsi, ma iOS 26.4 sarà una tappa nel percorso verso una versione di ‌Siri‌ in grado di funzionare effettivamente come i prodotti di Anthropic e OpenAI.

fonte