OpenAI scommette molto sull’intelligenza artificiale audio e non si tratta solo di migliorare il suono di ChatGPT. Secondo nuova segnalazione da The Data, negli ultimi due mesi l’azienda ha riunito diversi staff di ingegneria, prodotto e ricerca per rivedere i suoi modelli audio, il tutto in preparazione per il primo dispositivo personale audio previsto per il lancio tra circa un anno.
Questa mossa riflette la direzione verso cui è diretto l’intero settore tecnologico: verso un futuro in cui gli schermi diventano rumore di fondo e l’audio è al centro della scena. Gli altoparlanti intelligenti hanno già reso gli assistenti vocali una presenza fissa in più di un terzo delle case degli Stati Uniti. Meta ha appena lanciato una funzionalità per i suoi occhiali intelligenti Ray-Ban che utilizza un array di cinque microfoni per aiutarti a sentire le conversazioni in stanze rumorose, trasformando essenzialmente il tuo viso in un dispositivo di ascolto direzionale. Google, nel frattempo, ha iniziato a sperimentare a giugno con “Panoramiche audio” che trasformano i risultati di ricerca in riepiloghi conversazionali. E Tesla sta integrando Grok e altri LLM nei suoi veicoli per creare assistenti vocali conversazionali in grado di gestire qualsiasi cosa, dalla navigazione al controllo del clima attraverso il dialogo naturale.
Non sono solo i giganti della tecnologia a piazzare questa scommessa. Un gruppo eterogeneo di startup è emerso con la stessa convinzione, anche se con diversi gradi di successo. I creatori della Humane AI Pin hanno bruciato centinaia di milioni prima che il loro dispositivo indossabile senza schermo diventasse un ammonimento. Il ciondolo Good friend AI, una collana che registra la tua vita e offre compagnia, ha suscitato preoccupazioni sulla privateness e terrore esistenziale in eguale misura. E ora almeno due società, tra cui Sandbar e una guidata dal fondatore di Pebble Eric Migicovsky, stanno costruendo anelli AI che dovrebbero debuttare nel 2026, consentendo a chi li indossa di parlare letteralmente con la mano.
I fattori di forma possono differire, ma la tesi è la stessa: l’audio è l’interfaccia del futuro. Ogni spazio – la tua casa, la tua macchina, persino il tuo viso – sta diventando un’interfaccia.
Secondo quanto riferito, il nuovo modello audio di OpenAI, previsto per l’inizio del 2026, suonerà più naturale, gestirà le interruzioni come un vero interlocutore e parlerà persino mentre parli, cosa che i modelli di oggi non possono gestire. Si cube inoltre che la società preveda una famiglia di dispositivi, che possibilmente includa occhiali o altoparlanti intelligenti senza schermo, che agiscano meno come strumenti e più come compagni.
Come osserva The Data, l’ex capo del design di Apple Jony Ive, che si è unito agli sforzi {hardware} di OpenAI attraverso l’acquisizione da 6,5 miliardi di dollari da parte dell’azienda a maggio della sua azienda io, ha fatto della riduzione della dipendenza dai dispositivi una priorità, vedendo il design incentrato sull’audio come un’opportunità per “correggere i torti” dei gadget di consumo del passato.












