In qualità di vicepresidente del prodotto presso Google Cloud, Michael Gerstenhaber lavora principalmente su Vertex, la piattaforma unificata dell’azienda per l’implementazione dell’intelligenza artificiale aziendale. Gli offre una visione di alto livello di come le aziende utilizzano effettivamente i modelli di intelligenza artificiale e di cosa è ancora necessario fare per liberare il potenziale dell’intelligenza artificiale degli agenti.
Quando ho parlato con Michael, sono rimasto particolarmente colpito da un’concept che non avevo mai sentito prima. Come ha affermato, i modelli di intelligenza artificiale si stanno spingendo contro tre frontiere contemporaneamente: intelligenza pura, tempo di risposta e una terza qualità che ha meno a che fare con le capacità grezze che con i costi: se un modello può essere implementato abbastanza a buon mercato da funzionare su scala massiccia e imprevedibile. È un nuovo modo di pensare alle capacità del modello, particolarmente prezioso per chiunque cerchi di spingere i modelli di frontiera in una nuova direzione.
Questa intervista è stata modificata per motivi di lunghezza e chiarezza.
Perché non inizi raccontandoci la tua esperienza nel campo dell’intelligenza artificiale finora e cosa fai in Google?
Sono in AI da circa due anni ormai. Sono stato advert Anthropic per un anno e mezzo, sono in Google da quasi sei mesi ormai. Utilizzo Vertex, la piattaforma per sviluppatori di Google. La maggior parte dei nostri clienti sono ingegneri che sviluppano le proprie applicazioni. Vogliono avere accesso ai modelli agentici. Vogliono accedere a una piattaforma di agenti. Vogliono accedere all’inferenza dei modelli più intelligenti del mondo. Fornisco loro questo, ma non fornisco le applicazioni stesse. Spetta a Shopify, Thomson Reuters e ai nostri vari clienti fornirli nei propri domini.
Cosa ti ha portato a Google?
Penso che Google sia unico al mondo in quanto ha tutto, dall’interfaccia al livello dell’infrastruttura. Possiamo costruire information middle. Possiamo acquistare elettricità e costruire centrali elettriche. Abbiamo le nostre patatine. Abbiamo il nostro modello. Abbiamo il livello di inferenza che controlliamo. Abbiamo lo strato agente che controlliamo. Abbiamo API per la memoria, per la scrittura di codice interleaved. Inoltre, disponiamo di un motore di agenti che garantisce conformità e governance. E poi abbiamo anche l’interfaccia di chat con Gemini Enterprise e la chat Gemini per i consumatori, giusto? Quindi parte del motivo per cui sono venuto qui è perché vedevo Google come un sistema integrato verticalmente in modo univoco, e questo è un punto di forza per noi.
Evento Techcrunch
Boston, MA
|
9 giugno 2026
È strano perché, nonostante tutte le differenze tra le aziende, sembra che tutti e tre i grandi laboratori lo siano davvero vicino in termini di capacità. È solo una corsa per una maggiore intelligenza o è più complicata di così?
Vedo tre confini. Modelli come Gemini Professional sono ottimizzati per l’intelligenza pura. Pensa a scrivere codice. Vuoi solo il miglior codice che puoi ottenere, non importa se ci vogliono 45 minuti, perché devo mantenerlo, devo metterlo in produzione. Voglio solo il meglio.
Poi c’è quest’altro confine con la latenza. Se mi occupo di assistenza clienti e ho bisogno di sapere come applicare una politica, è necessaria l’intelligenza per applicare quella politica. Ti è consentito effettuare una restituzione? Posso aggiornare il mio posto su un aereo? Ma non importa quanto tu abbia ragione se ci sono voluti 45 minuti per ottenere la risposta. Quindi, in questi casi, vuoi il prodotto più intelligente entro quel funds di latenza, perché più intelligenza non ha più importanza una volta che la persona si annoia e riattacca.
E poi c’è quest’ultimo secchio, in cui qualcuno come Reddit o Meta vuole moderare l’intera Web. Hanno funds ampi, ma non possono assumersi un rischio aziendale su qualcosa se non sanno come scalarlo. Non sanno quanti put up velenosi ci saranno oggi o domani. Quindi devono limitare il loro funds a un modello con la massima intelligenza che possono permettersi, ma in modo scalabile a un numero infinito di soggetti. E per questo, il costo diventa molto, molto importante.
Una delle cose su cui sono rimasto perplesso è il motivo per cui i sistemi advert agenti impiegano così tanto tempo per prendere piede. Sembra che i modelli siano lì e ho visto demo incredibili, ma non stiamo vedendo il tipo di cambiamenti importanti che mi sarei aspettato un anno fa. Cosa pensi che lo trattenga?
Questa tecnologia ha praticamente due anni e mancano ancora molte infrastrutture. Non disponiamo di schemi per verificare ciò che stanno facendo gli agenti. Non disponiamo di modelli per l’autorizzazione dei dati a un agente. Ci sono questi modelli che richiederanno lavoro per essere messi in produzione. E la produzione è sempre un indicatore finale di ciò di cui la tecnologia è capace. Quindi due anni non sono sufficienti per vedere cosa supporta l’intelligenza nella produzione, ed è qui che le persone lottano.
Penso che si sia mosso in modo particolarmente rapido nell’ingegneria del software program perché si adatta perfettamente al ciclo di vita dello sviluppo del software program. Abbiamo un ambiente di sviluppo in cui è sicuro rompere le cose, quindi passiamo dall’ambiente di sviluppo all’ambiente di take a look at. Il processo di scrittura del codice in Google richiede che due persone controllino il codice ed entrambi affermino che è abbastanza buono da sostenere il marchio Google e darlo ai nostri clienti. Quindi abbiamo molti di quei processi human-in-the-loop che rendono l’implementazione eccezionalmente a basso rischio. Ma dobbiamo produrre questi modelli in altri luoghi e per altre professioni.













