Quando Amazon Internet Providers è stata colpita da un’interruzione di 13 ore a dicembre, non è stato perché una persona è inciampata in un cavo. Secondo un rapporto del Monetary Instances, diversi dipendenti anonimi di Amazon hanno affermato che l’interruzione è stata colpa di Kiro, l’assistente di codifica AI di Amazon, anche se Amazon avrebbe incolpato l’errore umano per la situazione.
Secondo i resoconti forniti al Tempi finanziariKiro stava lavorando in modo autonomo quando ha riscontrato un problema. Ha deciso che la soluzione migliore period “cancellare e ricreare l’ambiente” che causava problemi. Ciò, secondo i resoconti, ha portato all’interruzione che Amazon ha descritto come un “evento estremamente limitato”, interrompendo infine il servizio in una parte della Cina continentale.
In circostanze tipiche, Kiro richiede che due persone approvino le modifiche proposte prima di procedere. Ma in questo caso, secondo quanto riferito, l’agente AI stava lavorando con un ingegnere che aveva permessi più ampi rispetto ai dipendenti di rango inferiore, e Kiro veniva trattato come un’estensione di un operatore. Di conseguenza, gli sono state concesse le stesse autorizzazioni di una persona e gli è stato consentito di inviare la modifica senza approvazione, il che ha portato all’interruzione.
Inoltre, a quanto pare, non period la prima volta che ciò accadeva. Secondo FT, è almeno il secondo incidente in cui Kiro ha avuto ulteriore libertà e alla advantageous lo ha potenziato. La situazione precedente non ha influenzato alcun “servizio AWS rivolto al cliente”, quindi è passata inosservata al mondo al di fuori di AWS. Ma i dipendenti sembrano prenderne atto.
Amazon ha messo sotto pressione Kiro da quando ha introdotto l’assistente di codifica a luglio, secondo quanto riferito, offre assistenza ai dipendenti che utilizzano lo strumento interno rispetto a opzioni esterne come Codex di OpenAI, Claude Code di Anthropic o Cursor—apparentemente con dispiacere degli ingegneriche preferirebbero utilizzare strumenti come Claude.
Forse allora non sorprende che Amazon sia particolarmente sulla difensiva nei confronti del suo prezioso bambino Kiro. Secondo il Financial Timesla società ha descritto l’incidente come “un problema di controllo dell’accesso degli utenti, non un problema di autonomia dell’intelligenza artificiale” e ha affermato che si trattava solo di una “coincidenza che fossero coinvolti strumenti di intelligenza artificiale” perché “lo stesso problema potrebbe verificarsi con qualsiasi strumento di sviluppo o azione manuale”. L’ultima parte è vera; una persona avrebbe potuto fare lo stesso errore. Il fatto è, però, che non l’hanno fatto. Si trattava di un agente AI che presumibilmente aveva un livello inaspettato di accesso al codice base dell’azienda e ha fatto un fischio.
Secondo quanto riferito, Amazon ha detto ai dipendenti che vuole che l’80% dei suoi sviluppatori utilizzi l’intelligenza artificiale per attività di codifica almeno una volta alla settimana. Se non riesci advert accedere a Spotify o Discord, sappi che Amazon ha raggiunto il suo obiettivo.












