Microsoft ha confermato che un bug ha consentito alla sua intelligenza artificiale Copilot di riepilogare le e-mail riservate dei clienti per settimane senza autorizzazione.
Il bug, segnalato per la prima volta da Computer che suonaha consentito a Copilot Chat di leggere e delineare il contenuto delle e-mail da gennaio, anche se i clienti disponevano di politiche di prevenzione della perdita di dati per impedire l’inserimento delle loro informazioni sensibili nel vasto modello linguistico di Microsoft.
Copilot Chat consente ai clienti paganti di Microsoft 365 di utilizzare la funzionalità di chat basata sull’intelligenza artificiale nei suoi prodotti software program Workplace, tra cui Phrase, Excel e PowerPoint.
Microsoft ha affermato che il bug, tracciabile dagli amministratori come CW1226324significa che i messaggi di posta elettronica bozza e inviati “con un’etichetta riservata applicata vengono elaborati in modo errato dalla chat di Microsoft 365 Copilot”.
Il colosso della tecnologia ha affermato di aver iniziato a implementare una correzione per il bug all’inizio di febbraio. Un portavoce di Microsoft non ha risposto a una richiesta di commento, inclusa una domanda su quanti clienti sono interessati dal bug.
All’inizio di questa settimana, il dipartimento IT del Parlamento europeo ha dichiarato ai legislatori di aver bloccato le funzionalità di intelligenza artificiale combine nei loro dispositivi di lavoro, citando la preoccupazione che gli strumenti di intelligenza artificiale potessero caricare corrispondenza potenzialmente riservata nel cloud.










