A empresa diz que resolveu o problema e "não forneceu a ninguém acesso a informações que eles não estavam previamente autorizados a ver".
A Microsoft reconheceu um erro que fez com que seu assistente de trabalho de IA acessasse e resumisse, por engano, e-mails confidenciais de alguns usuários. A gigante de tecnologia lançou o Microsoft 365 Copilot Chat como uma forma segura para os locais de trabalho e seus funcionários usarem seu chatbot de IA generativa. Mas afirmou que um problema recente fez com que a ferramenta exibisse informações para alguns usuários empresariais de mensagens armazenadas em suas pastas de rascunhos e itens enviados, incluindo aquelas marcadas como confidenciais. A Microsoft afirma que lançou uma atualização para corrigir o problema e que "não forneceu a ninguém acesso a informações que eles não estavam previamente autorizados a ver". No entanto, alguns especialistas alertaram que a velocidade com que as empresas competem para adicionar novos recursos de IA significava que esse tipo de erro era inevitável. O Copilot Chat pode ser usado em programas da Microsoft, como Outlook e Teams, usados para funções de e-mail e chat, para obter respostas a perguntas ou resumir mensagens. "Identificamos e resolvemos um problema em que o Microsoft 365 Copilot Chat poderia retornar o conteúdo de e-mails rotulados como confidenciais, de autoria de um usuário e armazenados em seus Rascunhos e Itens Enviados na área de trabalho do Outlook", disse um porta-voz da Microsoft à BBC News. "Embora nossos controles de acesso e políticas de proteção de dados permanecessem intactos, esse comportamento não atendeu à nossa experiência pretendida do Copilot, que foi projetada para excluir conteúdo protegido do acesso do Copilot", acrescentou. "Uma atualização de configuração foi implantada em todo o mundo para clientes corporativos." A falha foi relatada pela primeira vez pela publicação de notícias de tecnologia Bleeping Computer, que afirmou ter visto um alerta de serviço confirmando o problema. Ela citou um aviso da Microsoft dizendo que "as mensagens de e-mail dos usuários com um rótulo confidencial aplicado estão sendo processadas incorretamente pelo chat do Microsoft 365 Copilot". O aviso acrescentou que uma guia de trabalho no Copilot Chat havia resumido mensagens de e-mail armazenadas nos rascunhos e pastas de enviados de um usuário, mesmo quando elas tinham um rótulo de confidencialidade e uma política de prevenção de perda de dados configurada para impedir o compartilhamento de dados não autorizado. Relatórios sugerem que a Microsoft tomou conhecimento do erro em janeiro. Seu aviso sobre o erro também foi compartilhado em um painel de suporte para trabalhadores do NHS na Inglaterra - onde a causa raiz é atribuída a um "problema de código". Uma seção do aviso no site de suporte de TI do NHS implica que ele foi afetado. Mas disse à BBC News que o conteúdo de quaisquer e-mails de rascunho ou enviados processados pelo Copilot Chat permaneceria com seus criadores, e as informações do paciente não foram expostas. 'Vazamento de dados acontecerá' Ferramentas de IA corporativas, como o Microsoft 365 Copilot Chat disponíveis para organizações com uma assinatura do Microsoft 365 costumam ter controles e proteções de segurança mais rigorosos para evitar o compartilhamento de informações corporativas confidenciais. Mas, para alguns especialistas, o problema ainda destaca os riscos de adotar ferramentas de IA generativas em determinados ambientes de trabalho. Nader Henein, analista de proteção de dados e governança de IA da Gartner, disse que "esse tipo de tropeço é inevitável", dada a frequência de lançamento de "recursos de IA novos e inovadores". Ele disse à BBC News que as organizações que usam esses produtos de IA geralmente não têm as ferramentas necessárias para se proteger e gerenciar cada novo recurso. "Em circunstâncias normais, as organizações simplesmente desativariam o recurso e esperariam até que a governança o alcançasse", disse Henein. "Infelizmente, a quantidade de pressão causada pela torrente de propaganda de IA sem fundamento torna isso quase impossível", acrescentou. O professor Alan Woodward, perito em segurança cibernética da Universidade de Surrey, disse que isso demonstrou a importância de tornar essas ferramentas privadas por padrão e aceitar apenas.

Getty Images Um homem segura um telefone com o logotipo do Microsoft Copilot na tela





