Microsoft vaza 38TB de dados confidenciais da nuvem Azure

A divisão de pesquisa de inteligência artificial (IA) da Microsoft vazou acidentalmente dezenas de terabytes de dados confidenciais a partir de julho de 2020, enquanto contribuía com modelos de aprendizado de IA de código aberto para um repositório público do GitHub.

O vazamento foi descoberto quase três anos depois pela empresa de segurança em nuvem Wiz. Os pesquisadores da empresa suspeitam que um funcionário da Microsoft compartilhou inadvertidamente a URL de um bucket (contêiner) de armazenamento de Blob do Azure, configurado incorretamente, contendo as informações vazadas.

A Microsoft vinculou a exposição de dados ao uso de um token SAS (de assinatura de acesso compartilhado) excessivamente permissivo, que permitia controle total sobre os arquivos compartilhados. Esse recurso do Azure permite o compartilhamento de dados de uma maneira descrita pelos pesquisadores da Wiz como desafiadora para monitorar e revogar. 

Quando usados corretamente, os tokens SAS oferecem um meio seguro de conceder acesso a recursos em sua conta de armazenamento. Isso inclui controle preciso sobre o acesso aos dados do cliente, especificando os recursos com os quais eles podem interagir, definindo suas permissões em relação a esses recursos e determinando a duração da validade do token SAS.

“Devido à falta de monitoramento e governança, os tokens SAS representam um risco à segurança e seu uso deve ser o mais limitado possível. Esses tokens são muito difíceis de rastrear, pois a Microsoft não fornece uma maneira centralizada de gerenciá-los no portal do Azure”, alertou a Wiz nesta segunda-feira, 18. “Além disso, esses tokens podem ser configurados para durar efetivamente para sempre, sem limite máximo em seu tempo de expiração. Portanto, usar tokens SAS de conta para compartilhamento externo não é seguro e deve ser evitado.”

A equipe de pesquisadores da Wiz descobriu que, além dos modelos de código aberto, a conta de armazenamento interno também permitia inadvertidamente o acesso a 38 terabytes (TB) de dados privados adicionais.

Os dados expostos incluíam backups de informações pessoais pertencentes a funcionários da Microsoft, incluindo senhas para serviços da Microsoft, chaves secretas e um arquivo de mais de 30 mil mensagens internas do Microsoft Teams originadas de 359 funcionários da empresa.

Em um comunicado nesta segunda-feira da equipe do Microsoft Security Response Center (MSRC), a empresa disse que nenhum dado de cliente foi exposto e nenhum outro serviço interno enfrentou risco devido a esse incidente.De acordo com a Wiz, a equipe de resposta de segurança da Microsoft invalidou o token SAS dois dias após a divulgação inicial, em junho deste ano. O token foi substituído no GitHub um mês depois.

* Com informações do CISO Advisor

Hermann Santos de Almirante

Recent Posts

Que 2025 seja o ano da nossa privacidade!

Com a chegada de um novo ano, somos convidados a refletir, redefinir prioridades e renovar…

3 semanas ago

Privacidade e Inteligência Artificial

A privacidade de dados pessoais em relação aos sistemas de inteligência artificial no Brasil é…

1 mês ago

Deepfakes e ataques exigem reação das empresas à IA generativa

As empresas devem repensar estratégias de comunicação diante das ameaças externas da inteligência artificial generativa.…

1 mês ago

A privacidade de dados como um dos pilares fundamentais das instituições públicas e privadas

A privacidade de dados tem se tornado um dos pilares fundamentais para o funcionamento das…

2 meses ago

Amazon confirma vazamento de dados

A Amazon confirmou que um incidente de segurança comprometeu dados de funcionários, por meio de…

2 meses ago

ANPD quer saber da sociedade se deve regular inteligência artificial

https://youtu.be/IfuM8GWYZks Está aberta até 5 de dezembro de 2024 uma tomada de subsídios da Autoridade Nacional…

2 meses ago