A Microsoft processou um grupo anônimo acusado de desenvolver ferramentas para contornar as medidas de segurança do Azure OpenAI Service e gerar conteúdo ilícito.
A Microsoft entrou com uma ação judicial contra um grupo anônimo que teria desenvolvido e utilizado ferramentas para contornar as medidas de segurança de seus produtos de inteligência artificial na nuvem.
De acordo com a queixa registrada em dezembro no Tribunal Distrital dos Estados Unidos para o Distrito Leste da Virgínia, o grupo, referido como “Does”, teria usado credenciais de clientes roubadas e software personalizado para invadir o Azure OpenAI Service.
O Azure OpenAI Service é um serviço gerenciado pela Microsoft que utiliza tecnologias da OpenAI, conhecida pelo desenvolvimento do ChatGPT.
A Microsoft afirma que os réus violaram leis como o Computer Fraud and Abuse Act e o Digital Millennium Copyright Act ao acessarem e usarem ilegalmente softwares e servidores da empresa para criar conteúdo ofensivo e ilícito.
A empresa busca medidas cautelares e danos indenizatórios.
A descoberta ocorreu em julho de 2024, quando a Microsoft identificou que chaves de API do Azure OpenAI Service estavam sendo utilizadas para gerar conteúdo que viola a política de uso aceitável do serviço.
Essas chaves de API, que são sequências únicas de caracteres usadas para autenticação, teriam sido roubadas de clientes legítimos.
A Microsoft destacou que, embora o método exato de obtenção dessas chaves pelos réus seja desconhecido, há evidências de um padrão sistemático de roubo de API Keys de múltiplos clientes.
O grupo teria utilizado essas chaves roubadas para criar um esquema de “hacking como serviço”.
Para isso, desenvolveram uma ferramenta chamada de3u, além de software para processar e direcionar comunicações da de3u para os sistemas da Microsoft.
A ferramenta de3u permitia que usuários gerassem imagens usando o DALL-E, um modelo da OpenAI disponível no Azure OpenAI Service, sem a necessidade de escrever código.
Além disso, a de3u tentava impedir que o serviço revisasse os prompts utilizados para gerar imagens, mecanismo que normalmente bloqueia conteúdos que acionam os filtros de segurança da Microsoft.
Um repositório contendo o código do projeto de3u, hospedado no GitHub, já não está mais acessível.
A Microsoft alegou que essas funcionalidades permitiram aos réus reverterem a engenharia de mecanismos para contornar as medidas de segurança e conteúdo da empresa, causando danos e perdas decorrentes do acesso não autorizado.
Em comunicado publicado na sexta-feira, a Microsoft informou que o tribunal autorizou o confisco de um site fundamental para as operações dos réus.
Essa ação permitirá que a empresa reúna evidências, descubra como os serviços ilícitos eram monetizados e interrompa qualquer infraestrutura técnica adicional associada.
A empresa também mencionou ter implementado contramedidas e acrescentado mitigações de segurança ao Azure OpenAI Service para combater as atividades observadas.
Estamos comprometidos em proteger nossos clientes e garantir a integridade de nossos serviços de inteligência artificial, afirmou a Microsoft.