Microsoft processa grupo por abuso de serviços de IA no Azure

A Microsoft processou um grupo anônimo acusado de desenvolver ferramentas para contornar as medidas de segurança do Azure OpenAI Service e gerar conteúdo ilícito.

A Microsoft entrou com uma ação judicial contra um grupo anônimo que teria desenvolvido e utilizado ferramentas para contornar as medidas de segurança de seus produtos de inteligência artificial na nuvem.

De acordo com a queixa registrada em dezembro no Tribunal Distrital dos Estados Unidos para o Distrito Leste da Virgínia, o grupo, referido como “Does”, teria usado credenciais de clientes roubadas e software personalizado para invadir o Azure OpenAI Service.

O Azure OpenAI Service é um serviço gerenciado pela Microsoft que utiliza tecnologias da OpenAI, conhecida pelo desenvolvimento do ChatGPT.

A Microsoft afirma que os réus violaram leis como o Computer Fraud and Abuse Act e o Digital Millennium Copyright Act ao acessarem e usarem ilegalmente softwares e servidores da empresa para criar conteúdo ofensivo e ilícito.

A empresa busca medidas cautelares e danos indenizatórios.

A descoberta ocorreu em julho de 2024, quando a Microsoft identificou que chaves de API do Azure OpenAI Service estavam sendo utilizadas para gerar conteúdo que viola a política de uso aceitável do serviço.

Essas chaves de API, que são sequências únicas de caracteres usadas para autenticação, teriam sido roubadas de clientes legítimos.

A Microsoft destacou que, embora o método exato de obtenção dessas chaves pelos réus seja desconhecido, há evidências de um padrão sistemático de roubo de API Keys de múltiplos clientes.

O grupo teria utilizado essas chaves roubadas para criar um esquema de “hacking como serviço”.

Para isso, desenvolveram uma ferramenta chamada de3u, além de software para processar e direcionar comunicações da de3u para os sistemas da Microsoft.

A ferramenta de3u permitia que usuários gerassem imagens usando o DALL-E, um modelo da OpenAI disponível no Azure OpenAI Service, sem a necessidade de escrever código.

Além disso, a de3u tentava impedir que o serviço revisasse os prompts utilizados para gerar imagens, mecanismo que normalmente bloqueia conteúdos que acionam os filtros de segurança da Microsoft.

Um repositório contendo o código do projeto de3u, hospedado no GitHub, já não está mais acessível.

A Microsoft alegou que essas funcionalidades permitiram aos réus reverterem a engenharia de mecanismos para contornar as medidas de segurança e conteúdo da empresa, causando danos e perdas decorrentes do acesso não autorizado.

Em comunicado publicado na sexta-feira, a Microsoft informou que o tribunal autorizou o confisco de um site fundamental para as operações dos réus.

Essa ação permitirá que a empresa reúna evidências, descubra como os serviços ilícitos eram monetizados e interrompa qualquer infraestrutura técnica adicional associada.

A empresa também mencionou ter implementado contramedidas e acrescentado mitigações de segurança ao Azure OpenAI Service para combater as atividades observadas.

Estamos comprometidos em proteger nossos clientes e garantir a integridade de nossos serviços de inteligência artificial, afirmou a Microsoft.

Total
0
Shares
Artigo anterior

Google experimenta podcasts gerados por IA com base no seu histórico de busca

Próximo artigo

Overhaul capta US$ 55 milhões para aprimorar plataforma de gestão de cargas com IA



Artigos relacionados