Filtro de privacidade da OpenAI: detecção de “PII” que roda direto na sua máquina

O Privacy Filter é um modelo criado para detectar e redigir informações pessoalmente identificáveis (PII) em textos longos.Ele roda localmente, suporta até 128.000 tokens em uma única passada e foi pensado para aumentar a sensibilidade ao contexto em comparação com abordagens baseadas em regras. 

OpenAI lançou o Privacy Filter, um modelo de classificação de tokens destinado a encontrar e redigir PII em documentos longos.

O modelo analisa sequências inteiras em uma única passada, evitando a necessidade de fragmentar textos extensos.

Ele foi desenvolvido a partir de um checkpoint pré-treinado autoregressivo e convertido para um classificador de tokens sobre uma taxonomia fixa de privacidade.

Os oito rótulos cobrem nomes, endereços, e-mails, telefones, URLs, datas, números de conta e segredos como chaves de API e senhas.







O funcionamento passa por rotular toda a sequência e em seguida decodificar spans coerentes com um procedimento de Viterbi restrito.

Segundo a OpenAI, a abordagem bidirecional e a compreensão de linguagem permitem detectar uma gama maior de PII em textos não estruturados, inclusive quando a decisão correta depende do contexto.

“By combining strong language understanding with a privacy-specific labeling system, it can detect a wider range of PII in unstructured text, including cases where the right decision depends on context.”

Um exemplo prático é a diferenciação entre um endereço comercial público e a residência privada de alguém.

O Privacy Filter é relativamente pequeno, com 1,5 bilhão de parâmetros no total e 50 milhões de parâmetros ativos, o que permite sua execução em navegadores e laptops.

Essa execução local reduz o envio de dados sensíveis para a nuvem, diminuindo riscos de exposição durante pipelines que alimentam LLMs.

Nos testes, o modelo alcançou F1 de 96% no benchmark PII-Masking-300k, com 94,04% de precisão e 98,04% de recall, após correções de anotações feitas durante a avaliação.

A OpenAI deixa claro que o Privacy Filter não é uma ferramenta de anonimização completa, mas sim um componente dentro de um sistema mais amplo de privacy-by-design.

Existem alternativas no mercado, como o Presidio da Microsoft e o Amazon Comprehend, mas o diferencial aqui é a combinação entre sensibilidade ao contexto e a possibilidade de execução local.

Para quem constrói sistemas RAG, pipelines de suporte ou qualquer fluxo que envie textos a LLMs, o Privacy Filter pode ser usado para reduzir riscos antes de submeter dados a modelos maiores.

A OpenAI também informa que é possível adaptar o modelo com pouca quantidade de dados e que treinar com 10% do conjunto já pode levar o F1 a patamares acima de 96%.

Apesar dos bons resultados, a recomendação é manter revisão humana em domínios de alta sensibilidade, como jurídico, médico e financeiro, por conta do risco de erros.

O Privacy Filter está disponível no Hugging Face e no GitHub sob a licença Apache 2.0.

O lançamento foi divulgado junto com a apresentação do GPT-5.5 pela OpenAI.

Total
0
Shares
Artigo anterior

AI “shrinkflation”? O que está por trás das queixas sobre o Claude Opus 4.7

Próximo artigo

Google diz que 75% do código novo já vem de IA



Artigos relacionados