O aumento do uso de ferramentas de IA generativa nas empresas está levantando preocupações sobre a possível exposição de dados sensíveis. Estudos indicam que cerca de 8,5% dos prompts utilizados podem revelar informações confidenciais, incluindo dados de clientes, funcionários e detalhes financeiros. A dependência de versões gratuitas dessas ferramentas agrava o problema, uma vez que elas podem utilizar os dados inseridos para treinar seus modelos. Especialistas recomendam monitoramento em tempo real e conscientização dos funcionários para mitigar os riscos associados.
O ambiente corporativo tem testemunhado uma crescente adoção de ferramentas de Inteligência Artificial (IA) generativa para otimizar processos e aumentar a eficiência.
No entanto, essa tendência está trazendo à tona preocupações significativas relacionadas à segurança de dados.
Recentes análises indicam que, na maioria dos casos, os funcionários utilizam essas ferramentas para tarefas rotineiras, como resumir textos, editar conteúdos ou auxiliar na documentação de códigos.
Contudo, aproximadamente 8,5% dos prompts inseridos podem colocar informações sensíveis em risco de exposição.
Dentre os dados potencialmente comprometidos, cerca de 45,8% referem-se a informações de clientes, incluindo detalhes de faturamento e autenticação.
Outros 26,8% envolvem dados de funcionários, como informações pessoais, registros de pagamento e avaliações de desempenho.
Além disso, 14,9% dos prompts preocupantes contêm informações legais e financeiras, abrangendo desde dados sobre vendas até atividades de fusões e aquisições.
Dados de segurança, representando 6,9%, e códigos confidenciais, com 5,6%, também estão entre as informações vulneráveis.
Um fator que intensifica esse risco é o uso frequente de versões gratuitas dessas ferramentas de IA.
Muitas dessas versões não oferecem os recursos de segurança presentes nas opções empresariais e podem utilizar os dados inseridos pelos usuários para aprimorar seus modelos.
Estimativas mostram que uma parcela significativa dos funcionários opta por essas versões, desconhecendo os potenciais riscos envolvidos.
Especialistas em segurança alertam que a falta de controle sobre as informações inseridas nesses modelos pode resultar em vazamentos de dados críticos.
Alastair Paterson, cofundador e CEO da Harmonic Security, destaca a necessidade de as empresas implementarem medidas proativas para proteger suas informações.
Segundo ele, é vital que as organizações monitorem em tempo real o uso dessas ferramentas e promovam a conscientização entre os funcionários sobre os riscos associados.
Para mitigar esses desafios, recomenda-se que as empresas adotem planos pagos ou opções que garantam que os dados inseridos não sejam utilizados para treinamento dos modelos de IA.
Além disso, ter visibilidade sobre os prompts utilizados pode ajudar a identificar e prevenir possíveis exposições de informações sensíveis.
O avanço da IA generativa oferece inúmeras oportunidades para as empresas, mas é essencial equilibrar a inovação com práticas robustas de segurança de dados.
A proteção das informações corporativas e de clientes deve ser prioridade, garantindo que a adoção dessas tecnologias não comprometa a integridade e a confiança nos negócios.