A inteligência artificial deixou de ser só uma ferramenta de produtividade e passou a ser usada como arma por criminosos: pesquisas recentes indicam aumento de ataques contra aplicações de IA e crescimento de fraudes com deepfakes, o que exige que desenvolvedores entendam novos vetores como prompt injection, adotem defesas em camadas e incorporem soluções de IA defensiva e telemetria no pipeline de desenvolvimento.
A inteligência artificial deixou de ser apenas uma ferramenta de produtividade para times de desenvolvimento e virou também arma nas mãos de criminosos cibernéticos.
Dados recentes apontam que 32% das empresas registraram ataques contra aplicações de IA no último ano, enquanto 62% sofreram fraudes com deepfakes.
Para quem escreve código, isso muda tudo: cada API exposta, prompt mal sanitizado e dependência desatualizada é um vetor de exploração.
Entender como os atacantes usam IA é o primeiro passo para construir software mais resiliente.
O perfil das ameaças mudou: os ataques são mais automatizados, personalizados e muitas vezes quase invisíveis.
Modelos generativos conseguem em minutos o que antes exigia horas de conhecimento técnico e tentativa e erro.
Como bem colocou Marcelo Branquinho, “ferramentas baseadas em IA generativa permitem criar campanhas de phishing altamente convincentes, automatizar a produção de códigos maliciosos e até simular vozes e vídeos de executivos para fraudes financeiras”.
Em outras palavras, hoje o atacante não precisa ser um expert em todas as áreas; basta saber orquestrar prompts.
Uma das superfícies de ataque mais relevantes atualmente é o prompt injection em sistemas que integram grandes modelos de linguagem.
Ao contrário de vulnerabilidades clássicas como SQL injection, não existe um prepared statement universal para prompts, o que exige defesas em camadas.
Entre as medidas citadas estão validação rigorosa de inputs antes que cheguem ao modelo, isolamento de contextos, monitoramento de outputs e rate limiting agressivo em endpoints que consomem modelos.
Também é crítico evitar expor credenciais em prompts ou logs de conversação, pois isso é um presente para qualquer atacante minimamente competente.
Do outro lado, a própria IA tem sido adotada para defesa: soluções que detectam padrões anômalos em tempo real, antecipam ataques e respondem automaticamente a incidentes.
Para desenvolvedores, isso traz novas responsabilidades no pipeline, como integrar análise comportamental, instrumentar aplicações com telemetria e conectar frameworks a sistemas de detecção baseados em IA.
SAST e DAST com capacidades de IA já conseguem encontrar vulnerabilidades que escapavam de scanners tradicionais e, por isso, integrar essas ferramentas ao CI/CD virou diferencial.
Outro ponto crítico é a convergência entre TI e tecnologia operacional, que amplia significativamente a superfície de ataque ao expor sistemas ciber-físicos a APIs e plataformas em nuvem.
Quem desenvolve para indústria, energia ou infraestrutura precisa conhecer protocolos como Modbus, OPC UA e DNP3 com a mesma profundidade que conhece HTTP.
O Gartner projeta que até 2027, 17% de todos os ataques terão envolvimento direto de IA generativa, o que torna urgente incluir cenários com IA adversária no threat modeling.
Revisões de código também devem considerar que o atacante utiliza IA para encontrar falhas, e a cultura de segurança não pode ficar restrita ao time de SecOps.
Para quem quiser aprofundar esse debate presencialmente, a TI Safe realizará um Roadshow CyberSecurity no dia 5 de maio, em São Paulo, no Coco Bambu JK, em parceria com a Claroty.
O evento terá palestras sobre o impacto da IA na segurança, maturidade em ICPS Cybersecurity e os desafios do CISO na proteção de sistemas ciber-físicos.
Em resumo, o código seguro de ontem pode ser a vulnerabilidade de amanhã: o desenvolvedor moderno precisa pensar como atacante, programar como defensor e acompanhar a evolução da IA como uma nova linguagem.