
Resumo
- Google impediu um ataque hacker que utilizava IA para burlar a autenticação de dois fatores.
- Os hackers usaram técnicas para contornar as restrições de segurança, instruindo a IA a assumir o papel de um auditor ou pesquisador.
- A empresa afirma que está investindo em defesas automatizadas, incluindo agentes de IA defensivos, para varrer código e corrigir vulnerabilidades.
O Google confirmou que conseguiu impedir um ataque zero-day criado com o auxílio de inteligência artificial. A descoberta foi divulgada nesta segunda-feira (11/05) pelo Google Threat Intelligence Group (GTIG), equipe responsável por rastrear ameaças cibernéticas.
Segundo o relatório oficial, um grupo hacker planejava um ataque em massa focado em burlar a autenticação de dois fatores (2FA) de uma ferramenta web de código aberto voltada para a administração de sistemas. É a primeira vez que o grupo do Google identificou o uso de IA em um golpe do tipo.
Os pesquisadores encontraram pistas inegáveis da participação de máquinas no script em Python utilizado pelos invasores. O código trazia a mesma organização encontrada em livros de programação gerados por grandes modelos de linguagem (LLMs). Além disso, o script continha alucinações e referências inventadas pela IA.
Apesar das evidências no código interceptado, o Google afirma que não acredita que o seu próprio modelo, o Gemini, tenha sido utilizado na criação do malware.
Como os hackers usaram a IA?
Para contornar as pesadas travas de segurança dos modelos comerciais, os cibercriminosos recorreram a uma técnica conhecida como jailbreaking baseado em persona. Na prática, em vez de pedir para a máquina escrever um vírus diretamente, o hacker instrui a IA a assumir o papel de um auditor de segurança ou de um pesquisador. Enganado pela narrativa, o modelo baixa a guarda, ignora seus filtros éticos e passa a analisar sistemas em busca de brechas reais.
Como aponta o The Verge, a sofisticação dessas campanhas maliciosas está escalando rapidamente. Atores de ameaça estão alimentando LLMs com repositórios inteiros de vulnerabilidades históricas, treinando as máquinas para reconhecer padrões complexos de falhas. O objetivo é testar e ajustar a invasão em ambientes controlados até atingir uma alta taxa de confiabilidade, evitando que o ataque falhe na hora de ser executado no mundo real.
IA vem sendo usada como arma
O documento do Google aponta que os invasores estão focando nos componentes que conectam as IAs aos sistemas corporativos, como as habilidades de execução autônoma de bots. A intenção é comprometer as redes, injetando comandos não autorizados que a IA executa achando que são legítimos.
Para tentar manter a vantagem, o Google aposta em defesas automatizadas. A empresa está investindo no uso de agentes de IA defensivos, treinados especificamente para varrer milhões de linhas de código e corrigir vulnerabilidades em softwares antes mesmo que elas cheguem ao conhecimento do cibercrime.
Seguindo essa mesma estratégia, a gigante das buscas também tem utilizado as habilidades de programação do próprio Gemini para acelerar a testagem e a aplicação de atualizações de segurança em seus sistemas.
Google afirma ter bloqueado um ataque hacker criado com IA
