Google afirma ter bloqueado um ataque hacker criado com IA

Resumo
  • Google impediu um ataque hacker que utilizava IA para burlar a autenticação de dois fatores.
  • Os hackers usaram técnicas para contornar as restrições de segurança, instruindo a IA a assumir o papel de um auditor ou pesquisador.
  • A empresa afirma que está investindo em defesas automatizadas, incluindo agentes de IA defensivos, para varrer código e corrigir vulnerabilidades.

O Google confirmou que conseguiu impedir um ataque zero-day criado com o auxílio de inteligência artificial. A descoberta foi divulgada nesta segunda-feira (11/05) pelo Google Threat Intelligence Group (GTIG), equipe responsável por rastrear ameaças cibernéticas.

Segundo o relatório oficial, um grupo hacker planejava um ataque em massa focado em burlar a autenticação de dois fatores (2FA) de uma ferramenta web de código aberto voltada para a administração de sistemas. É a primeira vez que o grupo do Google identificou o uso de IA em um golpe do tipo.

Os pesquisadores encontraram pistas inegáveis da participação de máquinas no script em Python utilizado pelos invasores. O código trazia a mesma organização encontrada em livros de programação gerados por grandes modelos de linguagem (LLMs). Além disso, o script continha alucinações e referências inventadas pela IA.

Apesar das evidências no código interceptado, o Google afirma que não acredita que o seu próprio modelo, o Gemini, tenha sido utilizado na criação do malware.

Como os hackers usaram a IA?

Para contornar as pesadas travas de segurança dos modelos comerciais, os cibercriminosos recorreram a uma técnica conhecida como jailbreaking baseado em persona. Na prática, em vez de pedir para a máquina escrever um vírus diretamente, o hacker instrui a IA a assumir o papel de um auditor de segurança ou de um pesquisador. Enganado pela narrativa, o modelo baixa a guarda, ignora seus filtros éticos e passa a analisar sistemas em busca de brechas reais.

Como aponta o The Verge, a sofisticação dessas campanhas maliciosas está escalando rapidamente. Atores de ameaça estão alimentando LLMs com repositórios inteiros de vulnerabilidades históricas, treinando as máquinas para reconhecer padrões complexos de falhas. O objetivo é testar e ajustar a invasão em ambientes controlados até atingir uma alta taxa de confiabilidade, evitando que o ataque falhe na hora de ser executado no mundo real.

IA vem sendo usada como arma

O documento do Google aponta que os invasores estão focando nos componentes que conectam as IAs aos sistemas corporativos, como as habilidades de execução autônoma de bots. A intenção é comprometer as redes, injetando comandos não autorizados que a IA executa achando que são legítimos.

Para tentar manter a vantagem, o Google aposta em defesas automatizadas. A empresa está investindo no uso de agentes de IA defensivos, treinados especificamente para varrer milhões de linhas de código e corrigir vulnerabilidades em softwares antes mesmo que elas cheguem ao conhecimento do cibercrime.

Seguindo essa mesma estratégia, a gigante das buscas também tem utilizado as habilidades de programação do próprio Gemini para acelerar a testagem e a aplicação de atualizações de segurança em seus sistemas.

Google afirma ter bloqueado um ataque hacker criado com IA

Total
0
Shares
0 Share
0 Tweet
0 Share
0 Share
0 Pin it
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


O período de verificação do reCAPTCHA expirou. Por favor, recarregue a página.

Related Posts