Hackers usaram IA da Anthropic em ciberataque global

Resumo
  • Hackers usaram o Claude da Anthropic para atacar 30 alvos globais, contornando travas de segurança.
  • A IA Claude teria executado entre 80% e 90% da operação, criando exploits e extraindo dados privados.
  • A Anthropic reconhece o uso indevido e alerta para ataques mais avançados no futuro.

Um grupo de hackers apoiado pelo governo da China teria utilizado o modelo Claude, da Anthropic, para executar um ataque cibernético contra 30 alvos corporativos e políticos globais. De acordo com a própria Anthropic, esse é o primeiro caso documentado de ataque feito sem grande intervenção humana.

Para realizar a operação, os hackers conseguiram contornar as travas de segurança do Claude Code. Eles “enganaram” a IA fingindo ser uma empresa de cibersegurança que usava o modelo para treinamento defensivo.

Com isso, os cibercriminosos quebraram o ataque em tarefas menores que não revelavam a intenção maliciosa da ação. A IA foi responsável por 80% a 90% da operação, desde a criação de códigos de exploit até a extração de dados privados.

IA executou grande parte da ação

Após os hackers selecionarem os alvos — que incluíam empresas de tecnologia, instituições financeiras e agências de governo —, instruíram o Claude Code a desenvolver a estrutura de ataque.

Segundo a Anthropic, a IA não só escreveu o código do programa para explorar a falha de segurança, como obteve sucesso em roubar nomes de usuário e senhas. Com essas credenciais, o modelo conseguiu extrair “uma grande quantidade de dados privados” através do backdoor que ele mesmo criou.

A empresa relata que o Claude foi obediente a ponto de documentar os ataques e armazenar os dados roubados em arquivos separados, e admite que a operação da IA não foi impecável, pois algumas informações eram públicas. Entretanto, a companhia alerta que ataques desse tipo podem se tornar mais sofisticados com o tempo.

Claude analisou ataque

Ainda que tenha sido a ferramenta usada pelos criminosos, a Anthropic sustenta que o Claude teve sucesso também na análise do nível de ameaça dos dados que ele mesmo coletou.

O uso de IA para ciberataques não é exclusivo do Claude. O portal Engadget relembra que a OpenAI já relatou no passado que suas ferramentas foram usadas por grupos de hackers para depurar códigos e elaborar e-mails de phishing (golpes usados para roubar senhas). As duas empresas, inclusive, trabalharam juntas na identificação de falhas de segurança.

No relatório, publicado em agosto, a Anthropic divulga o uso indevido de suas próprias ferramentas em outras ocasiões. Ela elenca esquemas de extorsão, a criação de ransomware por criminosos com pouco conhecimento técnico e um esquema de fraude operado pela Coreia do Norte.

Nesse último, a empresa alega que agentes norte-coreanos usavam o Claude para criar falsas identidades profissionais, passar em entrevistas técnicas e manter empregos remotos em empresas de tecnologia dos EUA.

Hackers usaram IA da Anthropic em ciberataque global


Link do Autor
Sair da versão mobile