Anthropic acusa DeepSeek de usar o Claude para melhorar seus modelos de IA

Resumo
  • A Anthropic acusa DeepSeek, Moonshot e MiniMax de usar o Claude para melhorar seus modelos de IA por meio de destilação, violando termos de serviço.
  • As três empresas teriam usado 24 mil contas falsas para criar mais de 16 milhões de interações com o Claude.
  • A destilação envolve o uso de um modelo de IA estabelecido para treinar outro, tornando o processo mais rápido e barato.

A Anthropic publicou um comunicado em que acusa as companhias chinesas DeepSeek, Moonshot e MiniMax de usar o Claude para melhorar seus próprios modelos de inteligência artificial, por meio de uma técnica conhecida como destilação.

Segundo a companhia americana, as três empresas usaram cerca de 24 mil contas falsas e criaram mais de 16 milhões de interações com seu chatbot, o que violaria seus termos de serviço e restrições regionais de acesso.

Procuradas pela Reuters, as três companhias chinesas não enviaram suas respostas sobre o assunto.

Qual é a acusação da Anthropic?

A empresa diz ter sido vítima de três campanhas de destilação, todas seguindo um mesmo manual: usar contas fraudulentas e serviços de proxy para acessar o Claude em larga escala e, ao mesmo tempo, driblar os sistemas de detecção.

Os prompts enviados também destoavam de padrões de uso normais, tendo como objetivo a extração de informações sobre como o Claude trabalha — escolhendo a opção de raciocínio para ter acesso à linha de “pensamento” do robô, com o passo a passo para chegar a cada resposta.

O DeepSeek teria interagido mais de 150 mil vezes para acessar as habilidades de raciocínio do Claude, bem como usá-lo para avaliar as respostas do modelo da startup chinesa.

No caso da Moonshot, teriam sido mais de 3,4 milhões de interações, que estariam tentando aprender as habilidades de raciocínio, uso de ferramentas, programação, análise de dados, desenvolvimento de agentes e visão computacional.

A maior parte da atividade estaria ligada à MiniMax, com mais de 13 milhões de prompts trocados que teriam como alvo programação de agentes e uso de ferramentas.

O que é a destilação?

Destilação é o nome dado ao uso de um modelo de inteligência artificial para treinar outro modelo de inteligência artificial.

Geralmente, o treinamento de uma IA envolve o processamento de um conjunto enorme de dados. Através desse trabalho, a tecnologia identifica padrões e relacionamentos entre as informações.

A destilação, por sua vez, é uma forma de treinamento que parte de uma IA já estabelecida. Em vez de processar um volume massivo de dados, a nova IA interage com a IA mais antiga e usa as respostas para seu treinamento.

Com isso, o processo se torna muito mais rápido e barato, já que usa dados selecionados como ponto de partida e exige menos trabalho computacional.

A Anthropic ressalta que a destilação em si pode ser legítima — uma empresa pode destilar um modelo de IA enorme para criar uma versão menor, mais barata e mais leve.

Para a empresa, o problema começa quando concorrentes usam o método para entregar produtos similares sem ter que arcar com os custos do treinamento. Além disso, a Anthropic considera que essas ações são uma ameaça à segurança nacional dos Estados Unidos.

A Anthropic não é a primeira empresa a fazer acusações desse tipo. Quando o DeepSeek ganhou os holofotes no começo de 2025, a OpenAI fez questionamentos semelhantes.

Com informações da Reuters

Anthropic acusa DeepSeek de usar o Claude para melhorar seus modelos de IA

Total
0
Shares
0 Share
0 Tweet
0 Share
0 Share
0 Pin it
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


O período de verificação do reCAPTCHA expirou. Por favor, recarregue a página.

Related Posts