- A Anthropic proíbe a criação de modelos de geração de código equivalentes ou concorrentes usando o Claude Code
- Essa é uma restrição explicitamente declarada nos termos de serviço (terms of service)
- Os usuários não podem usar o Claude Code para treinar modelos, criar modelos derivados ou construir serviços concorrentes
- Essas cláusulas têm como objetivo a proteção comercial do Claude Code e a prevenção do uso indevido da tecnologia
Reação do setor e significado
- A medida chama atenção como um caso em que empresas buscam proteger sua própria tecnologia em meio à competição entre modelos de IA
- Na comunidade de desenvolvedores de IA, discute-se a questão do equilíbrio entre a liberdade de uso das ferramentas e a proteção dos direitos das empresas
- Há possibilidade de que políticas de restrição de uso para ferramentas de geração de código por IA influenciem outras empresas no futuro
2 comentários
Chega de Claude Code que não dá dinheiro agora…
Tem que vender o Claude Cowork…
Comentários no Hacker News
No começo fiquei irritado, pensando “se eu comprei o produto, não sou livre para criar o que eu quiser?”, mas no fim essa polêmica depende da definição de "use" (uso)
Escrever código com o Claude Code para criar um produto concorrente parece aceitável, mas fazer engenharia reversa da API para copiar recursos internos (por exemplo, acesso ao plano Max) é proibido
Segundo o resumo da thread, “abrir a tela de OAuth do Claude Code e capturar o token” viola os termos de serviço
Ainda assim, na maioria dos casos, quase não há aplicação prática dessa regra
Mas grandes laboratórios de modelos, sem exceção, estão sendo bloqueados
Os termos dizem explicitamente que não pode
Terminam com a piada de “estou escondido atrás de 7 proxies”
O que mudou recentemente não foi uma nova restrição, mas o reforço da validação do formato do payload
Um screenshot da mensagem de erro relacionada pode ser visto aqui
Parece que a Anthropic revelou sua verdadeira face ao usar o Claude Code como dado de treinamento
Ela tem esse direito, mas agora não vejo mais motivo para considerá-la fundamentalmente melhor do que a concorrência
Segundo uma mensagem recebida no Discord do Zed, “é possível usar o Claude Code no Zed, mas é proibido contornar rate limits para outras tarefas de IA”
Ou seja, não dá para usar o assistente inline do Zed com uma assinatura do plano Max
Pessoalmente, acho que um assistente inline dentro do editor é muito mais imersivo do que uma interface de “Chat to Code”
Ou seja, não existe uma resposta claramente correta como no código
Hijacking de rate limit já é ilegal de qualquer forma
Ainda está pouco claro como usar o plano Max no Zed, OpenCode e outros
Os desenvolvedores querem pagar US$ 200 por mês, então não dá para entender por que tornam isso tão inconveniente
A intenção é compreensível, mas esse tipo de falha de comunicação pode acabar causando a queda do Claude Code
No fim, parece ser um produto-isca para trazer usuários ao ecossistema deles; se não for para usar assim, a mensagem seria para ir para a OpenAI
Mas quando os modelos abertos ficarem competitivos, essa estratégia fechada pode acabar sendo um tiro no pé
Dizem que nem os engenheiros da Anthropic esperavam essa popularidade
E, além disso, o Aider veio primeiro
O custo por token no acesso via API é bem alto
O OpenCode parece muito melhor
O workflow também não muda toda hora
Link relacionado
O Opus pode até ser o melhor modelo no momento, mas se as pessoas migrarem para OpenCode + combinação de vários modelos, vai ser difícil trazê-las de volta
Eu cancelei tanto o Claude Pro quanto o GPT Plus e migrei para uma combinação de Gemini Pro + modelos locais
O desempenho cai um pouco, mas a consistência é maior e isso me satisfaz
Em vez disso, planejo trabalhar alternando entre vários provedores de modelo
Diferente do Claude Code, não há desperdício dos tokens do agente principal
Mesmo assim, torço sinceramente para que o OpenCode cresça
Link do tweet relacionado: Xcancel
Comentam de forma sarcástica: “isso sim é a democratização do desenvolvimento de software”
Isso lembra o caso antigo em que a Borland tentou proibir a criação de compiladores com seu próprio C++ e acabou sofrendo reação negativa
Dá a sensação de que a história se repete
Parece que a queda de qualidade recente do Claude Code está séria
Perguntam se existe algum caso repetível
Fico curioso sobre como essa medida vai afetar os produtos futuros da Anthropic
Em uma situação em que já existem produtos pioneiros construídos sobre o Claude, restrições amplas demais podem acabar levando à perda de novos clientes
Tecnicamente, isso pode ser contornado em poucas horas