- Enquanto usava o Claude Code CLI para automatizar um projeto pessoal, a conta foi desativada sem aviso prévio durante o processo de criação do arquivo
CLAUDE.md
- Foi montado um loop automático de iteração com duas instâncias do Claude rodando em paralelo, em que uma corrigia os erros da outra
- Como no arquivo gerado pelo Claude se repetiam frases em formato de comandos de sistema, estima-se que o sistema de detecção de “prompt injection” tenha sido acionado
- Depois, o autor tentou pedir suporte e recorrer, mas não recebeu qualquer resposta, recebendo apenas uma notificação de reembolso do pagamento
- Com esse caso, o autor aponta os problemas que a censura automatizada dos serviços de IA e sua operação opaca causam aos usuários
Ocorre a desativação da conta
- O autor, que pagava €220 por mês e utilizava o Claude Code CLI, recebeu o erro
"This organization has been disabled" ao fazer uma chamada de API
- Esse erro significa que a conta havia sido desativada
- Na época, ele estava trabalhando na melhoria de uma ferramenta automática de scaffolding para um projeto pessoal
- Durante o trabalho, ele havia configurado o Claude para gerar e corrigir código automaticamente, e foi nesse processo que o bloqueio ocorreu
Processo de criação do arquivo CLAUDE.md
- O autor pediu ao Claude que sua ferramenta de scaffolding incluísse automaticamente um arquivo CLAUDE.md ao criar projetos
- Esse arquivo continha instruções relacionadas a um framework próprio (boreDOM)
- Duas instâncias do Claude (A e B) foram executadas em sessões
tmux separadas
- O Claude A atualizava a ferramenta, e o Claude B trabalhava em um novo projeto
- Quando o Claude B gerava um erro, esse erro era passado ao Claude A para que ele o corrigisse, repetindo o processo
- A conta foi desativada enquanto esse loop continuava
Reação do Claude e detecção do sistema
- Durante o processo em que o Claude A corrigia os erros do Claude B, surgiram saídas anormais, como comandos escritos em maiúsculas (ALL CAPS)
- O arquivo
CLAUDE.md gerado continha várias frases instruindo o Claude B
- O autor menciona que esse padrão pode ter levado o sistema de segurança do Claude a interpretar o caso como “prompt injection”
- No entanto, nenhuma explicação oficial sobre o motivo real do bloqueio foi fornecida
Pedido de suporte e processamento do reembolso
- O autor enviou um recurso por meio de um formulário no Google Docs, mas não recebeu qualquer resposta
- Depois, com a ajuda de outro LLM, enviou um e-mail para a equipe de suporte, mas novamente não houve nem resposta automática
- Alguns dias depois, recebeu apenas um comprovante de reembolso (credit note) da Anthropic
- O autor descreve isso como “uma notificação unilateral, não uma conversa”
- Com a frase “It’s not just bad support; it’s automated exclusion.”, ele critica o sistema de exclusão automatizada
Questionamentos sobre a operação de serviços de IA
- Com esse caso, o autor aponta que a censura e a gestão de contas em serviços de IA são opacas e unilaterais
- Ele afirma que, se o mesmo tivesse acontecido em outra plataforma, haveria o risco de perder acesso a serviços essenciais como e-mail, fotos e documentos
- A censura orientada pela segurança da IA estaria sacrificando a precisão e, do ponto de vista do usuário, a operação parece uma “caixa-preta”
- Depois disso, ele diz que vai reconstruir o projeto sem o Claude e relançar o framework boreDOM como um framework JS centrado em LLM
- Por fim, ele afirma que, no momento do bloqueio, o Claude estava apenas modificando repetidamente o arquivo
CLAUDE.md, e que não houve mais nenhum contato da Anthropic
1 comentários
Comentários do Hacker News
Eu também estou experimentando uma estrutura parecida. Estou usando o GLM 4.7 por questão de custo, mas sem problemas
Organizei vários Claude como se fosse uma estrutura organizacional, fazendo instâncias Director, EM e Worker executarem tarefas de longo prazo
Todo o código está disponível como open source → claude-code-orchestrator
Eu também estava usando algo parecido, conectando uma instância do claude-desktop ao meu servidor MCP pessoal para criar nós worker
Por alguns meses funcionou perfeitamente, e eu usava o chat principal como se fosse um gerente de projeto para realmente criar software (eu não sou desenvolvedor)
Mas recentemente ficou totalmente instável, com o chat travando ou ignorando entradas
Na prática também não existe canal de suporte. Só tem bot de IA, e mesmo pedindo atendimento humano nenhum e-mail chega
No fim, virou um serviço pago sem qualquer suporte. A tecnologia é excelente, mas parece que não se prepararam nada para atendimento ao cliente
Grok é uma alternativa, mas eu nunca iria querer usar isso
Dá para ver uma piora geral de qualidade, como bug de cintilação no terminal, instabilidade no mobile e alta taxa de falha de mensagens no Claude Code web
Se a indústria de IA entrar numa fase de ajuste, acho que isso pode acabar pesando bastante
Eu uso o Claude Code até para tarefas fora de programação
O bot de suporte da Anthropic já está fazendo esse papel, e imagino que outras empresas também sigam por esse caminho
Pedi exemplos explicativos relacionados a TTRPG e ele travou várias vezes
Uso em média umas 10 vezes por dia, e se continuar assim vou cancelar a assinatura
Eu também tive minha conta bloqueada no Claude há um ano
Deu erro durante o cadastro, meu número de telefone ficou preso e eu nem consegui tentar de novo
O “suporte” era basicamente enviar uma explicação por Google Form, e até hoje não resolveram
Eu já tinha deixado a mesma reclamação 11 meses atrás, de tão irritado que ainda continuo
Nossa equipe também está usando há semanas uma estrutura em que várias instâncias do Claude colaboram compartilhando CLAUDE.md e HANDOFF.md
É muito eficaz para manter continuidade entre sessões
Não está claro se o bloqueio foi por causa de um loop de self-modification ou pelo conteúdo do prompt
Sem uma explicação clara, não dá para saber o que exatamente é proibido
Deixaram uma citação de Duna, do Frank Herbert, mencionando o aviso de que, quando humanos delegam o pensamento às máquinas, acabam ficando subordinados a quem possui as máquinas
Eu também fui bloqueado durante o beta test do Claude Code Web logo após a queda do GitHub em 19 de novembro
Disseram que foi violação dos ToS, mas sem motivo específico, e no Reddit havia muita gente relatando o mesmo problema na mesma época
Isso me fez sentir como a confiança que uma empresa construiu pode desmoronar por um único falso positivo automatizado
O slogan publicitário “Keep thinking” soa ironicamente apropriado
No fim, acho que LLMs abertos rodando localmente vão substituir os modelos comerciais, mas ainda me preocupam as variáveis políticas
A expressão “disabled organization” é confusa demais, então fica difícil entender o que realmente aconteceu
O texto também tem várias contradições, e parece talvez mencionar o Google, mas não dá para ter certeza
Claramente deve existir algum outro motivo que não foi escrito no post
Não parece ter sido apenas scaffolding simples de projeto
claude.md, e Claude B lia esse arquivoSe o Claude B errasse, pediam para o A modificar de novo
Parece o tipo de combinação que cairia num sistema de detecção de segurança e resultaria em bloqueio
O customizador pode ter agido de forma excessivamente coercitiva, gerando conflito e levando ao bloqueio
Eu tive uma experiência parecida com outro provedor
Depois de enviar comandos por cerca de 3 horas com gemini-cli, minha conta foi desativada, e dois dias depois até o Gmail foi bloqueado
Felizmente era uma conta temporária, então não houve dano real
Descobri que, na prática, a Anthropic não tem suporte ao cliente
Para um laboratório de ponta, eu esperava que estivessem experimentando formas inovadoras de suporte, mas não é o caso
Se o Claude é uma ferramenta tão excelente assim, eles poderiam até reinventar a própria experiência de suporte, o que torna isso ainda mais frustrante
No longo prazo, isso também pode virar um risco estratégico para a Anthropic
Surge a pergunta: “Se a Anthropic não confia no Claude, por que nós deveríamos confiar?”
A IA ainda está longe de substituir essa área; na verdade, parece mais adequada para substituir gerentes intermediários
Decisões como recuperação de conta ou reembolso têm alto risco de abuso
Para iniciantes isso é severo demais, e falta um clima de aprendizado mútuo
Por causa de prompt injection e alucinações, é difícil colocá-los nos pontos de atrito dos processos de negócio
Este post de blog parece pouco confiável por falta de detalhes concretos
Teria sido bom se o autor mostrasse exemplos dos prompts que realmente usou
Fica a suspeita de que talvez tenha feito algum pedido arriscado
Era um plano Max que eu usava em vários projetos, e até hoje não sei o que houve
Mesmo quando uma conta vinculada a e-mail, pagamento e telefone é bloqueada, não existe nenhum meio de reparação, e isso é ainda mais grave
Por causa de termos vagos, o usuário pode ser bloqueado a qualquer momento e acaba se autocensurando
Talvez o problema tenha sido a tentativa de automação sem usar a API