1 pontos por GN⁺ 2026-01-23 | 1 comentários | Compartilhar no WhatsApp
  • Enquanto usava o Claude Code CLI para automatizar um projeto pessoal, a conta foi desativada sem aviso prévio durante o processo de criação do arquivo CLAUDE.md
  • Foi montado um loop automático de iteração com duas instâncias do Claude rodando em paralelo, em que uma corrigia os erros da outra
  • Como no arquivo gerado pelo Claude se repetiam frases em formato de comandos de sistema, estima-se que o sistema de detecção de “prompt injection” tenha sido acionado
  • Depois, o autor tentou pedir suporte e recorrer, mas não recebeu qualquer resposta, recebendo apenas uma notificação de reembolso do pagamento
  • Com esse caso, o autor aponta os problemas que a censura automatizada dos serviços de IA e sua operação opaca causam aos usuários

Ocorre a desativação da conta

  • O autor, que pagava €220 por mês e utilizava o Claude Code CLI, recebeu o erro "This organization has been disabled" ao fazer uma chamada de API
    • Esse erro significa que a conta havia sido desativada
  • Na época, ele estava trabalhando na melhoria de uma ferramenta automática de scaffolding para um projeto pessoal
  • Durante o trabalho, ele havia configurado o Claude para gerar e corrigir código automaticamente, e foi nesse processo que o bloqueio ocorreu

Processo de criação do arquivo CLAUDE.md

  • O autor pediu ao Claude que sua ferramenta de scaffolding incluísse automaticamente um arquivo CLAUDE.md ao criar projetos
    • Esse arquivo continha instruções relacionadas a um framework próprio (boreDOM)
  • Duas instâncias do Claude (A e B) foram executadas em sessões tmux separadas
    • O Claude A atualizava a ferramenta, e o Claude B trabalhava em um novo projeto
    • Quando o Claude B gerava um erro, esse erro era passado ao Claude A para que ele o corrigisse, repetindo o processo
  • A conta foi desativada enquanto esse loop continuava

Reação do Claude e detecção do sistema

  • Durante o processo em que o Claude A corrigia os erros do Claude B, surgiram saídas anormais, como comandos escritos em maiúsculas (ALL CAPS)
  • O arquivo CLAUDE.md gerado continha várias frases instruindo o Claude B
  • O autor menciona que esse padrão pode ter levado o sistema de segurança do Claude a interpretar o caso como “prompt injection”
  • No entanto, nenhuma explicação oficial sobre o motivo real do bloqueio foi fornecida

Pedido de suporte e processamento do reembolso

  • O autor enviou um recurso por meio de um formulário no Google Docs, mas não recebeu qualquer resposta
  • Depois, com a ajuda de outro LLM, enviou um e-mail para a equipe de suporte, mas novamente não houve nem resposta automática
  • Alguns dias depois, recebeu apenas um comprovante de reembolso (credit note) da Anthropic
    • O autor descreve isso como “uma notificação unilateral, não uma conversa”
    • Com a frase “It’s not just bad support; it’s automated exclusion.”, ele critica o sistema de exclusão automatizada

Questionamentos sobre a operação de serviços de IA

  • Com esse caso, o autor aponta que a censura e a gestão de contas em serviços de IA são opacas e unilaterais
  • Ele afirma que, se o mesmo tivesse acontecido em outra plataforma, haveria o risco de perder acesso a serviços essenciais como e-mail, fotos e documentos
  • A censura orientada pela segurança da IA estaria sacrificando a precisão e, do ponto de vista do usuário, a operação parece uma “caixa-preta”
  • Depois disso, ele diz que vai reconstruir o projeto sem o Claude e relançar o framework boreDOM como um framework JS centrado em LLM
  • Por fim, ele afirma que, no momento do bloqueio, o Claude estava apenas modificando repetidamente o arquivo CLAUDE.md, e que não houve mais nenhum contato da Anthropic

1 comentários

 
GN⁺ 2026-01-23
Comentários do Hacker News
  • Eu também estou experimentando uma estrutura parecida. Estou usando o GLM 4.7 por questão de custo, mas sem problemas
    Organizei vários Claude como se fosse uma estrutura organizacional, fazendo instâncias Director, EM e Worker executarem tarefas de longo prazo
    Todo o código está disponível como open source → claude-code-orchestrator

  • Eu também estava usando algo parecido, conectando uma instância do claude-desktop ao meu servidor MCP pessoal para criar nós worker
    Por alguns meses funcionou perfeitamente, e eu usava o chat principal como se fosse um gerente de projeto para realmente criar software (eu não sou desenvolvedor)
    Mas recentemente ficou totalmente instável, com o chat travando ou ignorando entradas
    Na prática também não existe canal de suporte. Só tem bot de IA, e mesmo pedindo atendimento humano nenhum e-mail chega
    No fim, virou um serviço pago sem qualquer suporte. A tecnologia é excelente, mas parece que não se prepararam nada para atendimento ao cliente
    Grok é uma alternativa, mas eu nunca iria querer usar isso

    • A Anthropic está crescendo rápido demais, e isso está revelando vários problemas
      Dá para ver uma piora geral de qualidade, como bug de cintilação no terminal, instabilidade no mobile e alta taxa de falha de mensagens no Claude Code web
      Se a indústria de IA entrar numa fase de ajuste, acho que isso pode acabar pesando bastante
    • O app de desktop é cheio de erros e instável, mas o Claude Code é bem mais estável
      Eu uso o Claude Code até para tarefas fora de programação
    • Talvez o próprio bot de IA seja o futuro do suporte ao cliente
      O bot de suporte da Anthropic já está fazendo esse papel, e imagino que outras empresas também sigam por esse caminho
    • Você disse que não é desenvolvedor; fiquei curioso sobre como está criando software
    • Eu também assino o plano Max, mas quase não usei nos últimos dias
      Pedi exemplos explicativos relacionados a TTRPG e ele travou várias vezes
      Uso em média umas 10 vezes por dia, e se continuar assim vou cancelar a assinatura
  • Eu também tive minha conta bloqueada no Claude há um ano
    Deu erro durante o cadastro, meu número de telefone ficou preso e eu nem consegui tentar de novo
    O “suporte” era basicamente enviar uma explicação por Google Form, e até hoje não resolveram
    Eu já tinha deixado a mesma reclamação 11 meses atrás, de tão irritado que ainda continuo

  • Nossa equipe também está usando há semanas uma estrutura em que várias instâncias do Claude colaboram compartilhando CLAUDE.md e HANDOFF.md
    É muito eficaz para manter continuidade entre sessões
    Não está claro se o bloqueio foi por causa de um loop de self-modification ou pelo conteúdo do prompt
    Sem uma explicação clara, não dá para saber o que exatamente é proibido

  • Deixaram uma citação de Duna, do Frank Herbert, mencionando o aviso de que, quando humanos delegam o pensamento às máquinas, acabam ficando subordinados a quem possui as máquinas

    • Nesse caso, fica a dúvida de por que isso não aconteceu com eletricidade, água ou comida
  • Eu também fui bloqueado durante o beta test do Claude Code Web logo após a queda do GitHub em 19 de novembro
    Disseram que foi violação dos ToS, mas sem motivo específico, e no Reddit havia muita gente relatando o mesmo problema na mesma época
    Isso me fez sentir como a confiança que uma empresa construiu pode desmoronar por um único falso positivo automatizado
    O slogan publicitário “Keep thinking” soa ironicamente apropriado

    • Se o uso de LLMs de nível Frontier se tornar obrigatório, assusta pensar que ser impedido de acessar isso já poderia significar exclusão do mercado de trabalho
      No fim, acho que LLMs abertos rodando localmente vão substituir os modelos comerciais, mas ainda me preocupam as variáveis políticas
  • A expressão “disabled organization” é confusa demais, então fica difícil entender o que realmente aconteceu

    • Pela minha experiência antiga lidando com bloqueio de usuários, há muitos casos em que as pessoas exploram o fato de a empresa não poder divulgar o motivo para montar uma narrativa de vítima
      O texto também tem várias contradições, e parece talvez mencionar o Google, mas não dá para ter certeza
      Claramente deve existir algum outro motivo que não foi escrito no post
    • Eu também acho que o autor provavelmente tentou fazer injeção circular de prompts entre duas instâncias do Claude
      Não parece ter sido apenas scaffolding simples de projeto
    • Mais especificamente, a estrutura era: Claude A modificava claude.md, e Claude B lia esse arquivo
      Se o Claude B errasse, pediam para o A modificar de novo
    • Talvez um Claude tenha tentado alterar o prompt de sistema do outro, o que pode ter disparado um alerta em CAIXA ALTA
      Parece o tipo de combinação que cairia num sistema de detecção de segurança e resultaria em bloqueio
    • Em princípio, o CLAUDE.md permite customizar o comportamento do agente, mas o OP automatizou esse processo com outro agente
      O customizador pode ter agido de forma excessivamente coercitiva, gerando conflito e levando ao bloqueio
  • Eu tive uma experiência parecida com outro provedor
    Depois de enviar comandos por cerca de 3 horas com gemini-cli, minha conta foi desativada, e dois dias depois até o Gmail foi bloqueado
    Felizmente era uma conta temporária, então não houve dano real

  • Descobri que, na prática, a Anthropic não tem suporte ao cliente
    Para um laboratório de ponta, eu esperava que estivessem experimentando formas inovadoras de suporte, mas não é o caso
    Se o Claude é uma ferramenta tão excelente assim, eles poderiam até reinventar a própria experiência de suporte, o que torna isso ainda mais frustrante
    No longo prazo, isso também pode virar um risco estratégico para a Anthropic
    Surge a pergunta: “Se a Anthropic não confia no Claude, por que nós deveríamos confiar?”

    • Atendimento ao cliente é muito mais difícil do que parece
      A IA ainda está longe de substituir essa área; na verdade, parece mais adequada para substituir gerentes intermediários
    • Isso parece um sinal de que a Anthropic ainda não consegue confiar totalmente nos próprios modelos
      Decisões como recuperação de conta ou reembolso têm alto risco de abuso
    • Quando você oferece suporte, cria expectativa; se não oferece nada, mesmo que haja insatisfação, o impacto na receita tende a ser pequeno
    • Existe uma comunidade no Discord, mas a política é rígida: duas violações de regra e banimento permanente
      Para iniciantes isso é severo demais, e falta um clima de aprendizado mútuo
    • Na prática, LLMs só servem bem para tarefas de autosserviço
      Por causa de prompt injection e alucinações, é difícil colocá-los nos pontos de atrito dos processos de negócio
  • Este post de blog parece pouco confiável por falta de detalhes concretos
    Teria sido bom se o autor mostrasse exemplos dos prompts que realmente usou
    Fica a suspeita de que talvez tenha feito algum pedido arriscado

    • No fim do texto há um link para o arquivo de commit que gera o CLAUDE.md
    • Eu também fui bloqueado por um motivo parecido, e não recebi explicação clara nem reembolso
      Era um plano Max que eu usava em vários projetos, e até hoje não sei o que houve
    • O centro do problema é a ausência de suporte nas big techs
      Mesmo quando uma conta vinculada a e-mail, pagamento e telefone é bloqueada, não existe nenhum meio de reparação, e isso é ainda mais grave
    • SaaS não pode ser usado livremente como software local
      Por causa de termos vagos, o usuário pode ser bloqueado a qualquer momento e acaba se autocensurando
      Talvez o problema tenha sido a tentativa de automação sem usar a API
    • Em situações assim, sempre aparece esse tipo de reação de culpar a vítima