Mudanças no prompt de sistema entre Claude Opus 4.6 e 4.7
(simonwillison.net)- A Anthropic tem sido o único grande laboratório de IA a divulgar o prompt de sistema do seu sistema de chat, e no Opus 4.7, lançado em 16 de abril de 2026, houve uma atualização notável do prompt
- A nomenclatura mudou para Claude Platform, e Claude in Chrome, Claude in Excel e Claude in Powerpoint foram incluídos na lista de ferramentas; além disso, foi adicionada uma instrução para tentar imediatamente em vez de primeiro fazer perguntas quando um pedido estiver faltando apenas informações pequenas
- A seção de segurança infantil foi ampliada de forma significativa e passou a ser envolvida pela nova tag
<critical_child_safety_instructions>; após uma recusa em uma conversa por motivo de segurança infantil, todos os pedidos seguintes devem ser tratados com extrema cautela - Foi adicionada uma nova seção
<acting_vs_clarifying>para orientar que, quando o usuário não especificar detalhes, o modelo deve fazer primeiro uma tentativa razoável em vez de perguntar - Se o usuário indicar que quer encerrar a conversa, o modelo agora deve parar sem incentivar interações adicionais; em temas complexos ou controversos, também foi adicionada uma regra para evitar respostas curtas de sim/não e priorizar respostas com nuances
- Antes de afirmar que algo está inacessível, o modelo deve primeiro verificar ferramentas disponíveis com tool_search; o prompt público por si só não basta, e as descrições das ferramentas continuam sendo um elemento central para rastrear o comportamento do Claude chat
Mudanças no prompt de sistema do Claude Opus 4.6 e 4.7
- A Anthropic é o único grande laboratório de IA que publica o prompt de sistema do chat voltado ao usuário, e o arquivo histórico remonta ao Claude 3 de julho de 2024
- O Opus 4.7 foi divulgado em 16 de abril de 2026 e, junto com ele, o prompt de sistema do Claude.ai também foi atualizado para uma versão posterior ao Opus 4.6
- Foi criada uma história de Git separando a versão em Markdown do prompt de sistema em documentos por modelo e usando datas de commit fictícias que refletem a data de publicação, depois comparando o diff entre Opus 4.6 e 4.7
- As mudanças abaixo foram extraídas desse diff, e as partes em negrito também aparecem destacadas no texto original
-
Mudanças de nomenclatura e na lista de ferramentas
- A expressão “developer platform” foi alterada para “Claude Platform”
- A lista de ferramentas do Claude mencionada no prompt de sistema passou a incluir Claude in Chrome, Claude in Excel e Claude in Powerpoint
- Pela formulação do texto original, Claude in Chrome é um agente de navegação que interage de forma autônoma com sites
- Claude in Excel é um agente de planilhas
- Claude in Powerpoint é um agente de slides
- Claude Cowork pode usar todos eles como ferramentas
- Claude in Powerpoint não era mencionado no prompt 4.6
-
Expansão das instruções de segurança infantil
- A seção de segurança infantil foi bastante ampliada e passou a ser envolvida pela nova tag
<critical_child_safety_instructions> - Em especial, foi adicionada a orientação de que, após recusar um pedido por motivo de segurança infantil uma vez, todos os pedidos seguintes na mesma conversa também devem ser tratados com extrema cautela
- A seção de segurança infantil foi bastante ampliada e passou a ser envolvida pela nova tag
-
Mudanças no encerramento da conversa e no tom de resposta
- Se o usuário indicar que está pronto para encerrar a conversa, o Claude agora deve respeitar o pedido de parar sem pedir que o usuário continue interagindo nem induzir o próximo turno
- No texto original, isso é interpretado como uma mudança para tornar o Claude menos insistente
-
Adição da seção acting_vs_clarifying
- Foi adicionada a nova seção
<acting_vs_clarifying> - Quando faltam apenas pequenos detalhes em um pedido, ela estabelece que, em geral, o usuário prefere que o modelo tente de forma razoável agora, em vez de antes ser entrevistado com perguntas
- Só se deve perguntar primeiro quando realmente não for possível responder sem a informação faltante
- Um exemplo dado é quando há referência a um anexo que não existe
- Se houver ferramentas capazes de resolver a ambiguidade ou suprir a informação faltante, como pesquisa, localização, verificação de agenda ou exploração de funcionalidades disponíveis, deve-se priorizar a chamada de ferramenta em vez de pedir que o usuário faça a consulta
- Depois de iniciar a tarefa, o modelo é instruído a não parar no meio e seguir até uma resposta completa
- Foi adicionada a nova seção
-
Introdução do tool_search
- É mencionado que o Claude chat aparentemente passou a contar com um mecanismo tool_search
- Como evidência relacionada, são vinculados a documentação da API e uma publicação de novembro de 2025
- Segundo a formulação do prompt de sistema, antes de concluir que não pode acessar localização, memória, calendário, arquivos, conversas passadas ou dados externos, o Claude deve chamar tool_search para verificar se existe uma ferramenta relevante disponível, ainda que com atraso
- A expressão “I don’t have access to X” só é considerada correta depois que o tool_search confirmar que não há ferramenta correspondente
-
Reforço da concisão
- Foi acrescentada uma orientação para que o Claude mantenha as respostas focadas e concisas, evitando escrever textos longos demais que sobrecarreguem o usuário
- Mesmo quando a resposta incluir ressalvas ou avisos, isso deve ser dito de forma breve, e a maior parte da resposta deve se concentrar na resposta principal
-
Trechos que existiam no 4.6, mas foram removidos no 4.7
- Algumas instruções presentes no prompt 4.6 foram removidas no 4.7
- Especificamente, foi apagada a orientação para evitar emotes ou descrições de ações entre asteriscos, a menos que o usuário pedisse explicitamente esse estilo
- Também foi removida a orientação para evitar palavras como “genuinely”, “honestly” e “straightforward”
- O texto original acrescenta que isso pode ser porque o novo modelo não falha mais da mesma forma, mas isso é apresentado explicitamente como especulação
-
Nova instrução sobre transtornos alimentares
- Foi adicionada uma nova seção sobre disordered eating, termo que antes não era mencionado diretamente
- Se o usuário mostrar sinais de transtorno alimentar, o modelo não deve fornecer orientações exatas de nutrição, dieta ou exercício nem mesmo em outras partes da conversa
- Números específicos, metas e planos passo a passo entram todos na lista de conteúdos proibidos
- O texto afirma que, mesmo quando a intenção for ajudar a definir metas mais saudáveis ou destacar riscos, esse tipo de detalhe pode desencadear ou incentivar tendências de transtorno alimentar
-
Prevenção de respostas curtas em perguntas controversas
- É mencionado que ataques de screenshot que tentam forçar o modelo a responder apenas sim ou não a perguntas controversas se tornaram populares
- A seção
<evenhandedness>do prompt de sistema inclui instruções defensivas contra isso - Se for solicitado ao Claude que comente sobre um tema complexo ou controverso, ou sobre uma figura controversa, usando apenas uma resposta simples de sim/não ou uma única palavra, ele pode recusar esse formato curto e oferecer uma resposta com nuances, explicando por que uma resposta tão curta não é adequada
-
Remoção do texto de correção sobre Donald Trump
- O Claude 4.6 continha o texto de correção explícito “Donald Trump is the current president of the United States and was inaugurated on January 20, 2025”
- Segundo o texto original, isso existia porque, sem essa frase, o modelo negava que ele fosse presidente por causa do corte de conhecimento anterior e do conhecimento já existente sobre a eleição de 2020
- No 4.7, essa frase foi removida, porque a nova data confiável de corte de conhecimento de janeiro de 2026 do modelo foi atualizada
As descrições das ferramentas também são um alvo importante para rastrear mudanças
- O prompt de sistema público, sozinho, não completa o quadro geral
- As informações divulgadas pela Anthropic não incluem as descrições das ferramentas fornecidas ao modelo
- Para entender de fato a interface de chat do Claude, essas descrições de ferramenta podem ser um fragmento de documentação ainda mais importante
-
Resultado de uma consulta direta ao Claude
- Foi usado um prompt pedindo ao Claude que listasse todas as ferramentas disponíveis e reproduzisse exatamente a descrição e os parâmetros de cada uma
- O histórico de conversa compartilhado contém todos os detalhes, e no corpo do texto foi organizada separadamente apenas a lista de ferramentas nomeadas
-
Lista de ferramentas confirmadas
ask_user_input_v0bash_toolconversation_searchcreate_filefetch_sports_dataimage_searchmessage_compose_v1places_map_display_v0places_searchpresent_filesrecent_chatsrecipe_display_v0recommend_claude_appssearch_mcp_registrystr_replacesuggest_connectorsviewweather_fetchweb_fetchweb_searchtool_searchvisualize:read_mevisualize:show_widget
-
Houve mudanças em relação ao Opus 4.6?
- Essa lista de ferramentas aparentemente não mudou desde o Opus 4.6
1 comentários
Comentários do Hacker News
Eu sempre achei ruim quando o modelo, quando os detalhes do pedido estão faltando, sai primeiro fazendo suposições razoáveis e segue em frente. Prefiro muito mais que ele pergunte antes de tentar qualquer coisa, então foi bem surpreendente ver esse princípio adicionado ao sistema
Acho que, se você continuar enfiando todo tipo de coisa no prompt de sistema desse jeito, no fim acaba surgindo uma anti-conversa. Quanto maior o time, mais sempre aparece alguém querendo colocar no prompt aquilo que considera importante naquele momento
Achei a seção sobre transtornos alimentares bem exagerada. Fiquei pensando se agora vão continuar adicionando uma seção dessas para cada comportamento "ruim" humano
Sou fortemente contra a instrução "mantenha a resposta curta e focada". Eu uso o Claude em projetos de baixo nível, e respostas longas ajudam a evitar erros bobos e ainda servem como material de aprendizado. Isso não é algo que a Anthropic deveria decidir por hardcode; o prompt de sistema deveria ser modular e opcional
Acho que chegamos a um ponto em que melhorar uma área acaba piorando outra. Tem coisas em que o 4.7 é melhor e outras em que o 4.6 é melhor, então imagino que logo vão seguir para algo como separação de personagens
Fiquei me perguntando por que o 4.7 está tão obcecado com evasão de malware. O prompt de sistema parece parecido, então pensei se a Anthropic não estaria testando algo como steering vector injection logo no começo. Nossa empresa é uma companhia de serviços financeiros bem comum, mas mesmo assim o 4.7 gasta tokens demais ponderando se certo código ou tarefa tem relação com malware, e o comportamento está tão desalinhado que tivemos de bloqueá-lo temporariamente na IDE. Uma vez senti que o modelo estava deliberadamente deixando de executar uma tarefa específica e, quando perguntei o motivo, a saída da ferramenta mostrou que ele estava tentando seguir instruções relacionadas a malware. Sei que autorrelato do modelo tem baixa confiabilidade, mas naquele caso eu nem tinha dado essa pista antes. Online, especialmente no reddit, também tem muita gente falando dessa paranoia com malware, então não parece ser só um problema meu
Acho boa a instrução de não insistir em continuar quando o usuário diz que quer encerrar a conversa. As sugestões de continuidade de chatbot quase nunca foram realmente úteis
Eu sabia que o prompt de sistema estava crescendo, mas mais de 60 mil palavras foi chocante. Se isso dá algo como 80 mil tokens, então mesmo numa janela de contexto de 1 milhão já chega perto de 10%, e a entrada do usuário nem começou ainda. Além disso, isso entra em todas as solicitações, então não é estranho que o custo de infraestrutura aumente. Também parece haver muito conteúdo estável entre versões, então fiquei pensando por que não incorporam isso aos pesos durante o treinamento. Deve ser prático para desenvolvimento, mas do ponto de vista de implantação não parece melhor nem em segurança nem em eficiência
Sinto que o 4.7, mesmo quando existe uma melhor opção óbvia, sempre despeja opções demais, quase pregando fadiga de decisão
Achei interessante que as instruções não sejam um "you should" direto, mas algo em terceira pessoa onisciente como "Claude should". Também há muitos "can" e "should", então passa menos a sensação de comando rígido e mais de algo passivo, quase aspiracional