Interessante, mas também fico pensando se isso não acabou evoluindo simplesmente para o lado de usar mais tokens e cobrar mais caro; e, na real, também parece que certas bibliotecas acabam sendo só geradas porque a IA já foi treinada nelas.
Pensar que apenas bibliotecas específicas vão evoluir por preferência dos agentes também dá uma sensação meio estranha.

 

No fim, o Departamento de Defesa dos EUA deixou a Anthropic de lado e escolheu a OpenAI, mas há uma diferença de formulação que costuma passar batida.

A OpenAI também propôs mecanismos concretos de implementação, como a criação de salvaguardas técnicas, o envio de FDEs (engenheiros de campo) e implantação dedicada em nuvem.
A Anthropic exigiu cláusulas de exceção no nível dos termos de uso.

Do ponto de vista do Departamento de Defesa dos EUA, isso parece ter sido anunciado quase como uma punição por ressentimento, sob a leitura de que "uma empresa privada exerce poder de veto sobre casos de uso individuais".

Esse acordo foi anunciado pouco depois de a Anthropic ser classificada como risco para a cadeia de suprimentos,
e, olhando a matéria da Axios, o Departamento de Defesa usou o confronto com a Anthropic para definir o tom das negociações com outras empresas de IA;
a OpenAI, sob essa pressão, acabou conduzindo um acordo em um formato que o Departamento de Defesa podia aceitar.

A diferença na forma das declarações oficiais também é grande.

Sam Altman disse que "o Departamento de Defesa demonstrou profundo respeito pela segurança",
enquanto a Anthropic manteve até o fim o tom de que "não pode, em consciência, concordar com as exigências do Departamento de Defesa".

Mesmo partindo dos mesmos princípios, parece que a diferença foi grande em termos de preservar ou não a imagem do Departamento de Defesa;
no fim, como a OpenAI aceitou e isso deixaria a situação com uma aparência estranha,
Sam Altman acrescentou no fim algo como "por favor, ofereçam essas condições igualmente a todas as empresas de IA",
o que parece ter sido uma mensagem indireta pedindo uma flexibilização das medidas contra a Anthropic.

 

Não dava para manter simplesmente no minimalismo...?
Ou então, já que o WordPad acabou, lançar algo novo e mais leve...

 

Como desenvolvedor solo, estou tocando 7 projetos, e este texto me acertou em cheio.

Graças às ferramentas de coding com IA, a velocidade inicial de desenvolvimento ficou absurdamente rápida, mas o código acumulado às pressas sem testes acabou virando um inferno de refatoração. Principalmente quando você opera vários serviços ao mesmo tempo, em projetos sem testes dá medo até de mexer em uma única funcionalidade, porque sempre fica o receio de quebrar outra coisa em algum lugar.

A metáfora de "testes = moat" é precisa. Um concorrente pode até copiar o código, mas dificilmente vai conseguir replicar também uma suíte de testes que cobre milhares de edge cases. Isso é ainda mais verdadeiro porque, embora a IA seja boa em gerar código, criar cenários de teste realmente significativos ainda é uma área que exige conhecimento de domínio humano.

 

Tenho uma dúvida para os desenvolvedores: por que, ultimamente, a maioria dos projetos parece ser desenvolvida em Rust em vez de Golang? O principal motivo é a presença ou ausência de GC?

 

Achei isso bem legal.

 

Pesquisa interessante. Em especial, impressiona o fato de que, em "Build vs Buy", 12 de 20 categorias sejam DIY.

Nós também fizemos uma observação parecida ao criar um padrão de persona para agentes de IA (Soul Spec): se as ferramentas não forem especificadas para o Claude Code em CLAUDE.md ou AGENTS.md, ele tende fortemente a implementar do seu próprio jeito.

O que o "Recency Gradient" deste estudo sugere, ao que parece, é que, para uma ferramenta nova entrar na stack padrão do Claude, ela precisa ter exposição suficiente nos dados de treinamento ou ser explicitamente indicada nos arquivos de contexto do projeto. No fim das contas, o Context Engineering acaba influenciando até a escolha das ferramentas.

Também é ótimo que o dataset original esteja aberto: https://github.com/amplifying-ai/claude-code-picks

 

Chamam isso de Assistive agent optimization (AAO).

Para ferramentas voltadas a desenvolvedores, agora ficou importante se tornarem produtos preferidos pelos agentes.
Se o agente nem fala sobre isso, vai ficando cada vez mais distante

 

O loop do Ralph também foi adicionado há pouco tempo, e vendo que a skill financeira também foi adicionada, dá a sensação de que, se é só esperar, as coisas que existiam em ferramentas de terceiros acabam entrando rapidinho.

 
roxie 2026-02-28 | comentário pai | em: Sem habilidade. Sem gosto. (blog.kinglycrow.com)

Talvez dê para traduzir com personalidade.

 
roxie 2026-02-27 | comentário pai | em: A armadilha do ISBN (rygoldstein.com)

Parece que o campo do identificador do conteúdo está em branco T_T

 

Na prática, só dá para saber testando, mas o site é impressionante.

 

É só a minha opinião, mas imagino que isso valha mais para áreas em que se usa muito Notebook, ou para áreas de IA em que as respostas saem de forma probabilística... e também para a área de clientes de jogos.

 

Quem será que vai contribuir?

 

> Primeiro, entender o contexto político para compreender a importância do projeto e o cronograma esperado
> Depois, explorar abordagens possíveis com base no prazo já definido

Opa