grep morreu. Use ripgrep.

 

Como a empresa é esse tipo de empresa, será que dá para chamar isso de "dogfooding"? haha

 

Eu estava fazendo algo assim também, mas realmente todo mundo acaba tendo ideias parecidas... rs

 

A atmosfera de crescimento e refinamento por meio do WDD (Wife Driven Development)..

 

No fim das contas, acho que o importante é como a pessoa que usa pensa sobre isso e faz uso da ferramenta.

Embora tenha aumentado o risco de surgir um ambiente em que se delega tudo sem pensar e se acaba sendo levado por isso sem perceber, se for bem utilizado, vi que é possível aprender e desenvolver de forma muito mais rápida e precisa do que antes.

Mas espero que em breve se consolide algum novo modelo e método exemplar de aprendizado, diferente das formas tradicionais de estudo e experiência, que seja bom para orientar quem está começando a aprender.

 

Li isso em voz alta para a minha esposa e ela achou muito engraçado...

Foi levantada a opinião de que a esposa dele pode tê-lo levado a atingir esse nível.

  1. Quanto aos padrões razoáveis, acho que preciso refletir sobre mim mesmo.
 

Tanto o texto quanto os comentários estão surpreendentemente negativos. Será que ninguém aqui sequer já experimentou rodar o Claude Code..

 

É só RAG;

 

Ao pesquisar por nanoclaw, o nanoclaw.net ainda aparece abaixo do git.

 

Parece aqueles casos em que o criador de uma ferramenta para trapacear é pego trapaceando. Hah

 

Como a página de instalação pede um endereço de e-mail, achei que fosse um repositório privado, mas na verdade é um repositório público.
Você pode acessar pelo link abaixo.

https://github.com/ArtemXTech/personal-os-skills/…

 

Parece muito interessante, vou tentar aplicar isso.

 

Ao ativar o modo /fast no Codex, a velocidade de tokens fica até 1,5x mais rápida, mantendo o mesmo modelo e o mesmo nível de inteligência. Na API, isso corresponde a Priority Processing.
O Priority Processing custa o dobro do preço do padrão
Solicitações que excederem a janela de contexto padrão de 272K serão cobradas em dobro

 

kkkkkkkk

 

O que é isso, minha capacidade de vocabulário está começando a falhar.
Estou aqui sentado pesquisando por "emergente, slop, atribuição de fonte, efeito de enquadramento, explosão cambriana".

 

Por que tanta coisa anda morrendo ultimamente?

 

Pensei em experimentar o qmd, então pedi para a IA pesquisar, mas ela diz que, embora a parte de embeddings seja razoável, o suporte em coreano para BM25 e expansão de consulta não é bom, então não recomenda...

 

Da última vez que rodei fine-tuning via agente, pareceu que problemas de overfitting aconteciam com frequência dependendo dos dados; fico curioso para saber se neste notebook isso seria possível com a combinação de LoRA/QLoRA.