No fim das contas, acho que o importante é como a pessoa que usa pensa sobre isso e faz uso da ferramenta.
Embora tenha aumentado o risco de surgir um ambiente em que se delega tudo sem pensar e se acaba sendo levado por isso sem perceber, se for bem utilizado, vi que é possível aprender e desenvolver de forma muito mais rápida e precisa do que antes.
Mas espero que em breve se consolide algum novo modelo e método exemplar de aprendizado, diferente das formas tradicionais de estudo e experiência, que seja bom para orientar quem está começando a aprender.
Como a página de instalação pede um endereço de e-mail, achei que fosse um repositório privado, mas na verdade é um repositório público.
Você pode acessar pelo link abaixo.
Ao ativar o modo /fast no Codex, a velocidade de tokens fica até 1,5x mais rápida, mantendo o mesmo modelo e o mesmo nível de inteligência. Na API, isso corresponde a Priority Processing.
O Priority Processing custa o dobro do preço do padrão
Solicitações que excederem a janela de contexto padrão de 272K serão cobradas em dobro
O que é isso, minha capacidade de vocabulário está começando a falhar.
Estou aqui sentado pesquisando por "emergente, slop, atribuição de fonte, efeito de enquadramento, explosão cambriana".
Pensei em experimentar o qmd, então pedi para a IA pesquisar, mas ela diz que, embora a parte de embeddings seja razoável, o suporte em coreano para BM25 e expansão de consulta não é bom, então não recomenda...
Da última vez que rodei fine-tuning via agente, pareceu que problemas de overfitting aconteciam com frequência dependendo dos dados; fico curioso para saber se neste notebook isso seria possível com a combinação de LoRA/QLoRA.
grepmorreu. Useripgrep.O conteúdo era realmente muito bom e divertido.
Como a empresa é esse tipo de empresa, será que dá para chamar isso de "dogfooding"? haha
Eu estava fazendo algo assim também, mas realmente todo mundo acaba tendo ideias parecidas... rs
A atmosfera de crescimento e refinamento por meio do WDD (Wife Driven Development)..
No fim das contas, acho que o importante é como a pessoa que usa pensa sobre isso e faz uso da ferramenta.
Embora tenha aumentado o risco de surgir um ambiente em que se delega tudo sem pensar e se acaba sendo levado por isso sem perceber, se for bem utilizado, vi que é possível aprender e desenvolver de forma muito mais rápida e precisa do que antes.
Mas espero que em breve se consolide algum novo modelo e método exemplar de aprendizado, diferente das formas tradicionais de estudo e experiência, que seja bom para orientar quem está começando a aprender.
Li isso em voz alta para a minha esposa e ela achou muito engraçado...
Foi levantada a opinião de que a esposa dele pode tê-lo levado a atingir esse nível.
Tanto o texto quanto os comentários estão surpreendentemente negativos. Será que ninguém aqui sequer já experimentou rodar o Claude Code..
O motivo pelo qual desenvolvedores não conseguem namorar
É só RAG;
Ao pesquisar por nanoclaw, o
nanoclaw.netainda aparece abaixo do git.Parece aqueles casos em que o criador de uma ferramenta para trapacear é pego trapaceando. Hah
Como a página de instalação pede um endereço de e-mail, achei que fosse um repositório privado, mas na verdade é um repositório público.
Você pode acessar pelo link abaixo.
https://github.com/ArtemXTech/personal-os-skills/…
Parece muito interessante, vou tentar aplicar isso.
kkkkkkkk
O que é isso, minha capacidade de vocabulário está começando a falhar.
Estou aqui sentado pesquisando por "emergente, slop, atribuição de fonte, efeito de enquadramento, explosão cambriana".
Por que tanta coisa anda morrendo ultimamente?
Pensei em experimentar o qmd, então pedi para a IA pesquisar, mas ela diz que, embora a parte de embeddings seja razoável, o suporte em coreano para BM25 e expansão de consulta não é bom, então não recomenda...
Da última vez que rodei fine-tuning via agente, pareceu que problemas de overfitting aconteciam com frequência dependendo dos dados; fico curioso para saber se neste notebook isso seria possível com a combinação de LoRA/QLoRA.