A especialização inteira não é algo que possa ser substituído, não é? Até o próprio processo de criação do termo é estranho.

 

Estou confuso. É brincadeira, ou surgiu alguma técnica ou tecnologia nova que eu não conheço??

 

O AlphaGo também não prevê a próxima jogada calculando qual delas tem a maior probabilidade de vitória?????

 

Pode ser resumido como: “previsão do próximo token” é precisa como explicação no nível de implementação, mas é incompleta como forma de descrever as capacidades ou o propósito do modelo?

 

Então talvez faça sentido encontrar um meio-termo com um modelo que preveja melhor 😄

 

Hum... estou pensando que talvez o texto tenha sido transmitido de forma diferente da minha intenção. Se este texto pareceu menosprezar o valor técnico dos LLMs, peço desculpas.

Ainda assim, a intenção deste texto era tirar o exagero e a aura de mistificação para olhar a questão com frieza. Por isso, pessoalmente, quando se usa a expressão 'modelo que atinge objetivos', sinto que há uma mistificação nisso. No fim, seja software comum ou um modelo, ambos servem para atingir algum 'objetivo'.

Então, somando a isso uma curiosidade pessoal, gostaria de perguntar novamente se a expressão que você mencionou é, de fato, mais tecnicamente precisa.

 

Parece propaganda de Analytics do começo ao fim. Soa plausível, mas no fim é publicidade; também dá a impressão de que o administrador do hada.io está deixando largado demais.

 

No fim, é uma questão de trade-off com a qualidade, e também fico preocupado se isso não vai acabar virando uma estrutura em que se gastam mais tokens para recuperar a qualidade perdida.

 

Como o bm25 é fraco para buscas em coreano, também apliquei um guardrail separado que consegue pesquisar bem em coreano.

 

Em um contexto mais amplo, trata-se de buscar conversas passadas, então parece uma boa ideia se a questão de organizar e estruturar bem isso for bem encaminhada. Na prática, eu também considero que isso ajudou bastante a organizar meus projetos.

 

Eu também implementei. Adicionei algumas coisas para poder integrar o vault do Obsidian com backup no GitHub quando se está usando vários hardwares. Também criei e incluí parsers para Codex e Gemini. https://github.com/hang-in/seCall

 

Se você vai reduzir os LLMs modernos a “previsão da próxima palavra”, então o AlphaGo também não passa de “previsão da próxima jogada”.

Desde o ChatGPT, prever a próxima palavra não passa de um simples pre-training.

Na verdade, é um modelo que alcança objetivos.

 

Pelo que ouvi, parece que os desenvolvedores do kernel vêm dizendo aos desenvolvedores do PostgreSQL há quase 10–20 anos algo como: "spinlocks em userland não são recomendados, então gostaríamos que vocês reconsiderassem isso"..

https://x.com/kosaki55tea/status/2040458791536497035

 

Se você já usa a equipe de agentes do Claude Code, não havia nada de particularmente novo.
Mas foi conveniente estruturar a infraestrutura usando agents e skills para que informações como a composição da equipe pudessem continuar disponíveis em novas sessões também.
Quando a equipe era montada manualmente, coisas como boilerplates para a equipe acabavam se repetindo.

Havia um problema: como o ambiente considerava tanto subagents quanto agent teams, no padrão Supervisor às vezes acontecia a situação estranha de o supervisor delegar trabalho a um subagent mesmo com a equipe já criada.

 

https://github.com/google-ai-edge/gallery/issues/437

Parece que a compatibilidade com Exynos não é muito boa. Há um problema no Galaxy Quantum 5 (A55) em que ele responde repetindo infinitamente caracteres chineses.

 

Eu achava que, entre os grandes modelos de linguagem lançados no mercado depois do GPT, tirando alguns que usam modelos de difusão, todos funcionavam no formato de prever o próximo token. Se houver algum modelo que opere de outra forma, eu agradeceria se você pudesse me informar.

 

Eu nem sabia que existia internet simétrica de 25 gigas. Eu achava que até algo na faixa de 10 gigas já era mais do que suficiente para uso doméstico...

 

Já usei antes, mas acabei removendo porque o Claude continuava gastando ainda mais tokens para resolver problemas causados pelo rtk.
(Por exemplo, ao fazer uma requisição JSON com curl, ele gerava JSON inválido, o jq retornava erro, e o Claude acabava queimando tokens depurando isso; no fim, voltava para uma requisição curl bruta e fazia o parsing com jq.)
Mesmo assim, acho que a intenção em si é uma boa tentativa, então, quando estiver mais estável, parece algo que valeria a pena usar.

 

Eu também achei isso um ponto decepcionante!

Mas na atualização recente, eles passaram a salvar a saída completa em um arquivo separado, para que o LLM possa lê-la quando necessário~

 

A renovação do site oficial foi feita antes do lançamento do Gnuboard 7.