Obrigado. O consumo de tokens do Claude também é alto e, comparado ao Codex, eu fico um pouco menos satisfeito com o trabalho, então ultimamente tenho trabalhado mais com o Codex.
Obrigado por compartilhar essa informação útil. Fundamentalmente, tenho sentido que o próprio uso de tokens diminuiu demais, então seria bom se aumentassem isso no Claude. Como o harness fica rodando e acaba sendo interrompido no meio...
Eu também concordo com essa opinião.
No fim das contas, vejo isso como uma ferramenta com trade-offs bem claros.
Também me preocupo se, quanto mais usamos IA, mais nossa habilidade de programar diminui, mas é certo que passamos a pensar em outras questões que antes não fazíamos (ou não conseguíamos fazer).
Na base desse colapso, existe uma limitação matemática da 'normalização softmax', o coração da arquitetura Transformer. Sob o mecanismo de atenção, a soma dos pesos de atenção de todos os tokens necessariamente deve ser 1, seguindo uma distribuição de soma zero. Portanto, à medida que o comprimento N da sequência de entrada se expande exponencialmente, o peso informacional que pode ser atribuído a um token-chave específico inevitavelmente converge para 1/N, sendo diluído aritmeticamente. Isso vai além de uma simples ineficiência computacional e significa que o 'noise floor' que o modelo precisa processar aumenta abruptamente.
É um texto sem substância, só enumera argumentos e não traz evidências decisivas nem experimentos diretos para sustentar as alegações.
Parece uma extensão entediante daquelas falas do Yann LeCun, tipo: "mesmo chegando ao GPT-5000, o modelo não vai aprender que, se você colocar um objeto sobre a mesa e empurrar a mesa, o objeto também será empurrado junto", ou "modelos autorregressivos inevitavelmente entram em colapso à medida que a sequência fica mais longa por causa do acúmulo de erros"...
Falando francamente, dá até para suspeitar que isso não seja um upload para viralizar a empresa mencionada no fim do white paper.
Isso me lembrou um post de humor que vi há pouco tempo
A pessoa escreveu o código manualmente e depois pediu para a IA melhorar,
aí apareceu
Phase 1: excluir código lixo
kakakaka
Às vezes eu me preocupo pensando: e se um dia a calculadora quebrar e começar a mostrar que 3 X 3 = 10, e ninguém perceber que isso está errado...? Se isso acontecer no computador do programador que lida com a minha conta bancária... acho que não faz mal nenhum ser cuidadoso.
Eu também ainda sinto que me falta muito na minha área de especialidade, então tomo cuidado partindo do princípio de que, nas áreas em que recebo ajuda, o nível deve ser parecido. Em compensação, como a velocidade de evolução é considerável, pretendo continuar usando isso em tarefas em que esse nível de qualidade já seja suficiente.
Com uma calculadora, memorizar a tabuada parece um apego a um modo de trabalho do passado. De qualquer forma, esse tipo de coisa a calculadora fará melhor. O importante agora é a experiência de melhorar o que não funciona bem ao usar a calculadora. Mas também acho que isso será temporário.
Parece ser apenas o debate sobre Neuro-Symbolic que vem se arrastando há tempos. Houve uma época em que se atribuía muito mais significado a "determinístico" do que hoje. Mas, à medida que o desempenho melhorou a ponto de os modelos probabilísticos se aproximarem de um nível determinístico, muito espaço para discussão acabou desaparecendo. No fim, o que sempre quisemos não era algo determinístico, mas uma incerteza "aceitável". Nesse sentido, pelo menos do ponto de vista da "indústria", e não da academia, talvez não seja necessário atribuir tanto significado ao determinismo. Afinal, mesmo que a integração avance quando a incerteza dos modelos generativos atuais chegar a um ponto de estagnação, não será tarde demais.
O motivo de humanoides terem tamanho semelhante ao dos humanos e uma estrutura articular parecida é para não precisar construir ferramentas ou linhas separadas especificamente para eles.
Nós já fizemos a bobagem de montar RAG corporativo e operar/manter isso, e com a chegada de agentes e MCP não refletimos que, no fim, não precisava passar por isso? Por que repetir o mesmo erro de outro jeito?
A ideia antiquada de agentes navegarem na web no lugar de humanos não esbarra tanto em tecnologia, mas sim em uma questão política com impacto ainda maior: ameaçar o principal modelo de receita do Google, que já é parte da própria web.
De qualquer forma, webMCP é só uma alternativa transitória até que os agentes de RPA amadureçam. Desse jeito, daqui a pouco vão até sugerir voltar para XUL.
Para engenheiros que lidam com IA, é um pressuposto básico tão óbvio que nunca foi segredo que, em grandes modelos de linguagem (LLMs), 'criatividade' e 'alucinação (Hallucination)' são, no fim das contas, produtos do mesmo mecanismo probabilístico de previsão do próximo token (Next-token prediction), mas o white paper exagera isso como se estivesse revelando um grande segredo.
É um pouco decepcionante a lógica de limitar e criticar a 'autocorreção' de múltiplos agentes como mera 'iteração homogênea (Homogeneous Iteration)' dentro do mesmo contexto.
Na prática, quando se integra agentes inteligentes ao IDE em ambientes reais de desenvolvimento e se faz engenharia de prompts avançada, essa natureza probabilística do modelo não é tanto uma 'falha fatal intransponível', mas apenas uma 'condição básica' que deve ser tratada como constante ao projetar o sistema. Já se parte do pressuposto de que o modelo pode sair do contexto, e a abordagem do mundo real é garantir controle efetivo fornecendo contextos claramente separados ou usando contextos em diferentes escalas.
No entanto, este white paper pega esse fato óbvio, conhecido por todos, e o embala com termos acadêmicos grandiosos como 'erro categorial' e 'desvio probabilístico', gerando ansiedade. O objetivo parece claro. Só ao rebaixar completamente a própria autonomia dos LLMs é que eles conseguem maximizar o valor da 'rede de controle determinística projetada diretamente por humanos (sistema SERA)' que propõem.
No fim, este texto está mais para um discurso de vendas enviesado, escrito para convencer tomadores de decisão de ambientes corporativos que temem os riscos das alucinações a 'adotar nosso pipeline determinístico hardcoded em vez de agentes incontroláveis', do que para um white paper tecnicamente equilibrado.
O código para trabalho eu simplesmente deixo todo por conta de agentes de IA, tentando manter o loop o mais longo possível.
Projetos pessoais por hobby eu desenvolvo diretamente, sem usar assistentes de IA nem autocompletar com IA (...)
Obrigado. O consumo de tokens do Claude também é alto e, comparado ao Codex, eu fico um pouco menos satisfeito com o trabalho, então ultimamente tenho trabalhado mais com o Codex.
Obrigado por compartilhar essa informação útil. Fundamentalmente, tenho sentido que o próprio uso de tokens diminuiu demais, então seria bom se aumentassem isso no Claude. Como o harness fica rodando e acaba sendo interrompido no meio...
Por isso, para perguntas que exigem objetividade, eu uso um prompt pedindo que responda em 3 partes: "positivo/crítico/síntese".
Uau......!
Eu também concordo com essa opinião.
No fim das contas, vejo isso como uma ferramenta com trade-offs bem claros.
Também me preocupo se, quanto mais usamos IA, mais nossa habilidade de programar diminui, mas é certo que passamos a pensar em outras questões que antes não fazíamos (ou não conseguíamos fazer).
id
name
displayName
email
active
admin
guest
timezone
createdAt
updatedAt
lastSeen
Dizem que dados e também chaves de API, como tokens do npm ou tokens do GitHub, foram vazados. Parece que até surgiu um vendedor desses dados.
Isso aí já não é nem brincadeira..
É um texto sem substância, só enumera argumentos e não traz evidências decisivas nem experimentos diretos para sustentar as alegações.
Parece uma extensão entediante daquelas falas do Yann LeCun, tipo: "mesmo chegando ao GPT-5000, o modelo não vai aprender que, se você colocar um objeto sobre a mesa e empurrar a mesa, o objeto também será empurrado junto", ou "modelos autorregressivos inevitavelmente entram em colapso à medida que a sequência fica mais longa por causa do acúmulo de erros"...
Falando francamente, dá até para suspeitar que isso não seja um upload para viralizar a empresa mencionada no fim do white paper.
Isso me lembrou um post de humor que vi há pouco tempo
A pessoa escreveu o código manualmente e depois pediu para a IA melhorar,
aí apareceu
Phase 1: excluir código lixo
kakakaka
Não se limita apenas à programação, claro. A dificuldade desejável não é apenas um slogan batido, mas se baseia em diversas evidências científicas.
Às vezes eu me preocupo pensando: e se um dia a calculadora quebrar e começar a mostrar que 3 X 3 = 10, e ninguém perceber que isso está errado...? Se isso acontecer no computador do programador que lida com a minha conta bancária... acho que não faz mal nenhum ser cuidadoso.
Eu também ainda sinto que me falta muito na minha área de especialidade, então tomo cuidado partindo do princípio de que, nas áreas em que recebo ajuda, o nível deve ser parecido. Em compensação, como a velocidade de evolução é considerável, pretendo continuar usando isso em tarefas em que esse nível de qualidade já seja suficiente.
Com uma calculadora, memorizar a tabuada parece um apego a um modo de trabalho do passado. De qualquer forma, esse tipo de coisa a calculadora fará melhor. O importante agora é a experiência de melhorar o que não funciona bem ao usar a calculadora. Mas também acho que isso será temporário.
Parece ser apenas o debate sobre Neuro-Symbolic que vem se arrastando há tempos. Houve uma época em que se atribuía muito mais significado a "determinístico" do que hoje. Mas, à medida que o desempenho melhorou a ponto de os modelos probabilísticos se aproximarem de um nível determinístico, muito espaço para discussão acabou desaparecendo. No fim, o que sempre quisemos não era algo determinístico, mas uma incerteza "aceitável". Nesse sentido, pelo menos do ponto de vista da "indústria", e não da academia, talvez não seja necessário atribuir tanto significado ao determinismo. Afinal, mesmo que a integração avance quando a incerteza dos modelos generativos atuais chegar a um ponto de estagnação, não será tarde demais.
Não seria melhor moderar um pouco os posts que violam o EULA?
O motivo de humanoides terem tamanho semelhante ao dos humanos e uma estrutura articular parecida é para não precisar construir ferramentas ou linhas separadas especificamente para eles.
Nós já fizemos a bobagem de montar RAG corporativo e operar/manter isso, e com a chegada de agentes e MCP não refletimos que, no fim, não precisava passar por isso? Por que repetir o mesmo erro de outro jeito?
A ideia antiquada de agentes navegarem na web no lugar de humanos não esbarra tanto em tecnologia, mas sim em uma questão política com impacto ainda maior: ameaçar o principal modelo de receita do Google, que já é parte da própria web.
De qualquer forma, webMCP é só uma alternativa transitória até que os agentes de RPA amadureçam. Desse jeito, daqui a pouco vão até sugerir voltar para XUL.
Isso acontece porque as dimensões e as camadas do modelo não foram quantizadas de forma uniforme. Como sempre foi.
Para engenheiros que lidam com IA, é um pressuposto básico tão óbvio que nunca foi segredo que, em grandes modelos de linguagem (LLMs), 'criatividade' e 'alucinação (Hallucination)' são, no fim das contas, produtos do mesmo mecanismo probabilístico de previsão do próximo token (Next-token prediction), mas o white paper exagera isso como se estivesse revelando um grande segredo.
É um pouco decepcionante a lógica de limitar e criticar a 'autocorreção' de múltiplos agentes como mera 'iteração homogênea (Homogeneous Iteration)' dentro do mesmo contexto.
Na prática, quando se integra agentes inteligentes ao IDE em ambientes reais de desenvolvimento e se faz engenharia de prompts avançada, essa natureza probabilística do modelo não é tanto uma 'falha fatal intransponível', mas apenas uma 'condição básica' que deve ser tratada como constante ao projetar o sistema. Já se parte do pressuposto de que o modelo pode sair do contexto, e a abordagem do mundo real é garantir controle efetivo fornecendo contextos claramente separados ou usando contextos em diferentes escalas.
No entanto, este white paper pega esse fato óbvio, conhecido por todos, e o embala com termos acadêmicos grandiosos como 'erro categorial' e 'desvio probabilístico', gerando ansiedade. O objetivo parece claro. Só ao rebaixar completamente a própria autonomia dos LLMs é que eles conseguem maximizar o valor da 'rede de controle determinística projetada diretamente por humanos (sistema SERA)' que propõem.
No fim, este texto está mais para um discurso de vendas enviesado, escrito para convencer tomadores de decisão de ambientes corporativos que temem os riscos das alucinações a 'adotar nosso pipeline determinístico hardcoded em vez de agentes incontroláveis', do que para um white paper tecnicamente equilibrado.
O código para trabalho eu simplesmente deixo todo por conta de agentes de IA, tentando manter o loop o mais longo possível.
Projetos pessoais por hobby eu desenvolvo diretamente, sem usar assistentes de IA nem autocompletar com IA (...)
Desativei os recursos de IA do VSCode e estou usando o Claude Code; com certeza a experiência fica bem mais confortável.