Já criei alguns compiladores e estou trabalhando em outro agora; do ponto de vista de vibe coding, também tentei fazer um editor, mas o compilador pareceu mais fácil. Como você escreveu, sinto que a especificação é menos precisa e há muito mais variáveis causadas pelos usuários. Também é mais difícil testar.
Embora a especificação se torne mais importante, desde antes eu penso que é impossível escrever tudo em detalhes e cobrir todas as situações. Ainda acho melhor ir refinando a especificação ao longo do trabalho, como fazemos com o código; por outro lado, fico pensando se não daria para fazer vários agentes fazerem isso entre si. Mas, no fim, sem intervenção humana, não parece possível sair das situações e dos conhecimentos em que foi treinado, então imagino que seja difícil lidar com situações e funcionalidades totalmente novas.
Isso me lembra a sensação de quando os robôs aspiradores apareceram pela primeira vez e eu ouvi que era preciso fazer uma "limpeza simples" de guardar as coisas do chão para o robô. Escrever uma especificação detalhada para a IA também já dá bastante trabalho, então parece que estamos trabalhando para a IA.
Estou há muito tempo nesse meio, observando, e acho que as mudanças recentes se devem em grande parte a dois fatores.
Primeiro, o valor em jogo ficou grande demais. Antigamente, alguns milhões de dólares já pareciam algo enorme, mas agora o dinheiro está circulando na casa dos bilhões. E, naturalmente, onde o cheiro de dinheiro fica no ar, gente de todo tipo acaba se reunindo. Soma-se a isso a entrada em massa de pessoas de certas esferas culturais, e a própria atmosfera do setor mudou bastante para o estilo característico delas.
Olhando para hoje, dá para ver claramente que, diferente da antiga sensibilidade de TI/CS, agora parece que "lábia" e "showmanship" sustentam tudo. Em outros tempos, seriam pessoas que teriam saído junto quando a bolha estourasse, mas desta vez, como o centro de tudo é a tecnologia de LLM — que "fala bem" —, não há sinal de que esse fluxo vá terminar tão cedo. Acho que esse clima vai continuar daqui para frente.
Na verdade, o motivo de a Anthropic ter feito um compilador C como demonstração provavelmente também foi o fato de que compiladores têm especificações precisas e casos de teste bem preparados. Ao mesmo tempo, eles também parecem extremamente difíceis.
Talvez seja algo como a diferença entre aprendizado por reforço e deep learning. Em contextos em que não é possível fornecer um loop de feedback decisivo, os dados humanos ainda parecem ser o fosso defensivo.
No issue do GitHub, mais de 100 contas de bot postaram spam,
e a conta do GitHub comprometida está alterando a descrição de todos os projetos da conta para isto. teampcp owns BerriAI
Pessoalmente, ver até spam sendo postado no issue passa uma sensação bem distópica, então acho isso bem assustador.
E também não lembro direito, mas era flake ou alguma função assim: em um lugar dizem que é best practice, em outro dizem que é experimental, em outro dizem que é os dois, e vendo isso se arrastar por anos já dava para ver claramente o tanto de dor de cabeça que viria pela frente..
Claro, a experiência de conseguir transformar facilmente todo o ambiente de desktop em código foi prazerosa.
Eu também usei o NixOS por quase meio ano antigamente, mas acabei voltando para o Arch porque me deparei com uma tarefa muito simples — daquelas que em outros OS você resolve sem nem precisar procurar muito — e, por mais que eu pesquisasse no Google, não conseguia resolver. Aí vi em um lugar como o fórum do NixOS uma solução registrada por algum especialista? em NixOS, e quando percebi que aquela solução gambiarra de dezenas de linhas era a que tinha recebido mais joinhas, senti que minha vida futura com o NixOS seria sombria...
Assim como o treinamento do AlphaGo foi feito com dados de autojogo AlphaGo vs AlphaGo, o treinamento de LLMs está sendo feito gerando dados com os próprios LLMs. Como, com apenas algumas amostras de dados, já é fácil criar mais dados, também é difícil ver isso como um fosso defensável realmente seguro.
Na verdade, quando um LLM recomenda algum open source específico, até penso em testar,
mas se ele recomendar o próprio produto para comprar, acho que vou acabar desconfiando ainda mais se dá mesmo para confiar.
Bom, talvez um dia isso também mude.
A curva de aprendizado é absurda. Como garante reprodutibilidade, exige um nível bem alto.
Mesmo usando flake, ainda é complicado.
Além disso, parece usar SQLite internamente, e o desempenho varia bastante, então há uma certa flutuação no tempo que leva para reproduzir o ambiente novamente uma vez.
Já criei alguns compiladores e estou trabalhando em outro agora; do ponto de vista de vibe coding, também tentei fazer um editor, mas o compilador pareceu mais fácil. Como você escreveu, sinto que a especificação é menos precisa e há muito mais variáveis causadas pelos usuários. Também é mais difícil testar.
Embora a especificação se torne mais importante, desde antes eu penso que é impossível escrever tudo em detalhes e cobrir todas as situações. Ainda acho melhor ir refinando a especificação ao longo do trabalho, como fazemos com o código; por outro lado, fico pensando se não daria para fazer vários agentes fazerem isso entre si. Mas, no fim, sem intervenção humana, não parece possível sair das situações e dos conhecimentos em que foi treinado, então imagino que seja difícil lidar com situações e funcionalidades totalmente novas.
Isso me lembra a sensação de quando os robôs aspiradores apareceram pela primeira vez e eu ouvi que era preciso fazer uma "limpeza simples" de guardar as coisas do chão para o robô. Escrever uma especificação detalhada para a IA também já dá bastante trabalho, então parece que estamos trabalhando para a IA.
Estou há muito tempo nesse meio, observando, e acho que as mudanças recentes se devem em grande parte a dois fatores.
Primeiro, o valor em jogo ficou grande demais. Antigamente, alguns milhões de dólares já pareciam algo enorme, mas agora o dinheiro está circulando na casa dos bilhões. E, naturalmente, onde o cheiro de dinheiro fica no ar, gente de todo tipo acaba se reunindo. Soma-se a isso a entrada em massa de pessoas de certas esferas culturais, e a própria atmosfera do setor mudou bastante para o estilo característico delas.
Olhando para hoje, dá para ver claramente que, diferente da antiga sensibilidade de TI/CS, agora parece que "lábia" e "showmanship" sustentam tudo. Em outros tempos, seriam pessoas que teriam saído junto quando a bolha estourasse, mas desta vez, como o centro de tudo é a tecnologia de LLM — que "fala bem" —, não há sinal de que esse fluxo vá terminar tão cedo. Acho que esse clima vai continuar daqui para frente.
Na verdade, o motivo de a Anthropic ter feito um compilador C como demonstração provavelmente também foi o fato de que compiladores têm especificações precisas e casos de teste bem preparados. Ao mesmo tempo, eles também parecem extremamente difíceis.
Talvez seja algo como a diferença entre aprendizado por reforço e deep learning. Em contextos em que não é possível fornecer um loop de feedback decisivo, os dados humanos ainda parecem ser o fosso defensivo.
Isso é realmente muito grave.
No issue do GitHub, mais de 100 contas de bot postaram spam,
e a conta do GitHub comprometida está alterando a descrição de todos os projetos da conta para isto.
teampcp owns BerriAI
Pessoalmente, ver até spam sendo postado no issue passa uma sensação bem distópica, então acho isso bem assustador.
E também não lembro direito, mas era
flakeou alguma função assim: em um lugar dizem que é best practice, em outro dizem que é experimental, em outro dizem que é os dois, e vendo isso se arrastar por anos já dava para ver claramente o tanto de dor de cabeça que viria pela frente..Claro, a experiência de conseguir transformar facilmente todo o ambiente de desktop em código foi prazerosa.
Eu também usei o NixOS por quase meio ano antigamente, mas acabei voltando para o Arch porque me deparei com uma tarefa muito simples — daquelas que em outros OS você resolve sem nem precisar procurar muito — e, por mais que eu pesquisasse no Google, não conseguia resolver. Aí vi em um lugar como o fórum do NixOS uma solução registrada por algum especialista? em NixOS, e quando percebi que aquela solução gambiarra de dezenas de linhas era a que tinha recebido mais joinhas, senti que minha vida futura com o NixOS seria sombria...
Assim como o treinamento do AlphaGo foi feito com dados de autojogo AlphaGo vs AlphaGo, o treinamento de LLMs está sendo feito gerando dados com os próprios LLMs. Como, com apenas algumas amostras de dados, já é fácil criar mais dados, também é difícil ver isso como um fosso defensável realmente seguro.
Entrei para ver e lá diz: This project is no longer actively maintained.
O Firebase Studio também usa Nix
Ai, está todo mundo morrendo
Tem bem mais respondentes do nosso país do que eu imaginava.
Estou testando... não sei bem.
Pode ser que o problema seja o meu prompt, mas a fonte e o design são meio ruins..
Na verdade, quando um LLM recomenda algum open source específico, até penso em testar,
mas se ele recomendar o próprio produto para comprar, acho que vou acabar desconfiando ainda mais se dá mesmo para confiar.
Bom, talvez um dia isso também mude.
Quem conhece, usa meio no boca a boca mesmo kkk
Um setup reproduzível implementado com uma linguagem funcional declarativa
Por favor, deem muito amor ao RollerCoaster Tycoon.
A curva de aprendizado é absurda. Como garante reprodutibilidade, exige um nível bem alto.
Mesmo usando
flake, ainda é complicado.Além disso, parece usar SQLite internamente, e o desempenho varia bastante, então há uma certa flutuação no tempo que leva para reproduzir o ambiente novamente uma vez.
Dizem que funciona, mas comigo não funciona 😭
O que faz um bom líder, gerente ou membro de equipe? Às vezes, quem é gerente também é, ao mesmo tempo, membro da equipe de alguém...