E parece que tantos frameworks acabam não servindo para grande coisa. Afinal, não é como se as inúmeras empresas que fracassaram até hoje tivessem fracassado por não conhecer essas coisas. Ainda assim, acho que são bons para estudar. Revisão rápida, sugestões etc.
Você ao menos leu as diretrizes do Hacker News..? É melhor evitar esse tipo de texto; essa mentalidade de “ele também faz merda, então por que só comigo?” é bem infantil.
Seria ótimo se comparassem várias linguagens por meio de um grande experimento,
mas um teste desse nível não costuma ser feito por empresas, e quando acaba sendo conduzido por alguém da comunidade, é difícil que seja um experimento preciso.
Procurei em vários lugares, mas não é fácil encontrar informações realmente boas.
O que também é natural, porque quem se disporia a gastar do próprio bolso para planejar direito e testar qual linguagem é melhor...
Eu também achei que era um experimento com muitas limitações, mas ainda assim gostei de poder ver pelo menos uma tentativa..^^
Parece ser um caso que mostra bem o que acontece quando não se fornecem nem sequer critérios de sucesso simples relacionados a desempenho. Os agentes de código que usei até agora ainda buscam resolver o problema em si, mas, sem um prompt prévio explícito ou um loop de validação, quase não otimizam desempenho por conta própria. É preciso instruir a IA como se você estivesse propondo um problema de teste de programação. Especialmente mesmo em um caso como este, em que há um baseline, esperar o melhor resultado de desempenho sem explicitar as condições de performance pode até ser visto como uma espécie de negligência por parte de quem usa a IA.
É lamentável, mas como a esmagadora maioria é consumidora, isso acaba sendo uma má notícia...
Até a Samsung está sofrendo impacto no lado de produtos acabados agora.
Há uma diferença entre a possibilidade teórica e as áreas de uso real => existem limitações nos benchmarks usados para calcular a possibilidade teórica + ainda há um fenômeno de atraso cultural em que os fluxos de trabalho existentes não foram otimizados para IA. Pessoalmente, acho que os benchmarks provavelmente têm limitações.
Queda na taxa de entrada em novos empregos => isso sugere que a área de desenvolvimento se tornou menos intensiva em mão de obra.
Ainda não sei se isso vai acabar sendo só mais um método passageiro, como os erros de ponto intermediário,
mas estou compartilhando uma ferramenta que permite entender o código e corrigir bugs enquanto faz review de PR com IA.
Eu a uso em projetos paralelos quando não consigo entender as alterações de código feitas pela IA.
"Neste texto, o autor disseca um texto gerado por IA e expõe os 6 principais sinais de 'AI slop' e a estrutura oculta por trás deles. Não se trata apenas de uma lista de palavras. Do vocabulário excessivamente rebuscado, como "delve" e "tapestry", aos padrões de frase que criam uma falsa profundidade, o texto aborda por que isso não soa como escrita humana. O ponto central está em recuperar uma escrita diversa e imperfeita."
+1 👍
Obrigado pelo apoio.
Muito obrigado até pelo café. haha
Vou me esforçar bastante!
E parece que tantos frameworks acabam não servindo para grande coisa. Afinal, não é como se as inúmeras empresas que fracassaram até hoje tivessem fracassado por não conhecer essas coisas. Ainda assim, acho que são bons para estudar. Revisão rápida, sugestões etc.
Você ao menos leu as diretrizes do Hacker News..? É melhor evitar esse tipo de texto; essa mentalidade de “ele também faz merda, então por que só comigo?” é bem infantil.
Há muita demanda para criar algo barato e promovê-lo,
mas, quando encontramos coisas boas, acabamos guardando e organizando só para nós mesmos.
Talvez seja da própria natureza das coisas que boas informações ou notícias não circulem com facilidade.
Haha, é preciso considerar que posso estar sendo um pouco tendencioso por ser committer da linguagem Ruby.
Seria ótimo se comparassem várias linguagens por meio de um grande experimento,
mas um teste desse nível não costuma ser feito por empresas, e quando acaba sendo conduzido por alguém da comunidade, é difícil que seja um experimento preciso.
Procurei em vários lugares, mas não é fácil encontrar informações realmente boas.
O que também é natural, porque quem se disporia a gastar do próprio bolso para planejar direito e testar qual linguagem é melhor...
Eu também achei que era um experimento com muitas limitações, mas ainda assim gostei de poder ver pelo menos uma tentativa..^^
Obrigado pelo ótimo material. Também deixei um presente no Wikidocs para você tomar um café.
Estou usando o 27b no hx370 e os resultados são bons.
Parece ser um caso que mostra bem o que acontece quando não se fornecem nem sequer critérios de sucesso simples relacionados a desempenho. Os agentes de código que usei até agora ainda buscam resolver o problema em si, mas, sem um prompt prévio explícito ou um loop de validação, quase não otimizam desempenho por conta própria. É preciso instruir a IA como se você estivesse propondo um problema de teste de programação. Especialmente mesmo em um caso como este, em que há um baseline, esperar o melhor resultado de desempenho sem explicitar as condições de performance pode até ser visto como uma espécie de negligência por parte de quem usa a IA.
É lamentável, mas como a esmagadora maioria é consumidora, isso acaba sendo uma má notícia...
Até a Samsung está sofrendo impacto no lado de produtos acabados agora.
Pelos comentários, parece que foi nessa época que você saiu e estava criando o KakaoTalk.
Pelo que sei, a direção de implementação é diferente da OpenCode.
Algumas especulações são possíveis.
Era um mercado de pulgas de artesanato, mas em algum momento passou a dar a impressão de que mais da metade eram produtos trazidos do Ali e da Temu.
Devemos considerar isso uma boa notícia para a indústria coreana... rs
https://app.devin.ai/review
Ainda não sei se isso vai acabar sendo só mais um método passageiro, como os erros de ponto intermediário,
mas estou compartilhando uma ferramenta que permite entender o código e corrigir bugs enquanto faz review de PR com IA.
Eu a uso em projetos paralelos quando não consigo entender as alterações de código feitas pela IA.
"Neste texto, o autor disseca um texto gerado por IA e expõe os 6 principais sinais de 'AI slop' e a estrutura oculta por trás deles. Não se trata apenas de uma lista de palavras. Do vocabulário excessivamente rebuscado, como "delve" e "tapestry", aos padrões de frase que criam uma falsa profundidade, o texto aborda por que isso não soa como escrita humana. O ponto central está em recuperar uma escrita diversa e imperfeita."
Será que a experiência é melhor do que a do opencode?
Uau... você realmente, **foi direto ao ponto.**