Na verdade, penso que estou feliz porque a quantidade de coisas para estudar aumentou enormemente.
Mesmo coisas que são difíceis para eu escrever, eu as escrevo e depois estudo com afinco.
Desde o início, acho que em empresas de grande porte ou em projetos realmente importantes, tudo precisa ser revisado por pessoas, então, do ponto de vista de quem está aprendendo, isso não poderia ser mais interessante.
"Qual seria uma boa próxima tarefa?"
Parece que foi adicionada uma cobrança extra de US$ 3,46 de uma vez, e pelo visto o modelo de assinatura não cobre isso.
Acho que aquele crédito de US$ 50 que deram um tempo atrás talvez tenha sido para fazer a gente testar isso kkkkk
Mas o que é isso agora... Do ponto de vista da OpenAI, que não fabrica nem usa diretamente nada, do chipset ao datacenter, se a stack de software for otimizada eles vão escalar na medida da folga disponível, então o objetivo é maximizar o lucro, não proteger o meio ambiente (o paradoxo de Jevons, como no comentário do HN).
É tão claramente um post de autopromoção que dá até vergonha de ler.
Sou um desenvolvedor de controle de hardware focado em Python, alguns passos acima do nível embarcado. Até poucas semanas atrás, eu tinha certo orgulho de resistir ao vibe coding e, quando era complicado configurar uma sessão de depuração, o máximo que eu fazia em termos de usar LLM era colar um bloco de código que eu tinha escrito no GPT e pedir: "encontra onde eu errei aqui".
Configurei o Claude, fui escrevendo junto com ele o CLAUDE.md enquanto ele explicava tudo com gentileza, e depois de usar uma, duas vezes, percebi que já estava começando a depender dele de verdade.
Deixou de ser necessário ficar me preocupando se eu tinha cometido algum erro com break/continue até em um loop simples; quando dá preguiça de expressar algo em palavras, eu simplesmente vou escrevendo tudo de uma vez e depois peço "vê se tem algum erro de digitação"; só com a estrutura organizada no CLAUDE.md ele já encontra rapidamente o contexto por conta própria, e quando vou implementar um subsistema novo, acabo pensando: "na verdade, como não há contexto prévio do qual depender, talvez ele mesmo possa simplesmente escrever isso".
E então isso realmente começa, aos poucos, a me assustar. A preocupação de chegar ao campo e não conseguir entender esse código que ~eu escrevi~ ele escreveu é até leve perto do resto; o que pesa mais é a ansiedade de achar que talvez eu esteja mesmo ficando para trás nessa onda do vibe coding, somada ao fato de eu ser alguém que achava divertido ler manuais, e não só estou deixando de ter motivos para consultá-los, como também sinto uma espécie de medo existencial, como se todo o conhecimento que acumulei por meio deles estivesse sendo invalidado...
Que bom saber que também funciona como app para macOS.
No iOS, eu estava usando até agora o https://github.com/joshuayoes/ios-simulator-mcp; será que há algum diferencial? (ex.: funciona mais rápido)
Não é completamente a mesma coisa, mas ao mesmo tempo também não é completamente diferente.
Dizer que é parecido significa que há partes em comum,
então, no fim, o fato de as pessoas divergirem provavelmente depende da perspectiva sobre o quão parecido isso é.
Não dá para dizer que é idêntico, mas eu vejo como parecido,
e penso assim na perspectiva da previsão e do pensamento mencionada no comentário do geek12356.
Ao mesmo tempo, também tenho a perspectiva de que, por ter uma inteligência superior à humana, é diferente dos humanos.
Claude Code, tanto em modelo quanto em agente, está numa posição praticamente dominante. Neste momento, escolher qualquer coisa além de Claude é sempre a segunda melhor opção, e vão usar tanto o Google quanto a OpenAI.
Sinto profundamente. As inúmeras noites de depuração que atravessei junto com este Mac mini que estou usando agora em breve serão substituídas por agentes de IA, mas acho que vou sentir saudade desta época.
> Desenvolvedores no início da carreira já usam Warp, Cursor, Claude etc., e utilizam o ChatGPT como terapeuta e também como programador em par
Não como terapeuta, e sim terceirizando o cérebro pra ele kkk... Daqui a alguns anos, por causa da montanha de código merda deixada por desenvolvedores que nem conseguem corrigir bugs, talvez se abra uma era de ouro do software para os desenvolvedores que sabem depurar.
Experimentei desenvolvimento orientado por especificações usando múltiplos agentes no desenvolvimento. É verdade que isso reduz bastante o trabalho, mas, por causa das limitações de desempenho dos LLMs, não dá para criar um produto que satisfaça o cliente. A substituição 100% é impossível, e certo nível de trabalho humano ainda é necessário.
Uma tradução bem simples...
Da próxima vez, vou compartilhar de uma forma mais fácil de ler..
Obrigado pelo comentário
Na verdade, penso que estou feliz porque a quantidade de coisas para estudar aumentou enormemente.
Mesmo coisas que são difíceis para eu escrever, eu as escrevo e depois estudo com afinco.
Desde o início, acho que em empresas de grande porte ou em projetos realmente importantes, tudo precisa ser revisado por pessoas, então, do ponto de vista de quem está aprendendo, isso não poderia ser mais interessante.
"Qual seria uma boa próxima tarefa?"
Parece que foi adicionada uma cobrança extra de US$ 3,46 de uma vez, e pelo visto o modelo de assinatura não cobre isso.
Acho que aquele crédito de US$ 50 que deram um tempo atrás talvez tenha sido para fazer a gente testar isso kkkkk
Mesmo que uma empresa que acumulou 40% da memória do mundo diga que está cuidando do interesse público do planeta...
Se a Terra for resetada por uma supertempestade, virá uma era de ouro.
A analogia com funções do Excel e calculadora parece estar errada.
Se a precisão do LLM fosse 100%, eu concordaria..
Há uma quantidade surpreendente de opiniões negativas.
Mas o que é isso agora... Do ponto de vista da OpenAI, que não fabrica nem usa diretamente nada, do chipset ao datacenter, se a stack de software for otimizada eles vão escalar na medida da folga disponível, então o objetivo é maximizar o lucro, não proteger o meio ambiente (o paradoxo de Jevons, como no comentário do HN).
É tão claramente um post de autopromoção que dá até vergonha de ler.
Sou um desenvolvedor de controle de hardware focado em Python, alguns passos acima do nível embarcado. Até poucas semanas atrás, eu tinha certo orgulho de resistir ao vibe coding e, quando era complicado configurar uma sessão de depuração, o máximo que eu fazia em termos de usar LLM era colar um bloco de código que eu tinha escrito no GPT e pedir: "encontra onde eu errei aqui".
Configurei o Claude, fui escrevendo junto com ele o
CLAUDE.mdenquanto ele explicava tudo com gentileza, e depois de usar uma, duas vezes, percebi que já estava começando a depender dele de verdade.Deixou de ser necessário ficar me preocupando se eu tinha cometido algum erro com
break/continueaté em um loop simples; quando dá preguiça de expressar algo em palavras, eu simplesmente vou escrevendo tudo de uma vez e depois peço "vê se tem algum erro de digitação"; só com a estrutura organizada noCLAUDE.mdele já encontra rapidamente o contexto por conta própria, e quando vou implementar um subsistema novo, acabo pensando: "na verdade, como não há contexto prévio do qual depender, talvez ele mesmo possa simplesmente escrever isso".E então isso realmente começa, aos poucos, a me assustar. A preocupação de chegar ao campo e não conseguir entender esse código que ~eu escrevi~ ele escreveu é até leve perto do resto; o que pesa mais é a ansiedade de achar que talvez eu esteja mesmo ficando para trás nessa onda do vibe coding, somada ao fato de eu ser alguém que achava divertido ler manuais, e não só estou deixando de ter motivos para consultá-los, como também sinto uma espécie de medo existencial, como se todo o conhecimento que acumulei por meio deles estivesse sendo invalidado...
Sério, estou com muito medo agora..
Que bom saber que também funciona como app para macOS.
No iOS, eu estava usando até agora o https://github.com/joshuayoes/ios-simulator-mcp; será que há algum diferencial? (ex.: funciona mais rápido)
O fato é que até esse debugging a IA vai fazer sozinha mesmo.
Não é completamente a mesma coisa, mas ao mesmo tempo também não é completamente diferente.
Dizer que é parecido significa que há partes em comum,
então, no fim, o fato de as pessoas divergirem provavelmente depende da perspectiva sobre o quão parecido isso é.
Não dá para dizer que é idêntico, mas eu vejo como parecido,
e penso assim na perspectiva da previsão e do pensamento mencionada no comentário do geek12356.
Ao mesmo tempo, também tenho a perspectiva de que, por ter uma inteligência superior à humana, é diferente dos humanos.
Claude Code, tanto em modelo quanto em agente, está numa posição praticamente dominante. Neste momento, escolher qualquer coisa além de Claude é sempre a segunda melhor opção, e vão usar tanto o Google quanto a OpenAI.
Embarcados ainda fazem a gente depurar até 2 da manhã por causa de uma ou duas linhas... kk. O que não está na documentação nem o Claude Code sabe...
Por favor, abordem também Comonad!
Sinto profundamente. As inúmeras noites de depuração que atravessei junto com este Mac mini que estou usando agora em breve serão substituídas por agentes de IA, mas acho que vou sentir saudade desta época.
Parece que você pensou nisso de forma bem simplista mesmo kkk
Agora a IA está indo cada vez mais para algo que só os ricos usam ...
> Desenvolvedores no início da carreira já usam Warp, Cursor, Claude etc., e utilizam o ChatGPT como terapeuta e também como programador em par
Experimentei desenvolvimento orientado por especificações usando múltiplos agentes no desenvolvimento. É verdade que isso reduz bastante o trabalho, mas, por causa das limitações de desempenho dos LLMs, não dá para criar um produto que satisfaça o cliente. A substituição 100% é impossível, e certo nível de trabalho humano ainda é necessário.