Parece que o texto foi escrito pensando só em cenários otimistas demais, e nenhum deles é fácil.
Muitas vezes, o esforço e o tempo necessários para subir de 90% para 91%, apenas 1%, podem ser maiores do que o esforço e o tempo para chegar aos 90%.
Mais do que o surgimento de uma IA poderosa, o que mais me preocupa é que o fenômeno de as pessoas depositarem uma confiança enorme em resultados de IA nos quais não deveriam confiar só tende a se intensificar.
Até aqui, enquanto escrevo um comentário curto, tem gente que escreve de um jeito que nem dá para entender o que ela mesma quer dizer, e também tem gente que diz "perguntei para a IA e ela respondeu isso", como se aquilo fosse um fato.

 

Parece que precisamos continuar pensando em como usar isso bem. Acho que desenvolver abrindo mão da IA é, aos poucos, ficar para trás.

O autor deste texto já usou uma boa forma de aproveitá-la, mas, ainda assim, acho que é preciso refletir sobre como usar a IA ainda melhor.

(ainda só há muitos erros e acertos pelo caminho...)

 

Parece que a ação vai subir ainda mais.....

 

Ela voltou a fazer transmissões, mas mudou o nome para Hoshino Rina e basicamente mostrava em live contribuições independentes para open source.
Recentemente, estava trabalhando para fazer com que um app? biblioteca? de transmissão chamado Spout2 funcionasse bem no Linux.

 

É surpreendente que tenha recebido algum tipo de atualização.

 

Pessoalmente, acho que se você só tiver conhecimento de CS, não faz tanta diferença assim.
Ou talvez seja porque a forma como uso agora me dá a sensação de fazer pair programming com um amigo que digita absurdamente rápido e escreve todo o código...

 

Parece que sou 100% o Claude trabalhando, né? O que é isso?

 

Não sei se isso é um relatório ou um romance. Há 10 anos, isso com certeza era ficção científica.

 

Uau..... deram suporte por muito tempo.

 

Acho que tudo bem, desde que haja o esforço de analisar e entender o código que ele gera.

Compiladores são um conceito um pouco diferente, porque geram assembly com base em regras, então pertencem a um domínio determinístico; por isso, depois de revisar uma vez, o mesmo problema normalmente não volta a acontecer. Já os LLMs pertencem a um domínio probabilístico, então sempre existe a possibilidade de o problema se repetir.

Talvez, se essa precisão probabilística evoluir mais, ela chegue perto de 100%, mas se a própria exigência em linguagem natural for imprecisa, no fim o resultado também será impreciso. Então acho que um produto final bom acaba dependendo das pessoas mesmo.

 

No fim das contas, quando você desenvolve a fundo, inevitavelmente chega uma hora em que precisa entender o que há dentro da camada de abstração.
A lacuna entre o prompt em linguagem natural e o código gerado é grande demais, então parece difícil entrar, a partir do prompt, para dentro da camada de abstração do LLM.

Hoje, o que fazemos é pegar o conceito da especificação que estava na nossa cabeça, passá-lo ao LLM por meio de um prompt, e depois reler e validar o código produzido.
Como isso se aproxima mais de revisar código escrito por outra pessoa, não dá muito a sensação de estar entrando por dentro da abstração.

 

Dispositivos compatíveis
Apple Watch Series 9 e modelos posteriores, ou Apple Watch Ultra 2 e modelos posteriores.

 

Eu já sabia disso antes mesmo de esse aviso sair.
Porque meu relógio já tinha me alertado sobre uma suspeita de hipertensão.. T_T
Preciso me exercitar. Pessoal

 

Parece que a OpenAI ainda não conseguiu se encontrar.

 

Ué, não foi só a transmissão que voltou? Que história é essa de um time sem o próprio Hongcheol..

 

Eu também fico preocupado com as pessoas júniores que tiveram contato com LLMs desde a época de estudantes. Também tenho a impressão de que o mercado para contratação de júniores piorou um pouco, mas também é difícil provar isso...

 

Parece que também foi publicada uma versão de skills para melhorar o funcionamento do Claude Code com base no conteúdo deste texto.

Karpathy-Inspired Claude Code Guidelines : https://github.com/forrestchang/andrej-karpathy-skills

 

Essa é uma dúvida que sempre me vem à cabeça: tudo bem para quem já pegou prática com programação manual supervisionar LLMs, mas para quem está aprendendo agora, se só ficar olhando o código que o LLM gera, parece difícil saber se aquilo está certo ou não.
Será que, antigamente, quem programava em assembly pensou algo como “como vou confiar num compilador que cospe uma saída em assembly toda torta?” quando os compiladores surgiram?
Naquela época, mesmo programando em C, provavelmente codavam tentando induzir o compilador a gerar uma saída em assembly do jeito que queriam.
Também fico curioso para saber se, com a era da IA avançando mais, vai chegar um ponto em que uma versão final bem pronta saia em linguagem natural sem supervisão humana.

 
ddaemiri 2026-01-28 | comentário pai | em: Sou viciado em “ser útil” (seangoedecke.com)

Pois é. No fim, a verdade e a iluminação realmente cabem em uma única frase.