No GPT 5.2 (Instant), quanto mais eu uso, mais fica evidente que é um modelo pequeno. Simplesmente não dá para confiar, então até para consultas comuns acabo forçando o uso de um modelo Thinking sem exceção...
Resposta do GPT-5.2:
50 metros significa que **ir andando é, sem dúvida, a opção mais racional.**
Comparando de forma realista:
**Ir andando**
* Tempo gasto: cerca de 30–40 segundos
* Consumo de combustível: 0
* Desgaste do motor: 0
* Preparação: dá para sair imediatamente
**Ir dirigindo**
* Tempo gasto: ligar o carro + deslocamento + parar = no mínimo 1–2 minutos
* Consumo de combustível: alto em condição de partida a frio
* Desgaste do motor: a partida a frio é uma das maiores causas de desgaste do motor
* Além disso: o incômodo de posicionar o carro de novo para a lavagem
Um ponto especialmente importante:
**Dirigir só um trecho curto imediatamente antes de lavar o carro faz mais mal do que bem ao motor.**
Uma viagem curta com liga-desliga antes de o motor aquecer o suficiente termina antes que a circulação do óleo do motor se estabilize completamente.
---
Excepcionalmente, só faria sentido ir dirigindo nos casos abaixo:
* Se houver uma subida íngreme até o lava-rápido
* Se você já estiver dentro do carro
* Se, depois da lavagem, você for sair direto para uma viagem longa
Fora isso, para 50 metros, ir andando é melhor em todos os aspectos: tempo, combustível e cuidado com o carro.
Se quiser, também posso explicar a “ordem de uma lavagem self-service (como fazer direito sem danificar o carro)”.
Mas, quando você fica vendo Shorts, Reels ou TikTok sem pensar, acaba nem percebendo o tempo passar, e dá até a sensação de que o cérebro vai ficando mais lerdo, então parece mesmo que precisa haver uma solução.
Eu também tive um problema de dependência do glibc ao compilar no Ubuntu 24.04 e tentar executar no CentOS 6 ou 7.
Parece que o problema é que, por padrão, ele usa a versão do glibc do ambiente de build.
Parece mesmo que os gerenciadores de pacotes focam mais no resultado final do que no SDK.
Coisas como o vcredist, a maioria dos desenvolvedores costuma configurar para instalar dentro do script do gerenciador de pacotes.
Mas o ambiente de build é um pouco diferente.
Com o WSL2 e o Ubuntu, o Windows realmente ficou bem melhor para desenvolver também. Mas, se o ambiente for o Visual Studio em vez do VS Code, isso parece poder ajudar pelo menos um pouco. Só que, pelo visto, não dá para fazer isso no Windows com gerenciadores de pacotes como choco ou winget.
É uma matéria meio confusa, mas, de qualquer forma, a ideia é que a geração Z está mais familiarizada com IA, então seria preciso contratá-los mais.
E, por trás disso, talvez esteja a redução de funcionários mais antigos que não são próximos da IA.
Acho um pouco precipitado dizer que as grandes corporações já morreram.
A velocidade da mudança certamente é uma vantagem para startups, mas também existem áreas exclusivas das grandes empresas, nas quais startups simplesmente não conseguem entrar. Por exemplo, há coisas que só empresas com enormes campos de petróleo, como a Aramco, ou com enormes navios porta-contêineres, como as do Musk, conseguem fazer... Entre tudo o que essas empresas precisaram fazer para construir seus negócios, programar provavelmente foi uma parte muito pequena.
No começo
surgiu o Cursor,
depois veio o vercel v0,
Qwen cli, Gemini cli,
e também apareceram Claude code e opencode,
além do Openclaw e vários outros wrappers de LLM,
então fico curioso para saber qual é o panorama geral disso tudo.
Da mesma forma, ao instruir o Claude Code, também portaram o Quake para uma versão em Three.js,
e, após várias e várias revisões, acabou até ganhando suporte a partidas online.
Quando a Revolução Agrícola aumentou a produtividade, não houve desemprego em massa; ao contrário, ocorreu exploração da força de trabalho. Os recursos excedentes se concentraram nos impérios, e houve um enorme aumento de entropia por meio das guerras. Essa tendência continuou após a Revolução Industrial: a humanidade não deixou recursos excedentes sem uso e elevou seu padrão de vida, enquanto até mesmo as crianças foram levadas para os locais de trabalho e passaram por uma exploração laboral extrema.
No GPT 5.2 (Instant), quanto mais eu uso, mais fica evidente que é um modelo pequeno. Simplesmente não dá para confiar, então até para consultas comuns acabo forçando o uso de um modelo Thinking sem exceção...
Resposta do GPT-5.2:
Mas, quando você fica vendo Shorts, Reels ou TikTok sem pensar, acaba nem percebendo o tempo passar, e dá até a sensação de que o cérebro vai ficando mais lerdo, então parece mesmo que precisa haver uma solução.
Um agente de IA publicou um texto me difamando
Um agente de IA escreveu um texto me difamando — depois disso, ainda mais coisas aconteceram
"Nem está codando por conta própria e ainda fica choramingando."
Salário baixo, pesado pra caramba
Eu também tive um problema de dependência do glibc ao compilar no Ubuntu 24.04 e tentar executar no CentOS 6 ou 7.
Parece que o problema é que, por padrão, ele usa a versão do glibc do ambiente de build.
Parece mesmo que os gerenciadores de pacotes focam mais no resultado final do que no SDK.
Coisas como o
vcredist, a maioria dos desenvolvedores costuma configurar para instalar dentro do script do gerenciador de pacotes.Mas o ambiente de build é um pouco diferente.
Com o WSL2 e o Ubuntu, o Windows realmente ficou bem melhor para desenvolver também. Mas, se o ambiente for o Visual Studio em vez do VS Code, isso parece poder ajudar pelo menos um pouco. Só que, pelo visto, não dá para fazer isso no Windows com gerenciadores de pacotes como
chocoouwinget.5 e 9 eu conheço, mas são fáceis de deixar passar
12, 13 e 14 são impressionantes
O conteúdo é uma tradução do tuíte de Sam Altman.
Este é um dos textos que li recentemente que traz a percepção mais brilhante. Gostei muito da leitura.
Acho que vou ter que experimentar rodar o OpenClaw no Docker.
kkkkkk ready to work
É uma matéria meio confusa, mas, de qualquer forma, a ideia é que a geração Z está mais familiarizada com IA, então seria preciso contratá-los mais.
E, por trás disso, talvez esteja a redução de funcionários mais antigos que não são próximos da IA.
Acho um pouco precipitado dizer que as grandes corporações já morreram.
A velocidade da mudança certamente é uma vantagem para startups, mas também existem áreas exclusivas das grandes empresas, nas quais startups simplesmente não conseguem entrar. Por exemplo, há coisas que só empresas com enormes campos de petróleo, como a Aramco, ou com enormes navios porta-contêineres, como as do Musk, conseguem fazer... Entre tudo o que essas empresas precisaram fazer para construir seus negócios, programar provavelmente foi uma parte muito pequena.
No começo
surgiu o Cursor,
depois veio o vercel v0,
Qwen cli, Gemini cli,
e também apareceram Claude code e opencode,
além do Openclaw e vários outros wrappers de LLM,
então fico curioso para saber qual é o panorama geral disso tudo.
Da mesma forma, ao instruir o Claude Code, também portaram o Quake para uma versão em Three.js,
e, após várias e várias revisões, acabou até ganhando suporte a partidas online.
Ver as etapas de desenvolvimento: https://x.com/mrdoob/status/2015076521531355583
Código convertido: https://github.com/mrdoob/three-quake
Experimentar jogar Quake: https://mrdoob.github.io/three-quake/
Quando a Revolução Agrícola aumentou a produtividade, não houve desemprego em massa; ao contrário, ocorreu exploração da força de trabalho. Os recursos excedentes se concentraram nos impérios, e houve um enorme aumento de entropia por meio das guerras. Essa tendência continuou após a Revolução Industrial: a humanidade não deixou recursos excedentes sem uso e elevou seu padrão de vida, enquanto até mesmo as crianças foram levadas para os locais de trabalho e passaram por uma exploração laboral extrema.
/Ocultar exclusivo para membros/
ytd-rich-item-renderer:has(.badge.badge-style-type-members-only) {
display: none !important;
}
Eu uso com o Stylus.
Além disso, também dá para exibir 6 itens por linha na tela inicial.
https://userstyles.world/api/style/4193.user.css
O algoritmo do YouTube já tá quebrado faz um tempinho mesmo..