Antigamente, mesmo quando eu escrevia claramente no prompt para fazer A, havia uma certa probabilidade de ele simplesmente não obedecer; então tentei de tudo: destacar em negrito no mrkdwn, escrever duas vezes, escrever em inglês, repetir a ideia no começo e no fim, escrever em XML... mas ele continuava ignorando o prompt com alguma frequência...
Mas, quando você coloca no prompt algo como "faça A, não faça B", essa abordagem parece válida se o modelo realmente entender muito bem. Só que, se o cumprimento do prompt acontecer de forma probabilística dependendo do estado do servidor de IA, será que essa abordagem continua sendo válida?
Eles acham que ninguém vai perceber mesmo se reduzirem o desempenho com um patch silencioso, mas, na verdade, a intuição das pessoas é mais afiada do que parece; juntando a minha impressão com o que o pessoal da comunidade anda dizendo, a resposta aparece na hora.
No fim, é aquele negócio de "então o que você consegue fazer, hein? kkk", então a gente acaba usando porque não tem muito jeito....
Na época do modelo 5.3 exclusivo do codex, parecia mesmo que eu estava conversando com um funcionário subordinado que não tinha nenhuma habilidade de comunicação, mas codava bem.
A partir do 5.4 ele começou a falar um pouco, e desde o 5.5 parece que está com a cabeça no lugar pela metade.
Ainda chama API de contrato, e às vezes solta frases misturando inglês e coreano de um jeito maluco, então às vezes preciso escrever algo como "explique de um jeito fácil de entender, falando com o mínimo possível de inglês".
Mesmo assim, na minha percepção, o desempenho para gerar código passou o opus a partir do 5.4. Saiu o opus 4.7, mas nem testei por curiosidade. Já parece óbvio que vai ser mais uma daquelas ações de marketing no estilo "Anthropic".
Mas o Harness estava sendo muito promovido até a semana passada, e desde esta semana ficou quieto... Será que é por causa das trapalhadas da Anthropic e porque o Codex 5.5 é excelente........
Uso há alguns anos, mas com a mudança para um modelo baseado em agentes, ele está perdendo cada vez mais a força haha.
Ainda assim, como costumo escrever documentos pessoais e muitas vezes programar na mão, acaba ajudando bastante de forma discreta.
Se virar 27x sem aumento de cota, será que a programação agêntica não fica num nível impraticável de usar?
VibeVoice - o modelo de síntese de voz open source de nova geração da Microsoft
No GeekNews ele foi divulgado logo no começo, mas por causa de alguns problemas o código do VibeVoice-TTS acabou sendo removido.
Parece que, no momento, o TTS só pode ser usado com o VibeVoice-Realtime.
Nos últimos dias tenho visto ele voltar a ganhar popularidade aqui e ali por causa do VibeVoice-ASR.
https://simonwillison.net/2026/Apr/27/vibevoice/
Simon Willison testou e disse que, no Mac, dá para executar com um comando de uma linha usando uv e mlx-audio,
e que processou cerca de 1 hora de áudio em aproximadamente 8 minutos e 45 segundos em um MacBook Pro M5 Max de 128 GB.
Dá para pensar nele como um Whisper com boa separação de falantes
É um conteúdo que chega até a analisar o texto de um desenvolvedor experiente que fala de forma convincente, mas sem muito conteúdo de fato (peço desculpas, pessoalmente não gosto do Google). Claro, acho que a abordagem de tentar entender o fenômeno em si é uma boa tentativa.
Coisas como SDD já perderam o hype faz tempo, e agora parece que a onda é harness.
Uma parte meio curiosa no harness é que, claramente, esse conceito não estava nos dados de treinamento, mas o modelo entende muito rápido a ideia de harness.
Talvez por usar exatamente o significado de uma palavra que já existia, eu nem mencionei isso e mesmo assim ele já faz comentários como atualizar o harness primeiro.
Foi um golpe de mestre não ter renovado a assinatura anual.
Em vez de pagar e usar com multiplicador de 27x do Opus, acho melhor simplesmente usar o plano da API do Claude.
Pelos outros posts, parece que a pessoa tem interesse em ONIST e CTF, então também parece ter interesse em segurança da informação, e fez o primeiro release com um único commit enorme. Vendo isso, dá a impressão de que houve muito "vibe coding" no repositório original e depois tudo foi dividido em vários commits, então talvez tenham juntado tudo em um só porque ficaria meio complicado publicar exatamente como estava; além disso, pelo handle do GitHub ser h4ckfOr0day, há uma espécie de tradição? de publicar com conta descartável quando se trata de ONIST ou de ferramentas que não são exatamente abordadas por meios totalmente convencionais.
A confiança em open source ainda precisa ser construída, mas não parece haver nenhuma intenção específica por trás disso.
Antigamente, mesmo quando eu escrevia claramente no prompt para fazer A, havia uma certa probabilidade de ele simplesmente não obedecer; então tentei de tudo: destacar em negrito no mrkdwn, escrever duas vezes, escrever em inglês, repetir a ideia no começo e no fim, escrever em XML... mas ele continuava ignorando o prompt com alguma frequência...
Mas, quando você coloca no prompt algo como "faça A, não faça B", essa abordagem parece válida se o modelo realmente entender muito bem. Só que, se o cumprimento do prompt acontecer de forma probabilística dependendo do estado do servidor de IA, será que essa abordagem continua sendo válida?
27 vezes? Caracaaaaa
Eles acham que ninguém vai perceber mesmo se reduzirem o desempenho com um patch silencioso, mas, na verdade, a intuição das pessoas é mais afiada do que parece; juntando a minha impressão com o que o pessoal da comunidade anda dizendo, a resposta aparece na hora.
No fim, é aquele negócio de "então o que você consegue fazer, hein? kkk", então a gente acaba usando porque não tem muito jeito....
Na época do modelo 5.3 exclusivo do codex, parecia mesmo que eu estava conversando com um funcionário subordinado que não tinha nenhuma habilidade de comunicação, mas codava bem.
A partir do 5.4 ele começou a falar um pouco, e desde o 5.5 parece que está com a cabeça no lugar pela metade.
Ainda chama API de contrato, e às vezes solta frases misturando inglês e coreano de um jeito maluco, então às vezes preciso escrever algo como "explique de um jeito fácil de entender, falando com o mínimo possível de inglês".
Mesmo assim, na minha percepção, o desempenho para gerar código passou o opus a partir do 5.4. Saiu o opus 4.7, mas nem testei por curiosidade. Já parece óbvio que vai ser mais uma daquelas ações de marketing no estilo "Anthropic".
Uau, muito bom. Obrigado por compartilhar.
o tailscale é divino..
Mas o Harness estava sendo muito promovido até a semana passada, e desde esta semana ficou quieto... Será que é por causa das trapalhadas da Anthropic e porque o Codex 5.5 é excelente........
"Ué? Acho que já vi isso antes...", pensei, mas eles até colocam logo o link em "artigos recomendados para ler junto" haha
Uso há alguns anos, mas com a mudança para um modelo baseado em agentes, ele está perdendo cada vez mais a força haha.
Ainda assim, como costumo escrever documentos pessoais e muitas vezes programar na mão, acaba ajudando bastante de forma discreta.
Se virar 27x sem aumento de cota, será que a programação agêntica não fica num nível impraticável de usar?
VibeVoice - o modelo de síntese de voz open source de nova geração da Microsoft
No GeekNews ele foi divulgado logo no começo, mas por causa de alguns problemas o código do VibeVoice-TTS acabou sendo removido.
Parece que, no momento, o TTS só pode ser usado com o VibeVoice-Realtime.
Nos últimos dias tenho visto ele voltar a ganhar popularidade aqui e ali por causa do VibeVoice-ASR.
https://simonwillison.net/2026/Apr/27/vibevoice/
Simon Willison testou e disse que, no Mac, dá para executar com um comando de uma linha usando
uve mlx-audio,e que processou cerca de 1 hora de áudio em aproximadamente 8 minutos e 45 segundos em um MacBook Pro M5 Max de 128 GB.
Dá para pensar nele como um
Whisper com boa separação de falantesÉ um conteúdo que chega até a analisar o texto de um desenvolvedor experiente que fala de forma convincente, mas sem muito conteúdo de fato (peço desculpas, pessoalmente não gosto do Google). Claro, acho que a abordagem de tentar entender o fenômeno em si é uma boa tentativa.
Coisas como SDD já perderam o hype faz tempo, e agora parece que a onda é harness.
Uma parte meio curiosa no harness é que, claramente, esse conceito não estava nos dados de treinamento, mas o modelo entende muito rápido a ideia de
harness.Talvez por usar exatamente o significado de uma palavra que já existia, eu nem mencionei isso e mesmo assim ele já faz comentários como atualizar o
harnessprimeiro.Parece que estão surgindo cada vez mais termos puramente de marketing.
E os universitários?
Concordo. Até agora, o que senti na prática e a reação da comunidade foram opostos, então eu vinha sentindo uma certa discrepância.
Foi um golpe de mestre não ter renovado a assinatura anual.
Em vez de pagar e usar com multiplicador de 27x do Opus, acho melhor simplesmente usar o plano da API do Claude.
Coloquei no primeiro dia em que saiu o badge rsrs. Tomara que existam mais produtos como o Tailscale.
Eu já pedi reembolso faz tempo..
Parece ser uma ferramenta criada por u/Total_Nectarine_3623.
https://www.reddit.com/r/ClaudeAI/s/9VO1vzO2zp
Pelos outros posts, parece que a pessoa tem interesse em ONIST e CTF, então também parece ter interesse em segurança da informação, e fez o primeiro release com um único commit enorme. Vendo isso, dá a impressão de que houve muito "vibe coding" no repositório original e depois tudo foi dividido em vários commits, então talvez tenham juntado tudo em um só porque ficaria meio complicado publicar exatamente como estava; além disso, pelo handle do GitHub ser h4ckfOr0day, há uma espécie de tradição? de publicar com conta descartável quando se trata de ONIST ou de ferramentas que não são exatamente abordadas por meios totalmente convencionais.
A confiança em open source ainda precisa ser construída, mas não parece haver nenhuma intenção específica por trás disso.