Será que o Sam Altman está se projetando no Oppenheimer? Se é perigoso, acho que faria sentido divulgar depois de complementar isso com segurança, então recomendar que usem não me parece coerente. Acho que o caso do Anthropic Mythos é a mesma coisa.

 

No que a Anthropic falou eu confiei, mas por que no que a OpenAI falou eu confio tão pouco?
Será porque a Anthropic fez um show-and-proof ao criar patches de zero-day?
Será porque a OpenAI já usou esse repertório várias vezes?

 

Os drivers do Windows provavelmente são diferentes.

 

Sempre que vejo algo assim, penso a mesma coisa: verificar assinaturas deve ser responsabilidade do usuário, não da plataforma. O desenvolvedor assina com sua própria chave, e o usuário deve permitir no seu dispositivo a chave de desenvolvedores confiáveis para então usar o software.

Não saber disso e querer que resolvam tudo por você simplesmente não faz sentido. Independentemente de a pessoa se interessar ou não por computadores, se é algo que ela vai usar, isso é um hábito que precisa ter.
Se você usa celular e navega na internet, não deve acreditar cegamente no que uma página, mensagem ou ligação telefônica diz; é uma orientação básica, no nível de ter capacidade de filtrar e escolher.

Com uma interface como a do UAC do Windows, em que dá para confirmar com um único botão se você confia ou não em um determinado desenvolvedor, até quem não conhece os conceitos de assinatura de código e chave conseguiria usar.

 

Você organizou isso muito bem. Obrigado.

 
blacksocks 22 일 전 | comentário pai | em: O culto ao vibe coding é insano (bramcohen.com)

Projetos pela metade estão se espalhando…
E pessoas que só entendem programação pela metade ficam eufóricas…

 

Recebemos a orientação interna para tentar desenvolver apenas com vibe coding, então apliquei várias coisas aqui e ali, mas quando fui fazer de fato percebi que excelentes habilidades de desenvolvimento não garantem necessariamente alta qualidade.. Ao contrário, parece que o ponto central é a capacidade de revisar e entender o código gerado pela IA. Talvez seja a ironia de que, quanto melhores ficam as ferramentas, mais importante se torna a “capacidade de ler e julgar”.

 
  • Na era da IA, há quem defenda que o ARR talvez já não seja mais uma métrica padrão confiável
  • As métricas de referência do setor de tecnologia mudaram ao longo das eras
    • Era social: DAU/MAU
    • Era SaaS: ARR/MRR
    • Era da IA: levanta-se a questão de que até o ARR tradicional pode distorcer a realidade
  • O ponto de partida do texto é a inconsistência nos números da Anthropic
    • Em fevereiro de 2026, a empresa destacou um ARR de US$ 14 bilhões
    • Um mês depois, em um documento apresentado ao tribunal, registrou “mais de US$ 5 bilhões em receita acumulada desde a fundação”
    • É a mesma empresa, em momentos parecidos, mas o significado dos números é bem diferente
    • O autor interpreta isso como “um sinal de que, na era da IA, o ARR não consegue mais descrever adequadamente o estado real do negócio”
  • Há 3 razões pelas quais o ARR perde força no contexto de IA
    1. Cai por terra a premissa do SaaS de que o custo marginal é praticamente zero
      • Em IA, cada chamada de inferência gera custo real de GPU/cloud
      • Quanto mais se usa, maior também é o custo
    2. A diferença de custo por cliente é muito grande
      • Mesmo pagando a mesma tarifa, alguns clientes têm baixo custo e outros, custo alto
      • Olhando só para ARR, ambos parecem a mesma “boa receita”, mas a rentabilidade real é muito diferente
    3. A estabilidade da receita recorrente é mais fraca
      • O custo de migração é menor do que no SaaS, então é mais fácil trocar para outro modelo/serviço
      • O próprio “Recurring” é menos sólido do que no passado
  • Por isso, o ARR de empresas de IA pode até mostrar “crescimento”, mas não mostrar bem rentabilidade, sustentabilidade e qualidade do negócio
    • O argumento é que a estrutura é parecida com o passado, quando DAU/MAU mostrava o interesse dos usuários, mas não a saúde do negócio
  • O autor entende que os casos de Anthropic e OpenAI também mostram esse problema
    • Há diferenças entre o ARR divulgado e a receita acumulada real, os resultados semestrais e a velocidade de consumo de caixa
    • Ou seja, se um número “anualizado” for lido como se significasse o mesmo que desempenho anual real, pode gerar mal-entendidos
  • Métricas candidatas de próxima geração para a era da IA propostas pelo autor
    1. Produtividade por dólar gasto (Productivity per Dollar Spent)
      • Não basta olhar apenas ARR por funcionário
      • É preciso ver algo como ARR / (custos de pessoal + custos de IA) para revelar a eficiência real
    2. Valor do primeiro ano (First Year Value)
      • Em vez de assumir um futuro distante como no LTV
      • a ideia é avaliar se o cliente obteve valor suficiente nos primeiros 12 meses para renovar
    3. Métricas de unit economics como lucro bruto por token
      • Mais importante do que quanto foi processado
      • é quanto se conseguiu reter ao processar
  • Mensagem central
    • Na era da IA, mais importante do que o tamanho da receita é observar a estrutura do lucro bruto, a rentabilidade por cliente e o valor que sobra no primeiro ano
    • A ideia é que, mais do que o tamanho dos números, é preciso ler a estrutura por trás deles
  • Também há um problema prático
    • Para enxergar corretamente essas métricas de terceira geração
    • é necessário que billing, custos de infraestrutura e sistemas financeiros estejam conectados
    • mas a maioria das empresas de IA ainda não tem infraestrutura de medição nesse nível

Resumo em uma frase
Nos negócios de IA, ficou mais difícil explicar tudo apenas com ARR como no SaaS, e daqui para frente serão mais importantes métricas que mostrem não só “quanto vendeu”, mas “quanto sobra” e “quanto consegue reter”.

 

Então realmente precisa reiniciar antes de 49 dias.

Na verdade, nunca se deve comparar tempo diretamente com <...

if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
Ou seja, tem que verificar a diferença entre os dois valores assim... No fim, os humanos sempre acabam cometendo os mesmos erros.

 

Se realmente for desse nível, provavelmente também vai encontrar rapidinho vulnerabilidades de segurança em código desassemblado.

 

Como membro de uma das fundações mencionadas acima, acompanhei esse processo e senti um profundo ceticismo. Externamente, defendia-se uma "IA ética", mas internamente essa decisão foi tomada de cima para baixo, sem qualquer consenso da comunidade.

Com o acirramento dos conflitos geopolíticos, embora eu já não estivesse ativo havia muito tempo, achei que precisava dizer algo e abri uma discussão sobre ética, mas só houve evasão burocrática. Esta iniciativa não preserva os valores do open source; foi um caso em que uma aliança fechada de grandes capitais comprou de uma fundação open source a marca registrada de Responsible AI.

 

É legal, mas meu iPad não aguenta kkk

 

Como eles ousam roubar as coisas que a Anthropic roubou de programadores humanos??
-Elon Musk

 

Mesmo vá lá para a IA, mas será que a equipe de pesquisa da Índia nem leu isso?

 

Que texto delicioso, e que autor incrível....

 

Dizem que os mais nerds entre os nerds são os gringos mesmo...

 

Vendo esse tipo de coisa, acho que em 2038 pode dar uma confusão de verdade.