1 pontos por GN⁺ 2025-06-11 | 1 comentários | Compartilhar no WhatsApp
  • A OpenAI reduziu em 80% o preço do modelo o3
  • Com essa redução, o custo de uso do o3 caiu significativamente para startups e para o setor de TI
  • A medida oferece uma opção mais econômica para desenvolvedores de serviços de IA
  • Espera-se maior competição de mercado e um ambiente mais favorável para a adoção acelerada de IA
  • Com o uso do modelo se tornando mais frequente, a expansão do ecossistema tende a se acelerar

OpenAI anuncia redução de 80% no preço do o3

  • A OpenAI anunciou uma política de redução de 80% no preço do modelo o3 em relação ao valor anterior
  • Com isso, startups, pequenas e médias empresas e desenvolvedores independentes poderão usar a API do modelo o3 a um custo muito mais baixo
  • Com a queda da barreira de entrada para o uso de IA, aumentam as possibilidades de desenvolvimento de diversos aplicativos de IA e serviços
  • Essa política de preços ajuda a estimular a concorrência no mercado de IA e contribui para um ambiente favorável à rápida disseminação da tecnologia
  • No futuro, isso pode impulsionar novas inovações ao gerar economia de custos na eficiência de algoritmos de deep learning e no desenvolvimento de serviços de IA em larga escala

1 comentários

 
GN⁺ 2025-06-11
Comentários do Hacker News
  • Com base na minha experiência, quero compartilhar um ponto de atenção. Eu já tinha créditos no OpenRouter e tentei ativar o o3, mas apareceu a mensagem: "A OpenAI exige que você forneça diretamente uma chave de API para usar a API do o3". Então comprei US$ 20 em créditos de API na minha conta da OpenAI e iniciei o Aider com uma nova chave de API e o modelo o3. Ao enviar a solicitação, recebi o erro: "Sua organização precisa ser verificada para usar o o3; para verificar a organização, clique em Verify Organization no link". Fui ficando cada vez mais irritado e, ao voltar para a OpenAI e clicar em Verify Organization, descobri que na prática eu precisava verificar minha identidade com uma empresa terceirizada chamada Persona. Ao clicar em "Start ID Check", aparece um aviso dizendo que a Persona coleta e usa dados pessoais e biométricos, e que esses dados serão armazenados por um ano. Eu só queria gastar alguns dólares com acesso à API e, de repente, estava sendo solicitado a fornecer meus dados biométricos para a maior empresa de IA do mundo e sua parceira. Não faço ideia de como pedir reembolso
    • Eu também já tive problemas para conseguir reembolso de outra empresa de IA e acabei resolvendo isso entrando em contato com o gabinete do procurador-geral da Califórnia. Acho que precisamos corrigir esse tipo de prática, em que exigências adicionais são impostas depois do pagamento. E, já que eles recebem nome, endereço e dados do cartão, fico me perguntando por que também exigem número de telefone. Gostaria de saber se alguém sabe por que eles pedem telefone de todo mundo
    • Fico me perguntando se o Sam Altman não é justamente o cara que opera uma empresa de criptomoeda que coleta biometria para verificação de identidade (Worldcoin). Parece familiar. Informações sobre a Worldcoin
    • Tenho a sensação de déjà vu, porque acho que vi uma história quase idêntica no último mês, ou então talvez haja algo mais por trás disso
    • Na verdade, acho que você tem sorte só por conseguir ao menos tentar a verificação de identidade. Eu só recebo erro de "sessão expirada" há meses, e o suporte nem responde
    • Estamos vendo a exigência de KYC (Know Your Customer, verificação de identidade do cliente) aparecer ao mesmo tempo em que a OpenAI armazena todos os logs
  • Hoje em dia, a OpenAI parece ter ficado "preguiçosa". Eu faço uma pergunta e ela não me entrega o arquivo completo nem as alterações diretamente; só diz "você precisa fazer assim" e só executa de fato depois de eu pedir mais umas 2 ou 3 vezes. Não vejo isso acontecer no DeepSeek. Fico curioso se respondem assim para economizar recursos
    • Sou funcionário da OpenAI. Nossos modelos às vezes podem ser preguiçosos. Isso não é intencional, e vamos oferecer modelos melhores no futuro. Quando eu trabalhava na Netflix, havia suspeitas parecidas de que fazíamos recomendações ruins de propósito, mas na realidade a qualidade do produto simplesmente não melhora tão facilmente assim. No fim, fazer um produto perfeito é realmente muito difícil
    • Recentemente, em um cálculo químico, pedi "faça um gráfico de X contra Y" e a resposta foi só uma explicação longa, terminando com "se precisar do gráfico, me avise!". É meio engraçado
  • Fico me perguntando como poderíamos saber se o modelo o3 não é uma versão quantizada. As empresas podem divulgar só bons resultados de benchmark e, na prática, ir quantizando aos poucos (de Q8 para Q6, Q4 etc.) e derrubando o desempenho. Suspeito que talvez o GPT-4-turbo tenha sido lançado rapidamente assim. Quando usei na prática, achei pior que o GPT-4 original, e talvez tenham focado só nos benchmarks no turbo e no 4o. Os usuários acabam percebendo como se fosse melhor, mesmo sendo pior no uso real
    • Acho que isso é exatamente o tipo de coisa que as empresas fariam, e considero que o o3 original foi rebatizado como o3-pro
    • Sempre parece que um modelo novo sai muito bom no começo e depois os resultados vão piorando. Antes eu achava que estavam removendo saídas ruins com fine-tuning e, no processo, rebaixando o desempenho; agora passei a suspeitar mais de quantização
    • Trabalho na OpenAI, e o modelo é o mesmo; não usamos quantização nem truques. Nunca mudamos modelos para desenvolvedores na API sem aviso prévio. No ChatGPT, as atualizações podem ser um pouco menos claras porque é incômodo expor números de versão o tempo todo para os usuários, mas ainda assim não mudamos tudo silenciosamente. Publicamos todas as atualizações de modelo nas Notas de versão do ChatGPT. A única exceção é o ponteiro chatgpt-4o-latest, que mudamos sem aviso prévio
    • No e-mail de anúncio oficial, foi explicado que a OpenAI reduziu o preço do o3 em 80%, baixando para US$ 2 por 1 milhão de tokens de entrada e US$ 8 por 1 milhão de tokens de saída, e que o modelo ficou mais barato por conta apenas de otimizações na stack de inferência, embora seja o mesmo modelo
    • Logo após o anúncio, o o3 chegou a mais de 700 tokens por segundo, então fiquei me perguntando se realmente não era uma versão quantizada. Link relacionado
  • Gostaria de saber se a cota semanal de mensagens relacionadas ao o3 para usuários do ChatGPT Plus também aumentou. Pela minha experiência, o o4-mini e o o4-mini-high ficam muito atrás do o3 em utilidade, mas como o o3 tem limitação de taxa, acabo usando mais a série o4-mini. Essa estrutura em si reforça ainda mais a impressão de que os modelos de "raciocínio" da OpenAI estão atrás da concorrência
    • Eu também senti uma limitação de taxa bem severa no o3, e embora eu ache o o4-mini-high bastante bom, com certeza gostaria de usar muito mais o o3. Espero que esse anúncio também tenha aumentado a cota
  • O Google também está alcançando rapidamente no lado da IA. Até poucos meses atrás, o DeepSeek era o assunto do momento, mas essa área está evoluindo muito rápido
    • Na percepção de muita gente, os modelos Google Gemini são SOTA (State Of The Art, estado da arte), e o Claude também é visto como muito bom em tarefas de programação
    • Nos últimos meses, tenho usado só os modelos do Google, porque agora o ChatGPT me parece educado demais e fraco demais. Não é só no começo ou no fim da resposta; no meio também tem muita enrolação, com pouca informação substancial. Se você pede para mudar o estilo, ele tende a exagerar no jargão técnico
    • As pessoas esperavam o DeepSeek porque era possível baixar o modelo diretamente. Mas, desde o Gemini 2.5, ele parece não conseguir sair muito do terceiro lugar
  • Não entendo por que a OpenAI exige verificação de "organização" (com documento de identidade emitido pelo governo) para usar o o3
    • Eu diria para nem se dar ao trabalho de tentar. Muita gente falhou no processo de verificação, e há muitos relatos de que não existe segunda chance caso 1 caso 2 caso 3 caso 4 caso 5 caso 6 caso 7
    • Talvez isso também tenha como objetivo impedir que o DeepSeek R2 seja treinado com modelos da OpenAI
  • Apesar das avaliações de que LLMs não têm uma vantagem competitiva robusta (moat) e só queimam caixa, acho a situação da OpenAI muito animadora. A empresa anunciou receita anualizada de US$ 10 bilhões e, na rodada de financiamento de março passado, chegou a uma avaliação de US$ 300 bilhões. Teve um prejuízo de US$ 5 bilhões, mas registra crescimento de receita de 30 vezes e mais de 500 milhões de usuários ativos. Esse ritmo de crescimento me lembra a Uber no começo, com crescimento acelerado, investimento maciço e avanço rumo à lucratividade
    • O problema é que, quando a receita cresce, os custos também crescem junto. Normalmente, ao ganhar escala, o custo unitário cai, mas na OpenAI os custos de computação aumentam à medida que o uso cresce. A menos que surjam novas fontes de receita, as economias de escala são fracas. A Netflix é um exemplo parecido. Acho difícil alcançar lucratividade sustentável
    • Pela minha percepção, como a OpenAI teve vantagem de pioneirismo, eu continuo pagando a assinatura mensal e não penso muito em ficar pulando entre várias opções ou trocar. No futuro, se o mercado estabilizar e a concorrência de preços apertar, eu trocaria sem problema. No fim, a durabilidade dessa vantagem de pioneirismo depende de a principal fonte de receita ser o app para consumidores ou os planos de API. Fora confiança e força da marca, vejo as pessoas ao meu redor escolhendo bem entre várias alternativas
    • No fim das contas, os preços dos LLMs vão cair para sempre, e só os modelos gratuitos vão sobreviver; nesse sentido, a vantagem competitiva da OpenAI é frágil. Também acho que os "modelos que pensam" não conseguem resolver problemas complexos só por si e foram superestimados em certa medida
    • Não concordo com a afirmação de que "não há moat". Dados de interação dos usuários, como dados de conversa, já são muito valiosos por si só
    • Se olharmos apenas para o crescimento da OpenAI, é justo dizer que é animador; mas, quando consideramos também o impacto social de empresas de IA como o ChatGPT, a perspectiva não parece tão positiva. Por exemplo, lojas online estão sendo inundadas por conteúdo gerado por IA sem sentido, o que piora a experiência de compra. Em alguns grupos obcecados com o ChatGPT, observam-se comportamentos estranhos, como afastamento de amigos e familiares reais ou até divórcios. No ambiente educacional, o abuso também tem causado muita confusão. Assim como no crescimento da Uber, não acho que o sucesso da OpenAI traga necessariamente apenas efeitos positivos para a sociedade
  • O modelo o3 é atualmente um dos melhores, e o preço é igual ao do Claude e do Gemini, ou até mais barato. Dá a sensação de que não deixa nem os concorrentes respirarem
    • O Gemini também está em um nível parecido, às vezes até melhor, então acho uma escolha igualmente razoável. O o3-pro talvez esteja um nível acima de todos eles
  • Se antes o Google levava décadas para degradar a qualidade da busca, agora vivemos em uma era incrível em que bastam alguns dias para um modelo de IA piorar
  • Acho que o lançamento do o3-pro também pode estar relacionado a isso