1 pontos por GN⁺ 2025-07-13 | 2 comentários | Compartilhar no WhatsApp
  • A OpenAI anunciou que originalmente planejava lançar na próxima semana um modelo com pesos abertos, mas que vai adiar o lançamento para realizar testes adicionais de segurança e revisão de áreas de alto risco
  • Sam Altman afirmou que "ainda não é possível ter certeza de exatamente quanto tempo isso vai levar"
  • A empresa explicou que é necessária uma abordagem cuidadosa porque, uma vez que os pesos (Weights) do modelo sejam divulgados, não é possível recolhê-los de volta
  • A OpenAI destacou que confia que a comunidade vai criar várias inovações com esse modelo, mas que quer seguir o processo corretamente, já que essa é a primeira vez da OpenAI com esse formato
  • Por fim, disse que "sinto muito por não ser uma boa notícia. Estamos realmente trabalhando muito duro", reiterando um pedido de desculpas sincero e a necessidade de cautela

2 comentários

 
ng0301 2025-07-13

Vai cair nessa de novo~

 
GN⁺ 2025-07-13
Comentários do Hacker News
  • Compartilhou o link https://nitter.space/sama/status/1943837550369812814

  • Não sei se é coincidência que o lançamento do modelo open-weight da OpenAI tenha sido adiado de repente logo após o surgimento de um modelo open-weight excelente como o Kimi K2, anunciado hoje
    Link de apresentação do Kimi K2
    Quando a OpenAI lançar, vai precisar elevar o nível da indústria em um degrau
    Acho que um modelo de pesos abertos com qualidade mediana não vai colar

    • Acho que a OpenAI está concentrando todos os recursos em superar o Grok 4 agora
      A xAi está bastante à frente em acumular poder computacional e abriu uma grande vantagem em testes de inteligência como ARC, HLE etc.
      O que a OpenAI busca não é competir em open source, e sim vencer a competição
    • Mas fico curioso por que quase não há discussão sobre o K2 no Hacker News
      Acho que é uma notícia bem grande
    • Principalmente considerando que a OpenAI havia anunciado recentemente que lançaria o melhor modelo open source
    • Desde o GPT-4, tenho a impressão de que todos os modelos da OpenAI estão bem atrasados em relação ao movimento do mercado
  • Acho que essa menção a "testes de segurança" de LLM é linguagem de marketing
    Carros, aviões e elevadores passam por testes de segurança de verdade, mas LLM é outra coisa
    Ninguém morre só porque o resultado gerado por um LLM não agradou ao fabricante
    No fim, o que eles chamam de "testes de segurança" é só verificar até onde o LLM diz coisas de que eles não gostam

    • Um LLM pode facilmente orientar alguém a tomar medicamentos com interações ruins
      Pode empurrar uma crise de saúde mental para o suicídio e até defender de forma convincente que certa raça ou grupo é a causa do problema e deve ser eliminado
      Palavras não matam diretamente, mas com certeza há casos em que levam à morte
      Além dessas possibilidades, também existem riscos ligados ao uso de ferramentas
    • Nesse contexto, "segurança" muitas vezes acaba significando impedir falas que possam ofender alguém ou virar problema de PR
    • Eu também acho que é marketing, mas pelo motivo oposto
      Acho que, no nível atual da tecnologia, é impossível torná-lo realmente seguro
    • Isso é pela segurança do fornecedor do LLM, não do usuário
  • Meu hobby é transformar cinismo em dinheiro
    Entro no Polymarket e procuro eventos sobre sociedade e tecnologia que me deixariam feliz e otimista, e aposto uma pequena quantia (shitcoin) em eles não acontecerem
    Por exemplo, há uma aposta sobre se a OpenAI vai lançar um modelo open source de pesos abertos antes de setembro, e agora está sendo negociada a 81%
    No mês passado, a OpenAI também não divulgou nada, o cessar-fogo não foi um cessar-fogo de verdade, e os indicadores climáticos pioraram, então ganhei uns 10 dólares
    Não dá para fazer hedge completo contra o desespero da existência, mas dá para aliviar um pouco a dor

    • É uma estrutura em que eu sempre ganho
      Se eu ganho a aposta, ganho dinheiro (vantagem); se perco, aconteceu algo bom para a sociedade (vantagem)
    • Um amigo meu também chama isso de "fazer hedge da humanidade"
      Sempre que acontece algo politicamente deprimente, ele ganha algumas centenas de dólares
    • Me surpreende que ainda existam pessoas usando moeda cripto
      Eu tinha achado que, depois do boom da IA, o cripto já tinha acabado
    • "Aposta é viciante, então deve ser feita com responsabilidade, e só é permitida para maiores de 18 anos
      Se precisar de ajuda, procure um centro de apoio a jogadores ou um médico"
  • Confio mais na Deepseek e na Qwen (Alibaba) do que nas empresas americanas de IA
    Tenho a forte impressão de que a indústria americana de IA só devora dinheiro e recursos computacionais
    Mesmo com bilhões investidos, parece haver pouco a mostrar
    A Deepseek foi desenvolvida com apenas 5 milhões de dólares e apresentou vários novos métodos de treinamento
    Além disso, divulgou tanto o modelo quanto o código como FLOSS
    As empresas americanas são todas fechadas
    As empresas americanas de IA parecem abutres tentando matar umas às outras

    • Há muita controvérsia sobre essa história de que o custo de desenvolvimento da Deepseek foi de 5 milhões de dólares
      Há divergência sobre se foi um mal-entendido ou se informação errada foi espalhada de propósito
      Mesmo que não tenha havido má-fé, falando como alguém que já treinou modelos grandes, quero dizer que discutir o custo total olhando só para o custo de uma única rodada de treinamento não faz sentido
      O custo dos experimentos fracassados, dos treinamentos adicionais e de inúmeras outras tentativas também é significativo
      Acho significativo que o R2 ainda não tenha saído mesmo depois de 6 meses
      Às vezes saem resultados impressionantes, mas ninguém presta atenção no custo do fracasso
    • Na prática, a maioria dos modelos do Google é open source
      Trabalhando na indústria de IA, li muitos artigos de pesquisa do Google, e sou grato pela grande contribuição ao avanço da área e por disponibilizarem modelos sob licença comercial
    • Os 5 milhões de dólares eram o custo de tempo de uma única rodada de treinamento em GPU
    • Você disse que as empresas americanas de IA só consomem dinheiro e computação, mas na verdade elas também comem livros, literalmente
    • Esse custo na verdade não refletia só o valor das GPUs?
  • Provavelmente porque o resultado ficou pior do que o modelo K2 anunciado hoje
    Nenhum engenheiro de verdade diria que foi por causa de "segurança"
    Se usar métodos como ablation, até o treinamento de segurança feito depois pode ser neutralizado

    • Pessoalmente, espero que o modelo de pesos abertos que a OpenAI divulgar seja bem menor que o K2
      O K2 tem 1 trilhão de parâmetros e quase 1 TB só de download
      Nunca vai rodar no meu notebook
      Acho que um tamanho razoável para um modelo local é algo em torno de 20B
      Mistral Small 3.x e alguns modelos da Gemma 3 são exemplos representativos
      Rodam bem com menos de 32 GB de RAM e têm bom desempenho
      Sinceramente espero que a OpenAI lance algo nessa faixa de tamanho
  • Vale lembrar, pelos casos de fine-tuning sem censura dos modelos Llama, que as restrições de segurança podem ser removidas com facilidade

  • Na prática, isso não passa de theater de segurança completamente inútil
    A comunidade já descobriu há muito tempo como remover facilmente todas as proteções

    • Sempre que vejo esse tipo de argumento, lembro logo da época em que a "Open"AI se recusou a lançar o GPT2 XL por ser "poderoso demais"
  • A frase "isso também é novo para nós" não parece algo típico dessa empresa

  • Fico genuinamente curioso sobre por que a OpenAI quer divulgar um modelo de pesos abertos