- A OpenAI anunciou que originalmente planejava lançar na próxima semana um modelo com pesos abertos, mas que vai adiar o lançamento para realizar testes adicionais de segurança e revisão de áreas de alto risco
- Sam Altman afirmou que "ainda não é possível ter certeza de exatamente quanto tempo isso vai levar"
- A empresa explicou que é necessária uma abordagem cuidadosa porque, uma vez que os pesos (Weights) do modelo sejam divulgados, não é possível recolhê-los de volta
- A OpenAI destacou que confia que a comunidade vai criar várias inovações com esse modelo, mas que quer seguir o processo corretamente, já que essa é a primeira vez da OpenAI com esse formato
- Por fim, disse que "sinto muito por não ser uma boa notícia. Estamos realmente trabalhando muito duro", reiterando um pedido de desculpas sincero e a necessidade de cautela
2 comentários
Vai cair nessa de novo~
Comentários do Hacker News
Compartilhou o link https://nitter.space/sama/status/1943837550369812814
Não sei se é coincidência que o lançamento do modelo open-weight da OpenAI tenha sido adiado de repente logo após o surgimento de um modelo open-weight excelente como o Kimi K2, anunciado hoje
Link de apresentação do Kimi K2
Quando a OpenAI lançar, vai precisar elevar o nível da indústria em um degrau
Acho que um modelo de pesos abertos com qualidade mediana não vai colar
A xAi está bastante à frente em acumular poder computacional e abriu uma grande vantagem em testes de inteligência como ARC, HLE etc.
O que a OpenAI busca não é competir em open source, e sim vencer a competição
Acho que é uma notícia bem grande
Acho que essa menção a "testes de segurança" de LLM é linguagem de marketing
Carros, aviões e elevadores passam por testes de segurança de verdade, mas LLM é outra coisa
Ninguém morre só porque o resultado gerado por um LLM não agradou ao fabricante
No fim, o que eles chamam de "testes de segurança" é só verificar até onde o LLM diz coisas de que eles não gostam
Pode empurrar uma crise de saúde mental para o suicídio e até defender de forma convincente que certa raça ou grupo é a causa do problema e deve ser eliminado
Palavras não matam diretamente, mas com certeza há casos em que levam à morte
Além dessas possibilidades, também existem riscos ligados ao uso de ferramentas
Acho que, no nível atual da tecnologia, é impossível torná-lo realmente seguro
Meu hobby é transformar cinismo em dinheiro
Entro no Polymarket e procuro eventos sobre sociedade e tecnologia que me deixariam feliz e otimista, e aposto uma pequena quantia (shitcoin) em eles não acontecerem
Por exemplo, há uma aposta sobre se a OpenAI vai lançar um modelo open source de pesos abertos antes de setembro, e agora está sendo negociada a 81%
No mês passado, a OpenAI também não divulgou nada, o cessar-fogo não foi um cessar-fogo de verdade, e os indicadores climáticos pioraram, então ganhei uns 10 dólares
Não dá para fazer hedge completo contra o desespero da existência, mas dá para aliviar um pouco a dor
Se eu ganho a aposta, ganho dinheiro (vantagem); se perco, aconteceu algo bom para a sociedade (vantagem)
Sempre que acontece algo politicamente deprimente, ele ganha algumas centenas de dólares
Eu tinha achado que, depois do boom da IA, o cripto já tinha acabado
Se precisar de ajuda, procure um centro de apoio a jogadores ou um médico"
Confio mais na Deepseek e na Qwen (Alibaba) do que nas empresas americanas de IA
Tenho a forte impressão de que a indústria americana de IA só devora dinheiro e recursos computacionais
Mesmo com bilhões investidos, parece haver pouco a mostrar
A Deepseek foi desenvolvida com apenas 5 milhões de dólares e apresentou vários novos métodos de treinamento
Além disso, divulgou tanto o modelo quanto o código como FLOSS
As empresas americanas são todas fechadas
As empresas americanas de IA parecem abutres tentando matar umas às outras
Há divergência sobre se foi um mal-entendido ou se informação errada foi espalhada de propósito
Mesmo que não tenha havido má-fé, falando como alguém que já treinou modelos grandes, quero dizer que discutir o custo total olhando só para o custo de uma única rodada de treinamento não faz sentido
O custo dos experimentos fracassados, dos treinamentos adicionais e de inúmeras outras tentativas também é significativo
Acho significativo que o R2 ainda não tenha saído mesmo depois de 6 meses
Às vezes saem resultados impressionantes, mas ninguém presta atenção no custo do fracasso
Trabalhando na indústria de IA, li muitos artigos de pesquisa do Google, e sou grato pela grande contribuição ao avanço da área e por disponibilizarem modelos sob licença comercial
Provavelmente porque o resultado ficou pior do que o modelo K2 anunciado hoje
Nenhum engenheiro de verdade diria que foi por causa de "segurança"
Se usar métodos como ablation, até o treinamento de segurança feito depois pode ser neutralizado
O K2 tem 1 trilhão de parâmetros e quase 1 TB só de download
Nunca vai rodar no meu notebook
Acho que um tamanho razoável para um modelo local é algo em torno de 20B
Mistral Small 3.x e alguns modelos da Gemma 3 são exemplos representativos
Rodam bem com menos de 32 GB de RAM e têm bom desempenho
Sinceramente espero que a OpenAI lance algo nessa faixa de tamanho
Vale lembrar, pelos casos de fine-tuning sem censura dos modelos Llama, que as restrições de segurança podem ser removidas com facilidade
Na prática, isso não passa de theater de segurança completamente inútil
A comunidade já descobriu há muito tempo como remover facilmente todas as proteções
A frase "isso também é novo para nós" não parece algo típico dessa empresa
Fico genuinamente curioso sobre por que a OpenAI quer divulgar um modelo de pesos abertos