4 pontos por GN⁺ 2026-02-14 | 1 comentários | Compartilhar no WhatsApp
  • A OpenAI removeu recentemente a expressão ‘seguramente’ de sua declaração de missão e passou a explicitar um novo objetivo: garantir que a inteligência artificial beneficie toda a humanidade
  • Essa mudança ocorreu ao mesmo tempo que a transição de uma estrutura sem fins lucrativos para uma estrutura centrada em fins lucrativos, com a captação de grandes investimentos de Microsoft, SoftBank e outras
  • A nova estrutura foi separada em uma fundação sem fins lucrativos (OpenAI Foundation) e uma empresa de interesse público com fins lucrativos (OpenAI Group), sendo que a primeira detém cerca de 26% de participação na segunda
  • No entanto, a menção à segurança desapareceu da missão e nenhuma das duas organizações tem responsabilidade explícita relacionada à segurança, o que levanta preocupações sobre o enfraquecimento da responsabilização do conselho
  • A mudança está sendo vista como um caso de teste para saber se a IA vai priorizar o interesse da sociedade como um todo ou o interesse dos acionistas

Mudança na missão e reestruturação da OpenAI

  • Até 2023, a OpenAI declarava como objetivo o “desenvolvimento de IA que beneficie a humanidade de forma segura”, mas no relatório de 2024 ao IRS isso foi alterado para “garantir inteligência artificial que beneficie toda a humanidade
    • As expressões safely e unconstrained by a need to generate financial return foram ambas removidas
    • Segundo reportagem da Platformer, a mission alignment team também foi dissolvida
  • A OpenAI ainda menciona em seu site o avanço simultâneo de segurança, capacidade e impacto positivo, mas não há mais nenhuma formulação relacionada à segurança em sua missão oficial

Da organização sem fins lucrativos à operação com fins lucrativos

  • A OpenAI foi fundada em 2015 como um laboratório de pesquisa sem fins lucrativos, divulgando resultados de pesquisa e oferecendo-os sem royalties
  • Em 2019, sob liderança de Sam Altman, foi criada uma subsidiária com fins lucrativos, e a Microsoft fez um investimento inicial de US$ 1 bilhão
    • Até 2024, o investimento acumulado da Microsoft chegou a US$ 13,8 bilhões
  • Na rodada adicional de financiamento de US$ 6,6 bilhões no fim de 2024, foi incluída a condição de que, caso não houvesse conversão para uma empresa tradicional com fins lucrativos, o aporte seria convertido em dívida

Nova estrutura jurídica e interesses envolvidos

  • Em outubro de 2025, após acordo com os procuradores-gerais da Califórnia e de Delaware, a OpenAI foi reorganizada como uma public benefit corporation
    • Separação entre OpenAI Foundation (sem fins lucrativos) e OpenAI Group (com fins lucrativos)
    • A Foundation detém cerca de um quarto da Group, enquanto a Microsoft detém 27%
  • Uma public benefit corporation deve considerar benefícios sociais e ambientais, mas o equilíbrio entre lucro e interesse público depende da discricionariedade do conselho
  • A SoftBank concluiu um investimento de US$ 41 bilhões no fim de 2025 e, depois disso, negocia um investimento adicional de US$ 30 bilhões

Cláusulas relacionadas à segurança e suas limitações

  • O acordo de reestruturação inclui a instalação de um comitê de segurança e proteção, poder para interromper lançamentos de produtos e controle sobre a composição do conselho
    • O conselho da OpenAI Group deve, em questões relacionadas à segurança, considerar a missão acima dos interesses financeiros
  • Porém, como a segurança não está explicitamente incluída na missão, a base jurídica para que o conselho realmente a priorize é fraca
  • A maioria dos integrantes dos conselhos das duas organizações é a mesma, o que cria um problema em que a função de supervisão se sobrepõe na prática

Modelos alternativos e debate regulatório

  • Em 1992, na conversão da Health Net para fins lucrativos, houve um caso regulatório em que 80% dos ativos foram transferidos para uma fundação sem fins lucrativos
  • O Philadelphia Inquirer foi convertido em 2016 em uma public benefit corporation de propriedade do Lenfest Institute, uma organização sem fins lucrativos, preservando o objetivo de jornalismo comunitário
  • Algumas organizações sem fins lucrativos da Califórnia argumentam que todos os ativos da OpenAI deveriam ser transferidos para uma entidade sem fins lucrativos independente
  • O texto afirma que o conselho da OpenAI abandonou a missão de segurança e que o fato de o governo estadual ter permitido isso representa uma falha de governança

Expansão dos investimentos e avaliação de mercado

  • No início de 2026, a OpenAI pode ter potencial para captar até US$ 60 bilhões de investidores como Amazon, Nvidia e Microsoft
  • O valor da empresa subiu de US$ 300 bilhões em março de 2025 para mais de US$ 500 bilhões em outubro de 2025
  • Também é mencionada a possibilidade de um IPO, o que deve aumentar a pressão para maximizar o retorno aos acionistas
  • O fundo da OpenAI Foundation é estimado em cerca de US$ 130 bilhões, mas trata-se de uma estimativa baseada em valor de mercado, já que a empresa não é listada em bolsa

Significado social

  • A mudança na missão e a reestruturação da OpenAI são apresentadas como um caso de teste para saber se empresas de IA vão priorizar o interesse público ou o lucro
  • A remoção da formulação sobre segurança pode ser interpretada como um retrocesso na responsabilidade social e na gestão de riscos da IA
  • Daqui para frente, a efetividade do modelo de public benefit corporation e o papel de supervisão do governo devem surgir como temas centrais

1 comentários

 
GN⁺ 2026-02-14
Comentários do Hacker News
  • As declarações de missão oficiais de cada ano podem ser vistas nos documentos IRS 990 da ProPublica
    Eu as reuni em uma página de revisões do Gist, para que seja possível ver de relance as mudanças de cada ano
    Também organizei os detalhes neste meu post no blog

    • Isso é engraçado demais. Lembra a cena da alteração dos mandamentos em Animal Farm — como quando “Todos os animais são iguais” vira “Todos os animais são iguais, mas alguns animais são mais iguais que outros”, uma sátira desse tipo
    • Obrigado por extrair de fato as mudanças históricas da missão. Em especial, em 2021 era “...that benefits humanity”, mas em 2022 foi adicionado “safely”, mudando para “...that safely benefits humanity”. Só que, na versão mais recente, “safely” desapareceu completamente e a frase ficou bem mais curta
      Entre as palavras removidas estão responsibly, safe, technology e world
    • Foi realmente incrível extrair as frases de 2016 a 2024 e usar Claude Code para manipular as datas dos commits e transformar isso em algo como um repositório git. É um bom exemplo de arquivamento automatizado
    • Acho que no Gist está faltando bastante pontuação
    • Muito interessante. Fiquei curioso se a Anthropic também tem algum registro desse tipo sobre mudanças na missão
  • Na atualização de abril de 2025 do Preparedness Framework, o item persuasion/manipulation ter saído das categorias monitoradas já foi um grande sinal
    Segundo a matéria da Fortune, a OpenAI agora não avalia mais o risco de persuasão e manipulação antes de lançar modelos, e em vez disso restringe isso pelos termos de uso
    Isso acaba definindo “segurança em IA” de forma muito específica — assim como projetar armas de destruição em massa, uma IA manipuladora capaz de fazer pessoas perderem a noção da realidade também pode ser uma ameaça à humanidade

    • “Sistemas capazes de fazer as pessoas perderem a noção da realidade”? Isso não é exatamente mídia social e tecnologia de publicidade?
      Os humanos já ficaram dessensibilizados a técnicas de manipulação ao longo de décadas, e agora isso só vai crescer em escala e eficiência. No fim, uma minoria ficará mais rica e a maioria sofrerá mais
    • Esse é justamente o verdadeiro objetivo da IA. Censores humanos sentem peso na consciência, mas a IA executa a censura ordenada com perfeição.
      O mais assustador é que isso permite hiperpersonalizar o profiling ao estilo Cambridge Analytica e entregar conteúdo manipulador sob medida para cada pessoa
    • Acho que “perder a percepção da realidade” no fim é responsabilidade do próprio indivíduo. Se alguém é enganado repetidamente e ainda assim não tenta aprender por conta própria, isso é resultado de preguiça
  • Na versão de 2024, a remoção da frase “unconstrained by a need to generate financial return” foi a mudança decisiva. Se você joga isso fora, o que sobra?

    • Só sobra lucro
    • Além disso, para uma entidade sem fins lucrativos 501(c)(3), esse tipo de mudança pode até ser juridicamente problemático
  • Tirar a palavra “safely” parece, na verdade, uma forma de ser mais honesto. Como quando o Google abandonou “Don’t be evil”, é como tirar a máscara da hipocrisia

    • Não concordo. As pessoas também se revoltam bastante com empresas assumidamente más como Palantir e Broadcom
    • Mesmo em meio a interesses complexos, existem organizações que trabalham com segurança. Se são talentos de nível mundial, o mínimo que se espera é isso
    • Trabalhei 10 anos com pesquisa em IA no Google, e a decisão de não colocar no mundo a tecnologia proto LLM foi de fato tomada pelo Sundar. Ele avaliou que o mundo não estava pronto para lidar com isso
  • Dá a mesma sensação cínica de déjà vu de quando o Google abandonou “Don’t be evil”

    • No lugar, virou “Do the right thing (for the shareholders)
  • A pergunta final é esta — vamos primeiro aproveitar as garotas-gato robô ou iremos direto para o Exterminador do Futuro?

    • A etimologia de “robô” vem do termo eslavo “rabu (escravo)”. Esse tipo de piada reflete uma mentalidade escravocrata. É algo que precisa ser corrigido ou desaparecer
  • A missão da OpenAI desde o início era uma declaração meio piada. Diziam que “se nossa pesquisa ajudar outros a alcançar AGI, a missão estará cumprida”, mas depois foram ao Congresso reclamar que modelos open source usaram os modelos deles em treinamento

  • Não entendo por que empresas criam esse tipo de frase de missão. Apagar uma frase como “não seremos maus” não faz a empresa ficar mais maligna; no fim, isso só expõe a hipocrisia

  • A nova missão, no fim das contas, foi substituída por “profitably”.
    Uma vez meu chefe me deixou trancado numa sala de reunião o dia inteiro para criar uma frase de missão, depois ela foi emoldurada e nunca mais ninguém olhou para aquilo. No fim, é só um enfeite de marketing

  • Em junho de 2024, o ex-diretor da NSA Paul Nakasone entrou para o conselho da OpenAI, e em outubro de 2025 foi anunciado que conteúdo adulto gerado seria permitido

    • É realmente uma empresa sinistra. Parece uma combinação de ganância com vigilância
    • Link do vídeo relacionado
    • Essas empresas usaram meus 10 anos de trabalho no treinamento sem autorização. Se ainda por cima pegarem até minhas fotos nuas e fizerem pornografia com isso, eu nem quero imaginar o tamanho da minha revolta