27 pontos por GN⁺ 2025-07-16 | 2 comentários | Compartilhar no WhatsApp
  • O autor entrou na empresa em maio de 2024, trabalhou pouco mais de um ano na OpenAI e depois saiu, descrevendo com franqueza a cultura interna e o clima real de trabalho
  • Em meio a um crescimento ultrarrápido (de 1.000 para 3.000 pessoas), os processos internos, a organização, a cultura e a forma de trabalhar estão mudando rapidamente
  • Uma cultura bottom-up e meritocrática, uma colaboração centrada no Slack, alta capacidade de execução, visibilidade da liderança, mudanças rápidas de direção e a atitude de que 'o código é a resposta' estão presentes em toda a organização
  • Há muita ênfase em cultura específica por equipe, velocidade de trabalho e flexibilidade organizacional; pesquisadores têm autonomia de 'mini gestores', e projetos duplicados e experimentos internos de ideias acontecem com frequência
  • A OpenAI é descrita como uma organização ambiciosa e séria, sob intensa vigilância externa e da imprensa, com forte segurança e sigilo na prática, além de combinar senso de missão e tensão em torno de AGI e de serviços para consumidores

Introdução e contexto pessoal

  • Entrou na empresa em maio de 2024 e recentemente deixou a OpenAI
  • Com este texto, quer compartilhar a cultura real que sentiu dentro da OpenAI e sua visão pessoal
  • Não há segredos internos; o texto registra o estado atual de uma organização historicamente interessante e a experiência de um funcionário como pequena janela para dentro
  • Houve conflito pessoal na decisão de sair, mas também existia o desejo por algo novo após a transição de fundador de startup para funcionário de uma grande organização
  • A experiência de participar da construção de AGI e de contribuir diretamente para o lançamento do Codex foi extremamente significativa

Cultura organizacional

  • Entrou quando a empresa tinha 1.000 pessoas e, um ano depois, ela passou de 3.000, vivendo um crescimento anormalmente rápido
  • A expansão acelerada gerou vários problemas em comunicação, cadeia de reporte, lançamentos de produto e gestão organizacional
  • Toda a comunicação e o trabalho são centrados no Slack, e quase não se usa e-mail
  • Cada equipe tem uma cultura e um ritmo muito diferentes; pesquisa, aplicação e GTM (Go-To-Market) também seguem cronogramas distintos
  • Há uma meritocracia bottom-up real, em que pesquisadores e engenheiros conduzem experimentos e decisões por conta própria
  • Em uma cultura orientada a resultados e competência, capacidade de execução e boas ideias importam mais do que habilidade política
  • Sem um roadmap formal, há uma tendência de times se formarem naturalmente em torno de boas ideias e mudarem de direção rapidamente
  • A liderança valoriza execução (doing the right thing) e agilidade diante de mudanças
  • Internamente há muito desenvolvimento duplicado e experimentação em paralelo; vários protótipos surgem organicamente, e é uma organização em que 'o código se move'
  • Líderes dão mais peso à capacidade de executar ideias de verdade do que a competências políticas
  • Pesquisadores agem como 'mini executivos', mergulhando de forma autônoma na resolução de problemas
  • Gestores de pesquisa e PMs competentes têm enorme influência
  • Os EMs do ChatGPT são muito confiáveis e contratam boas pessoas, dando a elas autonomia
  • A velocidade de mudança de direção é muito alta, e as decisões são colocadas em prática imediatamente

Forma de trabalho e ambiente

  • A estrutura de canais e permissões no Slack é complexa, e toda a comunicação acontece por lá
  • Times de pesquisa, PMs e EMs (engineering managers) trabalham de maneiras diferentes, e a mobilidade entre equipes e a flexibilidade de colaboração são muito altas
  • grande sensibilidade a segurança externa e exposição na imprensa, então informações internas como desempenho e receita são controladas com rigor
  • Na prática, as pessoas têm forte motivação para fazer o certo e não são tão cínicas quanto se imagina de fora
  • A OpenAI é comparada a uma organização híbrida entre Los Alamos (laboratório nuclear) e um serviço de consumo em escala massiva
  • Há foco em distribuir amplamente os benefícios da IA; modelos de ponta não ficam restritos apenas ao enterprise, sendo disponibilizados para qualquer pessoa via API/ChatGPT

Segurança e políticas internas

  • Questões de segurança em IA de fato recebem muito pessoal e recursos internamente
  • Na prática, lida-se mais com discurso de ódio, abuso, viés político, prompt injection, autoagressão e outros riscos reais
  • Riscos teóricos (explosão de inteligência, power-seeking) são tratados por algumas pessoas dedicadas, mas não são o foco principal
  • Uma parte significativa das pesquisas e sistemas ligados à segurança não é divulgada externamente

Ambiente de desenvolvimento e tecnologia

  • Há um enorme monorepo, com foco em Python, alguma adoção de Rust/Golang e quase nenhuma imposição de style guide
    • Convivem lado a lado grandes sistemas projetados por veteranos vindos do Google e notebooks Jupyter escritos por novos PhDs
    • APIs centradas em FastAPI, com uso marcante de validação de dados com Pydantic
  • Toda a infraestrutura roda sobre a Azure
    • Os serviços vistos como confiáveis se limitam mais ou menos a Azure Kubernetes Service, CosmosDB e BlobStore
    • O nível de IAM e alguns serviços ficam aquém da AWS, favorecendo o desenvolvimento interno de soluções próprias
  • Houve grande entrada de engenheiros vindos da Meta (ex-Facebook)
    • A sensibilidade de infraestrutura e a codebase lembram os primórdios de Meta/Instagram
    • Ex.: reimplementação do TAO, unificação de sistemas de autenticação e outros sistemas próprios são comuns
  • Dá para sentir na prática os problemas crônicos de organizações em hiper crescimento, como código duplicado, bibliotecas de ferramentas/filas, gestão de grandes backends monolíticos e questões de velocidade/estabilidade de CI
  • Mensagens e estruturas de conversa do Chat estão profundamente embutidas no código e são reutilizadas repetidamente em diferentes produtos
  • 'Code wins': sem um comitê central de planejamento, o código dos times que realmente fazem o trabalho acaba virando o padrão
    • A autoridade de decisão fica com a equipe que executa diretamente o trabalho, num sistema em que competência e execução via código prevalecem

Marca de consumo e perspectiva de negócios

  • A enormidade da marca Consumer: métricas centrais são operadas não por time, mas com base em assinaturas de usuários individuais
    • Crescimento de produto e tráfego são medidos em unidades de consumo, como número de assinantes Pro, algo impactante para o autor, que vinha de organizações B2B
  • Treinamento e experimentação de modelos começam em pequena escala e, quando dão certo, são expandidos por engenharia de sistemas distribuídos em larga escala
  • O custo de GPU ocupa uma parcela esmagadora, e até recursos pequenos exigem enormes quantidades de recursos de GPU
    • Estimativa de uso de GPU e benchmarking são calculados de trás para frente a partir da experiência do usuário, como latência exigida e número de tokens
  • Know-how para operar uma grande codebase em Python: à medida que o número de desenvolvedores cresce, são necessários vários guardrails para funcionamento básico, testes e prevenção de mau uso

Operação de equipes e liderança

  • A liderança é muito visível e participa diretamente, com todos os executivos entrando com frequência nas discussões no Slack
  • Mudanças de equipe e colaboração são muito rápidas; quando outro time pede ajuda, reforços são enviados imediatamente, sem espera nem burocracia
  • Swag interno também é raro e oferecido apenas em formato de venda limitada dentro da empresa

Experiência de lançamento do Codex

  • Nos últimos 3 meses, o lançamento do Codex foi o ponto alto da carreira
  • Em novembro de 2024 foi definida a meta de lançar um agente de programação em 2025; por volta de fevereiro de 2025, a ferramenta interna já estava pronta e a pressão pela velocidade diante da concorrência do mercado era perceptível
  • Para lançar o Codex, as equipes se uniram e entregaram e lançaram um produto completo (agente de programação) em apenas 7 semanas, implementando rapidamente um produto de grande impacto em um ciclo curto
    • Na prática, isso significou virar noites, trabalhar fins de semana e conciliar tudo com os cuidados de um recém-nascido, recriando a sensação da época da YC
    • Foram implementados rapidamente vários recursos, como container runtime, otimização de repo, fine-tuning de modelos customizados, integração com git e acesso à internet
    • A equipe era um grupo pequeno e altamente sênior, com 8 engenheiros, 4 pesquisadores, 2 designers, 2 pessoas de GTM e 1 PM
  • Na véspera do lançamento, o foco ficou em tarefas finais, como o deploy direto
  • No dia do lançamento, houve explosão de tráfego; só de aparecer na barra lateral do ChatGPT já ocorreu entrada imediata em grande escala
  • O Codex adota um modelo de agente assíncrono (mensagem do usuário para o agente → trabalho → retorno do resultado em PR)
    • Ele processa solicitações do usuário em um ambiente de execução independente e devolve o resultado em PR como se fosse um colaborador
    • Ainda há mistura de confiança e limitações no desempenho do modelo
    • A diferenciação do Codex aparece em pontos como execução de múltiplas tarefas e capacidade de entender grandes codebases
  • Em apenas 53 dias após o lançamento, foram gerados 630.000 PRs, mais de 78.000 PRs por engenheiro, criando um impacto impressionante

Encerramento e aprendizados

  • Havia medo de trabalhar em uma organização grande, mas olhando para trás, foi uma das melhores decisões, trazendo oportunidade de aprendizado e crescimento
  • Tudo o que queria alcançar foi cumprido: intuição sobre treinamento de modelos, colaboração com colegas excelentes e lançamento de produtos de impacto
  • Adquiriu know-how para gerenciar uma grande codebase em Python e teve experiência prática real com benchmarking e planejamento de capacidade de GPU
  • Para quem é fundador de startup ou está pensando na carreira, este é um momento para ser mais agressivo nas tentativas ou considerar entrar em um grande laboratório de pesquisa
  • A corrida rumo à AGI tem três cavalos — OpenAI, Anthropic e Google — cada um buscando um caminho diferente, e a experiência de trabalhar em um deles ampliará seus horizontes
  • A experiência na OpenAI é avaliada como uma das melhores escolhas tanto como fundador quanto como engenheiro

2 comentários

 
brainer 2025-07-17

https://pt.news.hada.io/topic?id=21081 Esse texto ficou na minha memória.

 
GN⁺ 2025-07-16
Comentários no Hacker News
  • Não é comum ver ex-funcionários descreverem sua experiência de trabalho de forma positiva; isso não significa tanto que a OpenAI seja especial, mas sim que a maioria dos posts de “por que saí da empresa” tende, na verdade, a culpar a organização por algo que era mais uma incompatibilidade pessoal com o ambiente. Neste texto, por trás da expressão “inacreditavelmente bottom-up”, pode haver falta de um roadmap claro e pessoas se perdendo por não terem projetos dos quais realmente sejam donas. Da mesma forma, “orientação para ação” e “mudanças imediatas de direção” podem significar um ambiente caótico e uma liderança executiva inconsistente. E a frase “na OpenAI realmente há muitas pessoas de boa-fé” vale para a maioria das empresas que tomam decisões moralmente complexas: todo mundo se vê como uma boa pessoa e racionaliza tudo com grandes objetivos e justificativas

    • Eu jamais deixaria críticas públicas sobre um empregador, porque isso só pode prejudicar minha carreira. Com os rumores de que Altman é vingativo, no caso da OpenAI seria preciso ter o dobro de cuidado. O texto até diz que a OpenAI monitora redes sociais. Também parece haver, por parte desse ex-funcionário, uma intenção de gerir a própria reputação embrulhando seus curtos 14 meses de carreira ali de forma positiva, e isso aparentemente até agrada futuros empregadores
    • Já ouvi a frase “não existem vilões nas empresas; só pessoas boas se racionalizando”, mas trabalhei numa empresa de software para cassinos em que a diretoria era, sim, abertamente vilanesca
    • Na OpenAI, se você falar negativamente depois de sair, pode perder toda a participação acionária já concedida, então é natural que relatos positivos sejam muito mais comuns
    • Na minha visão, Altman parece ter se concentrado em convencer o público de que a AGI está próxima, enquanto também fez um grande esforço para transformar a OpenAI numa empresa de produto muito forte — e parece ter conseguido. Em meio ao forte orgulho interno e à competição, o ex-funcionário pode simplesmente ter perdido algumas disputas políticas, ou ter se magoado por seu protótipo do Codex não ter sido adotado. Ou talvez já tenha acumulado dinheiro e experiência de vida suficientes e não tenha mais motivação para competir com talentos mais jovens
    • Não é que ex-funcionários só falem negativamente das experiências deles; na verdade, há muitos casos em que falam de forma positiva demais. Numa empresa em que trabalhei, o ambiente ficou extremamente tóxico sob um CEO ditatorial, e embora muita gente tenha sofrido, muitos ainda escreveram posts elogiosos em blogs ou no LinkedIn pensando no próximo emprego. Os textos que viralizam no HN muitas vezes parecem vir mais de funcionários que gostavam da empresa e lamentam ver a empresa ou a área desmoronar
  • O que chamou atenção neste texto foi o seguinte

    • O progresso é iterativo, e existe uma cultura bottom-up e meritocrática; em vez de um “plano mestre” da liderança, qualquer ideia pode virar realidade, e líderes sobem com base em execução concreta e boas ideias
    • Membros da equipe podem iniciar projetos por conta própria sem pedir permissão, o que faz surgir naturalmente vários projetos em paralelo, com recursos sendo concentrados naquilo que parece ter mais chance de dar certo
    • As pessoas da OpenAI têm uma forte consciência de que trabalham de boa-fé e, apesar das críticas públicas, tentam seriamente fazer a coisa certa com senso de responsabilidade
    • Os produtos da empresa parecem ser fortemente influenciados pelo humor do público, e dá a impressão de que a empresa realmente se move conforme o “clima do Twitter”
    • O custo de GPU é absurdamente alto, a ponto de os demais custos de infraestrutura quase não importarem; garantir poder computacional é a principal prioridade financeira e técnica
    • Foi interessante a explicação de que a corrida rumo à AGI seria uma disputa tripla entre OpenAI (DNA de produto para consumidor), Anthropic (DNA enterprise) e Google (DNA de infraestrutura/dados)
    • A Meta também é uma concorrente importante com DNA voltado ao consumidor; historicamente, foi uma das principais empresas em transformar consumidores em “produto”
  • A parte sobre a maratona de desenvolvimento do Codex se destacou: teria sido o trabalho mais difícil dos últimos 10 anos. A rotina era trabalhar quase sempre até 23h ou meia-noite, cuidar de um bebê às 5h30 da manhã e sair para o escritório às 7h. Num setor em que projetos enormes ficam prontos em poucas semanas ou meses, fica a dúvida se esse estilo de trabalho é realmente sustentável no longo prazo para os funcionários

    • Se alguém me obrigasse a trabalhar nesse modo, eu recusaria sem pensar, mas se fosse um projeto que eu realmente considerasse interessante e importante, talvez eu topasse me dedicar totalmente por algumas semanas ou meses. Eu já saberia que, depois disso, ficaria sem energia alguma, então me planejaria com antecedência. Também acabo me mantendo motivado graças a uma comunidade com cultura parecida com a minha
    • É impressionante que alguém já financeiramente confortável tenha escolhido trabalhar 16 ou 17 horas por dia, 7 dias por semana, em vez de cuidar do bebê. O agradecimento à esposa por “assumir a maior parte da criação” já diz tudo
    • Esse tipo de trabalho definitivamente não é sustentável, mas se for algo que acontece poucas vezes ao longo da carreira, talvez valha a pena; conheço até gente que diz sair energizada dessas fases
    • Eu nem consigo imaginar jogar totalmente a carga da criação dos filhos para o cônjuge. A esposa do autor é admirável, e foi bom ele mencionar isso no final, mas sinceramente me surpreendeu
    • Como o autor saiu da OpenAI depois de 14 meses, parece que esse padrão de trabalho acabou levando ao burnout
  • O que eu realmente queria saber é se a OpenAI e outros laboratórios de IA usam de fato LLMs de forma agressiva como peça central da operação interna — para desenvolvimento de código, customização de modelos internos, organização de informações recentes e assim por diante. Eu queria saber se eles realmente investem dinheiro e capacidade nisso para uso prático do dia a dia, mas o artigo não menciona, o que foi uma pena

  • Fazer engenheiros acreditarem que estão criando “Deus” é uma estratégia de marketing de altíssimo nível. Eu não acredito que isso seja verdade, mas a ideia foi montada de um jeito em que quase nenhuma crítica pega. Sempre dá para rebater com “e se for verdade?”, e como o ganho potencial seria infinito, mesmo uma chance minúscula não poderia ser ignorada. Mesmo uma probabilidade de 0,00001%, multiplicada por uma recompensa infinita, vira valor esperado infinito. Marketing de primeira

    • A pergunta “mas e se for verdade?” parece fazer parte da narrativa das empresas de LLM, inserindo esse elemento de mistério
  • O que eu mais queria saber era até que ponto, e de que forma, os LLMs são realmente usados dentro da OpenAI para construir produtos

    • A explicação de que houve 78.000 pull requests públicos por engenheiro ao longo de 53 dias soa quase como uma piada de que 99,99% disso deve ter sido escrito por LLM. Fiquei surpreso com a quantidade de informações sobre o processo de trabalho reveladas no texto; isso normalmente não deveria ser mantido em segredo? E, para constar, a estatística dos 78.000 PRs não era dos engenheiros do Codex, mas de todos os usuários
  • Mesmo sendo uma empresa que cresceu tão rápido, continua me surpreendendo a falta de technical writers na OpenAI. O texto fala disso de forma leve, como se a documentação só “pudesse melhorar”, mas comparando com o nível de documentação da Anthropic, parece difícil encontrar colegas technical writers na OpenAI. Para criar boas ferramentas para desenvolvedores, documentação excelente é indispensável, e é preciso haver uma equipe dedicada a cuidar disso e evoluí-la

    • O problema é que a liderança não percebe o valor da documentação. Na DigitalOcean, por exemplo, havia uma equipe de documentação técnica de nível líder no setor, mas ela foi uma das primeiras a ser cortada nas demissões. Parece haver uma tendência forte de enxergar isso só como custo
  • Este texto trouxe uma quantidade enorme de informações interessantes que eu realmente nunca tinha ouvido antes; vale a pena dedicar tempo para ler

  • Sobre a opinião do autor de que “segurança é mais importante do que as pessoas imaginam”, considerando que vários líderes das equipes de segurança da OpenAI saíram ou foram demitidos, que o projeto Superalignment fracassou e que outros funcionários mencionaram falta de apoio às questões de segurança, essa fala soa desconectada da realidade ou intencionalmente enganosa

  • Achei interessante a afirmação de que “a maior parte da pesquisa começa quando um pesquisador fica obcecado por um problema específico”; se esse diagnóstico estiver correto, isso pode ser um calcanhar de Aquiles da empresa

    • Mas isso não é um problema de uma empresa específica, e sim algo da própria natureza humana. Pesquisadores de elite tendem a ficar obcecados por áreas que realmente amam e a dedicar voluntariamente uma quantidade enorme de tempo a isso