- O autor entrou na empresa em maio de 2024, trabalhou pouco mais de um ano na OpenAI e depois saiu, descrevendo com franqueza a cultura interna e o clima real de trabalho
- Em meio a um crescimento ultrarrápido (de 1.000 para 3.000 pessoas), os processos internos, a organização, a cultura e a forma de trabalhar estão mudando rapidamente
- Uma cultura bottom-up e meritocrática, uma colaboração centrada no Slack, alta capacidade de execução, visibilidade da liderança, mudanças rápidas de direção e a atitude de que 'o código é a resposta' estão presentes em toda a organização
- Há muita ênfase em cultura específica por equipe, velocidade de trabalho e flexibilidade organizacional; pesquisadores têm autonomia de 'mini gestores', e projetos duplicados e experimentos internos de ideias acontecem com frequência
- A OpenAI é descrita como uma organização ambiciosa e séria, sob intensa vigilância externa e da imprensa, com forte segurança e sigilo na prática, além de combinar senso de missão e tensão em torno de AGI e de serviços para consumidores
Introdução e contexto pessoal
- Entrou na empresa em maio de 2024 e recentemente deixou a OpenAI
- Com este texto, quer compartilhar a cultura real que sentiu dentro da OpenAI e sua visão pessoal
- Não há segredos internos; o texto registra o estado atual de uma organização historicamente interessante e a experiência de um funcionário como pequena janela para dentro
- Houve conflito pessoal na decisão de sair, mas também existia o desejo por algo novo após a transição de fundador de startup para funcionário de uma grande organização
- A experiência de participar da construção de AGI e de contribuir diretamente para o lançamento do Codex foi extremamente significativa
Cultura organizacional
- Entrou quando a empresa tinha 1.000 pessoas e, um ano depois, ela passou de 3.000, vivendo um crescimento anormalmente rápido
- A expansão acelerada gerou vários problemas em comunicação, cadeia de reporte, lançamentos de produto e gestão organizacional
- Toda a comunicação e o trabalho são centrados no Slack, e quase não se usa e-mail
- Cada equipe tem uma cultura e um ritmo muito diferentes; pesquisa, aplicação e GTM (Go-To-Market) também seguem cronogramas distintos
- Há uma meritocracia bottom-up real, em que pesquisadores e engenheiros conduzem experimentos e decisões por conta própria
- Em uma cultura orientada a resultados e competência, capacidade de execução e boas ideias importam mais do que habilidade política
- Sem um roadmap formal, há uma tendência de times se formarem naturalmente em torno de boas ideias e mudarem de direção rapidamente
- A liderança valoriza execução (doing the right thing) e agilidade diante de mudanças
- Internamente há muito desenvolvimento duplicado e experimentação em paralelo; vários protótipos surgem organicamente, e é uma organização em que 'o código se move'
- Líderes dão mais peso à capacidade de executar ideias de verdade do que a competências políticas
- Pesquisadores agem como 'mini executivos', mergulhando de forma autônoma na resolução de problemas
- Gestores de pesquisa e PMs competentes têm enorme influência
- Os EMs do ChatGPT são muito confiáveis e contratam boas pessoas, dando a elas autonomia
- A velocidade de mudança de direção é muito alta, e as decisões são colocadas em prática imediatamente
Forma de trabalho e ambiente
- A estrutura de canais e permissões no Slack é complexa, e toda a comunicação acontece por lá
- Times de pesquisa, PMs e EMs (engineering managers) trabalham de maneiras diferentes, e a mobilidade entre equipes e a flexibilidade de colaboração são muito altas
- Há grande sensibilidade a segurança externa e exposição na imprensa, então informações internas como desempenho e receita são controladas com rigor
- Na prática, as pessoas têm forte motivação para fazer o certo e não são tão cínicas quanto se imagina de fora
- A OpenAI é comparada a uma organização híbrida entre Los Alamos (laboratório nuclear) e um serviço de consumo em escala massiva
- Há foco em distribuir amplamente os benefícios da IA; modelos de ponta não ficam restritos apenas ao enterprise, sendo disponibilizados para qualquer pessoa via API/ChatGPT
Segurança e políticas internas
- Questões de segurança em IA de fato recebem muito pessoal e recursos internamente
- Na prática, lida-se mais com discurso de ódio, abuso, viés político, prompt injection, autoagressão e outros riscos reais
- Riscos teóricos (explosão de inteligência, power-seeking) são tratados por algumas pessoas dedicadas, mas não são o foco principal
- Uma parte significativa das pesquisas e sistemas ligados à segurança não é divulgada externamente
Ambiente de desenvolvimento e tecnologia
- Há um enorme monorepo, com foco em Python, alguma adoção de Rust/Golang e quase nenhuma imposição de style guide
- Convivem lado a lado grandes sistemas projetados por veteranos vindos do Google e notebooks Jupyter escritos por novos PhDs
- APIs centradas em FastAPI, com uso marcante de validação de dados com Pydantic
- Toda a infraestrutura roda sobre a Azure
- Os serviços vistos como confiáveis se limitam mais ou menos a Azure Kubernetes Service, CosmosDB e BlobStore
- O nível de IAM e alguns serviços ficam aquém da AWS, favorecendo o desenvolvimento interno de soluções próprias
- Houve grande entrada de engenheiros vindos da Meta (ex-Facebook)
- A sensibilidade de infraestrutura e a codebase lembram os primórdios de Meta/Instagram
- Ex.: reimplementação do TAO, unificação de sistemas de autenticação e outros sistemas próprios são comuns
- Dá para sentir na prática os problemas crônicos de organizações em hiper crescimento, como código duplicado, bibliotecas de ferramentas/filas, gestão de grandes backends monolíticos e questões de velocidade/estabilidade de CI
- Mensagens e estruturas de conversa do Chat estão profundamente embutidas no código e são reutilizadas repetidamente em diferentes produtos
- 'Code wins': sem um comitê central de planejamento, o código dos times que realmente fazem o trabalho acaba virando o padrão
- A autoridade de decisão fica com a equipe que executa diretamente o trabalho, num sistema em que competência e execução via código prevalecem
Marca de consumo e perspectiva de negócios
- A enormidade da marca Consumer: métricas centrais são operadas não por time, mas com base em assinaturas de usuários individuais
- Crescimento de produto e tráfego são medidos em unidades de consumo, como número de assinantes Pro, algo impactante para o autor, que vinha de organizações B2B
- Treinamento e experimentação de modelos começam em pequena escala e, quando dão certo, são expandidos por engenharia de sistemas distribuídos em larga escala
- O custo de GPU ocupa uma parcela esmagadora, e até recursos pequenos exigem enormes quantidades de recursos de GPU
- Estimativa de uso de GPU e benchmarking são calculados de trás para frente a partir da experiência do usuário, como latência exigida e número de tokens
- Know-how para operar uma grande codebase em Python: à medida que o número de desenvolvedores cresce, são necessários vários guardrails para funcionamento básico, testes e prevenção de mau uso
Operação de equipes e liderança
- A liderança é muito visível e participa diretamente, com todos os executivos entrando com frequência nas discussões no Slack
- Mudanças de equipe e colaboração são muito rápidas; quando outro time pede ajuda, reforços são enviados imediatamente, sem espera nem burocracia
- Swag interno também é raro e oferecido apenas em formato de venda limitada dentro da empresa
Experiência de lançamento do Codex
- Nos últimos 3 meses, o lançamento do Codex foi o ponto alto da carreira
- Em novembro de 2024 foi definida a meta de lançar um agente de programação em 2025; por volta de fevereiro de 2025, a ferramenta interna já estava pronta e a pressão pela velocidade diante da concorrência do mercado era perceptível
- Para lançar o Codex, as equipes se uniram e entregaram e lançaram um produto completo (agente de programação) em apenas 7 semanas, implementando rapidamente um produto de grande impacto em um ciclo curto
- Na prática, isso significou virar noites, trabalhar fins de semana e conciliar tudo com os cuidados de um recém-nascido, recriando a sensação da época da YC
- Foram implementados rapidamente vários recursos, como container runtime, otimização de repo, fine-tuning de modelos customizados, integração com git e acesso à internet
- A equipe era um grupo pequeno e altamente sênior, com 8 engenheiros, 4 pesquisadores, 2 designers, 2 pessoas de GTM e 1 PM
- Na véspera do lançamento, o foco ficou em tarefas finais, como o deploy direto
- No dia do lançamento, houve explosão de tráfego; só de aparecer na barra lateral do ChatGPT já ocorreu entrada imediata em grande escala
- O Codex adota um modelo de agente assíncrono (mensagem do usuário para o agente → trabalho → retorno do resultado em PR)
- Ele processa solicitações do usuário em um ambiente de execução independente e devolve o resultado em PR como se fosse um colaborador
- Ainda há mistura de confiança e limitações no desempenho do modelo
- A diferenciação do Codex aparece em pontos como execução de múltiplas tarefas e capacidade de entender grandes codebases
- Em apenas 53 dias após o lançamento, foram gerados 630.000 PRs, mais de 78.000 PRs por engenheiro, criando um impacto impressionante
Encerramento e aprendizados
- Havia medo de trabalhar em uma organização grande, mas olhando para trás, foi uma das melhores decisões, trazendo oportunidade de aprendizado e crescimento
- Tudo o que queria alcançar foi cumprido: intuição sobre treinamento de modelos, colaboração com colegas excelentes e lançamento de produtos de impacto
- Adquiriu know-how para gerenciar uma grande codebase em Python e teve experiência prática real com benchmarking e planejamento de capacidade de GPU
- Para quem é fundador de startup ou está pensando na carreira, este é um momento para ser mais agressivo nas tentativas ou considerar entrar em um grande laboratório de pesquisa
- A corrida rumo à AGI tem três cavalos — OpenAI, Anthropic e Google — cada um buscando um caminho diferente, e a experiência de trabalhar em um deles ampliará seus horizontes
- A experiência na OpenAI é avaliada como uma das melhores escolhas tanto como fundador quanto como engenheiro
2 comentários
https://pt.news.hada.io/topic?id=21081 Esse texto ficou na minha memória.
Comentários no Hacker News
Não é comum ver ex-funcionários descreverem sua experiência de trabalho de forma positiva; isso não significa tanto que a OpenAI seja especial, mas sim que a maioria dos posts de “por que saí da empresa” tende, na verdade, a culpar a organização por algo que era mais uma incompatibilidade pessoal com o ambiente. Neste texto, por trás da expressão “inacreditavelmente bottom-up”, pode haver falta de um roadmap claro e pessoas se perdendo por não terem projetos dos quais realmente sejam donas. Da mesma forma, “orientação para ação” e “mudanças imediatas de direção” podem significar um ambiente caótico e uma liderança executiva inconsistente. E a frase “na OpenAI realmente há muitas pessoas de boa-fé” vale para a maioria das empresas que tomam decisões moralmente complexas: todo mundo se vê como uma boa pessoa e racionaliza tudo com grandes objetivos e justificativas
O que chamou atenção neste texto foi o seguinte
A parte sobre a maratona de desenvolvimento do Codex se destacou: teria sido o trabalho mais difícil dos últimos 10 anos. A rotina era trabalhar quase sempre até 23h ou meia-noite, cuidar de um bebê às 5h30 da manhã e sair para o escritório às 7h. Num setor em que projetos enormes ficam prontos em poucas semanas ou meses, fica a dúvida se esse estilo de trabalho é realmente sustentável no longo prazo para os funcionários
O que eu realmente queria saber é se a OpenAI e outros laboratórios de IA usam de fato LLMs de forma agressiva como peça central da operação interna — para desenvolvimento de código, customização de modelos internos, organização de informações recentes e assim por diante. Eu queria saber se eles realmente investem dinheiro e capacidade nisso para uso prático do dia a dia, mas o artigo não menciona, o que foi uma pena
Fazer engenheiros acreditarem que estão criando “Deus” é uma estratégia de marketing de altíssimo nível. Eu não acredito que isso seja verdade, mas a ideia foi montada de um jeito em que quase nenhuma crítica pega. Sempre dá para rebater com “e se for verdade?”, e como o ganho potencial seria infinito, mesmo uma chance minúscula não poderia ser ignorada. Mesmo uma probabilidade de 0,00001%, multiplicada por uma recompensa infinita, vira valor esperado infinito. Marketing de primeira
O que eu mais queria saber era até que ponto, e de que forma, os LLMs são realmente usados dentro da OpenAI para construir produtos
Mesmo sendo uma empresa que cresceu tão rápido, continua me surpreendendo a falta de technical writers na OpenAI. O texto fala disso de forma leve, como se a documentação só “pudesse melhorar”, mas comparando com o nível de documentação da Anthropic, parece difícil encontrar colegas technical writers na OpenAI. Para criar boas ferramentas para desenvolvedores, documentação excelente é indispensável, e é preciso haver uma equipe dedicada a cuidar disso e evoluí-la
Este texto trouxe uma quantidade enorme de informações interessantes que eu realmente nunca tinha ouvido antes; vale a pena dedicar tempo para ler
Sobre a opinião do autor de que “segurança é mais importante do que as pessoas imaginam”, considerando que vários líderes das equipes de segurança da OpenAI saíram ou foram demitidos, que o projeto Superalignment fracassou e que outros funcionários mencionaram falta de apoio às questões de segurança, essa fala soa desconectada da realidade ou intencionalmente enganosa
Achei interessante a afirmação de que “a maior parte da pesquisa começa quando um pesquisador fica obcecado por um problema específico”; se esse diagnóstico estiver correto, isso pode ser um calcanhar de Aquiles da empresa