- Modelos de linguagem de grande escala (LLM) estão transformando fundamentalmente a forma de trabalhar, e a Oxide definiu com clareza como usá-los dentro da organização
- A Oxide é uma startup de infraestrutura de computação sob demanda que cria hardware e software unificados para data centers on-premises
- A Oxide apresenta como princípio central do uso de LLMs o equilíbrio entre responsabilidade, rigor, empatia, trabalho em equipe e senso de urgência
- São úteis para resumo e compreensão de documentos, revisão de código e depuração, mas na escrita e criação de código o julgamento e a responsabilidade humanos são indispensáveis
- Os resultados gerados por LLMs devem sempre preservar uma estrutura em que um humano revisa e responde pela decisão
- A Oxide incentiva o uso de LLMs, desde que com a premissa de responsabilidade com produto, clientes e colegas
Critérios de valor para o uso de LLMs
- A Oxide avalia o uso de LLMs com base em seus valores fundamentais da organização
- Responsabilidade (Responsibility): LLM é apenas uma ferramenta, e a responsabilidade pelo resultado é inteiramente humana
- Rigor (Rigor): quando usado com cuidado, ajuda a refinar o raciocínio; quando usado sem cuidado, pode reduzir a qualidade do pensamento
- Empatia (Empathy): é preciso lembrar que o emissor e o receptor da linguagem são humanos e manter uma comunicação centrada em pessoas
- Trabalho em equipe (Teamwork): deve-se evitar que o uso de LLM prejudique a confiança entre colegas e garantir que a transparência no uso não pareça fuga de responsabilidade
- Urgência (Urgency): é possível ganhar velocidade, mas sem sacrificar os demais valores
As diferentes formas de uso de LLMs
LLMs como leitores
- LLMs são excelentes em resumo de documentos e perguntas e respostas, facilitando a compreensão rápida de grandes volumes de material
- No entanto, é preciso garantir a privacidade dos dados e configurar para que documentos enviados não sejam usados no treinamento do modelo
- São úteis como ferramenta de apoio à compreensão de documentos, mas não devem substituir situações em que é necessário ler diretamente
LLMs como editores
- São eficazes para melhorar estrutura e tom de documentos concluídos e podem ser úteis em fases finais
- No entanto, LLMs tendem a oferecer respostas excessivamente positivas, o que pode faltar uma análise crítica
- Em fase de rascunho, seu uso pode representar risco de perder a voz única do autor
LLMs como escritores
- Textos gerados por LLMs frequentemente parecem clichês ou exibem sinais óbvios de geração automática
- Texto produzido automaticamente pode comprometer a autenticidade do pensamento e a confiança do leitor
- O leitor parte do pressuposto de que o autor entendeu o conteúdo, mas o texto gerado por LLM quebra essa premissa
- A Oxide parte do pressuposto de que todos os membros têm habilidade de escrita e, portanto, não usa LLM como autor principal
- Ainda assim, é possível usar de forma limitada como ferramenta auxiliar para organização de ideias
LLMs como revisores de código
- LLMs são úteis para detectar certos tipos de problemas de código, mas não substituem a revisão humana
- Como as sugestões podem ser ilógicas ou ignorar o contexto, devem ser usadas somente como ferramenta auxiliar
LLMs como depuradores
- LLMs podem servir no papel de rubber duck, para inspirar ideias de depuração
- A capacidade real de resolução de problemas é limitada, mas são úteis como estímulo para pensar em abordagens novas
LLMs como programadores
- LLMs têm forte capacidade de geração de código e são adequados para escrita experimental e de apoio
- Quanto mais próximo do código de produto, mais importantes se tornam validação e responsabilidade
- O código escrito por LLM deve passar por auto revisão (self-review) pelo autor e precisa ser verificado antes da revisão de pares
- Não é permitido responder à revisão de código com reescrita total/geração completa, pois isso impede revisão repetitiva
- Mesmo na geração de código, é preciso manter responsabilidade, rigor, empatia e trabalho em equipe
Operação e diretrizes
- Os detalhes técnicos e diretrizes internas de uso de LLMs estão registrados em documentação interna no GitHub
- A Oxide recomenda o uso de LLMs, mas parte do princípio de uso responsável
- Responsabilidade por qualidade do produto, confiança do cliente e colaboração entre colegas é a prioridade máxima
1 comentários
Comentários no Hacker News
O texto do Bryan mostra uma visão equilibrada e realista
Acho que esse tema ficou de fora do RFD porque a Oxide não contrata engenheiros juniores
Bryan é um engenheiro com mais de 30 anos lidando com software e hardware difíceis, e já teve a experiência de concluir um “programa realmente difícil (um SO)”
A forma como ele lida com LLMs é muito diferente da de um engenheiro júnior em 2025
Os juniores de hoje provavelmente quase nunca codificaram sem ajuda de LLM
Era tão entediante que até ir trabalhar era difícil, e hoje parece o tipo de coisa que um LLM terminaria em poucos minutos
Pensando agora, o tempo que gastei naquilo parece quase uma loucura
Só depois ele apresentou o Dreamweaver, e a produtividade aumentou umas dez vezes
Em áreas com resultados claros, como pesquisa de segurança, LLMs são excelentes, mas são fracos em problemas que exigem julgamento sutil
Por isso, o ideal é deixar as partes repetitivas e sistemáticas com o LLM, e as partes que exigem julgamento com humanos
Mas agora aceitei que isso é “uma nova forma de programar”, e, ao perceber isso, acabei me sentindo até mais jovem
Hoje em dia, usar em-dash às vezes faz parecer que o texto foi escrito por IA, o que é meio irritante
Concordei com quase tudo ao ler o RFD da Oxide, mas não com a parte de que “LLMs escrevem bem código do zero”
LLMs são bons para resolver a “síndrome da página em branco”, mas acho que código realmente pronto para produção ainda está longe do resultado que eles entregam
Isso também pode ser uma “ilusão de progresso”
LLMs aprendem “boas soluções” que aparecem muito nos datasets e, por isso, são fortes na resolução de problemas
Já a expressão humana tem a diversidade como essência, então expressões medianas tendem a perder o interesse
No fim, LLMs podem limitar a capacidade de resolver problemas ainda não solucionados
Acho que a baixa qualidade do código se deve às limitações da context window
Gerar no nível de função até funciona, mas, quando se entrega uma funcionalidade inteira, a estrutura e as interfaces costumam sair uma bagunça
Numa analogia com escrita, seria algo como dar só a primeira e a última frase de um parágrafo e pedir que ele preencha o resto
Programadores conseguem julgar a qualidade do código, mas com escrita isso não acontece da mesma forma
Muita gente fica com má impressão porque usou modelos antigos ou baratos
Tenho dúvidas sobre a afirmação de que “LLMs são bons em detectar textos escritos por LLMs”
Fiquei curioso se isso já foi comprovado com dados
Como o processo seletivo deles é centrado na escrita, houve uma explosão recente de candidaturas escritas com LLM
Eles avisaram sobre isso no RFD 0003 e na página de carreiras, mas continua acontecendo
O episódio do podcast também trata de casos relacionados
LLMs não conseguem pegar todo texto gerado por IA, mas, em casos suspeitos, são úteis como ferramenta auxiliar de detecção
Não testei, mas parece uma abordagem interessante
acho impossível fazer uma identificação perfeita com a tecnologia atual
Ao usar código gerado por LLM, a responsabilidade continua sendo do engenheiro
Código que você mesmo não revisou não pode ser objeto de review
Meu processo é o seguinte:
A última etapa é a mais difícil, e emocionalmente dá vontade de pulá-la
Esse método ajuda a manter o pensamento em nível de arquitetura enquanto reduz o trabalho repetitivo
Mas LLMs são não determinísticos, então são diferentes de ferramentas previsíveis como um compilador
Se o código não funciona direito, ainda são necessárias mais correções
Por isso, não tenho certeza se LLMs realmente economizam tempo
É difícil se envolver emocionalmente refinando código feito por uma máquina
Achei estranho não mencionarem a possibilidade de violação de direitos autorais em código gerado por LLM
Código do GitHub pode ser copiado quase literalmente, e isso é uma questão importante para empresas de open source
É preciso haver contribuição humana suficiente para existir direito autoral, mas esse critério é pouco claro
O documento é bem estruturado, mas a parte que diz que “não há problema em usar LLMs como auxílio de leitura” parece contraditória
Se fosse perfeito, não seria diferente do texto original; se não for perfeito, existe risco de má interpretação
Vejo com frequência casos em que o LLM não lê o documento de fato e infere coisas apenas pelo índice
Existe o risco de surgir uma camada de tradução entre o conteúdo e o leitor
É preciso colocar o texto completo diretamente na context window
Ainda assim, três livros inteiros podem exceder os limites de um LLM
Concordo com a ideia de que “texto feito por LLM corrói até a autenticidade do pensamento”
Um texto escrito diretamente por um humano tem valor, mas o escrito por LLM parece uma cópia diluída em valor
A frase de que talvez fosse melhor ler o prompt do que o resultado me marcou
Ideias interessantes e originais ficam justamente nos pontos que se afastam da média
Consigo entender o uso de LLM, por exemplo em tradução, quando alguém que não é nativo quer expressar melhor suas ideias,
mas quem recebe o texto acaba se perguntando se aquela formulação reflete mesmo o pensamento real da pessoa
Comentários são uma tentativa de expressar o contexto teórico que não está contido no código
Como LLMs não podem ter essa “teoria”, não conseguem produzir comentários realmente valiosos
Por exemplo, a maioria dos posts em /r/SaaS parecia escrita por LLM,
mas ainda assim conduzia bem a reação dos leitores com storytelling emocional
Eu mesmo uso LLMs para escrever documentação e benchmarks
Também ajudam quando não nativos precisam redigir documentos técnicos, embora a variação de qualidade seja grande
No fim, em textos voltados à transmissão de informação, os LLMs estão se tornando cada vez mais úteis
Mais do que o que foi escrito, quero saber por que foi escrito
Então é reconfortante pensar que, mesmo que minhas ideias não sejam geniais, ao menos ainda são estatisticamente raras
Acho que texto escrito com LLM não vale a pena ser lido
Gosto que a Oxide tenha estabelecido um princípio firme de não usar LLMs para entregas não relacionadas a código
Em review de código deveria valer o mesmo: código gerado precisa ser revisado primeiro pelo próprio autor
Ainda resta ver se essa cultura vai se sustentar na prática, mas a direção parece sensata
Há uma percepção forte de que LLMs foram treinados com dados apropriados indevidamente,
e acho que eles deveriam ter considerado essa percepção pública
Seja como questão ética ou risco de marca, isso claramente importa hoje
O objetivo é apresentar diretrizes técnicas, não uma posição ética
Texto gerado por LLM perde a autenticidade, e o leitor passa a sentir que até aquele pensamento foi automatizado
Isso pode acabar prejudicando a confiança mútua
Achei interessante a frase de que “escrever é um trabalho intelectual maior do que ler”
Mas, no caso de código, sinto que é o contrário
Por isso existe muito mais código ruim
Já código bem escrito tem grande valor de aprendizado e, como a escrita, exige insight
“Debugar é duas vezes mais difícil do que escrever código.
Portanto, se você escrever o código da forma mais inteligente possível, então, por definição, você não será inteligente o suficiente para depurá-lo”
link laws-of-software.com