1. Defina expectativas realistas (Set reasonable expectations)
- Ponto principal:
É preciso reconhecer que LLMs são, em essência, ferramentas avançadas de autocompletar, e que confiar totalmente nelas pode gerar erros ou resultados imprecisos.
- Como usar:
Use-os como ferramentas de apoio para complementar sua habilidade de programação, sem expectativas excessivas, e com uma postura de sempre verificar possíveis falhas.
2. Considere a data de corte do treinamento (Account for training cut-off dates)
- Ponto principal:
A atualidade dos dados usados no treinamento do modelo pode ser limitada, então é preciso ter cuidado com bibliotecas recentes ou mudanças tecnológicas.
- Como usar:
Priorize bibliotecas com estabilidade e uso amplamente comprovados e, se precisar de tecnologia mais recente, complemente fornecendo exemplos diretamente.
3. O contexto é rei (Context is king)
- Ponto principal:
Todo o histórico da conversa (prompts e respostas) influencia o resultado, então gerenciar o contexto é essencial.
- Como usar:
Em tarefas complexas, inclua o código existente na conversa para que o modelo possa consultá-lo e, se necessário, reinicie em uma nova conversa.
4. Peça opções diferentes (Ask them for options)
- Ponto principal:
Na fase inicial de pesquisa, vale pedir ao LLM várias opções de implementação e exemplos para explorar alternativas possíveis.
- Como usar:
Faça perguntas como “quais opções existem?” para verificar as possibilidades técnicas e, depois, detalhe a partir da opção escolhida.
5. Diga exatamente o que fazer (Tell them exactly what to do)
- Ponto principal:
Ao escrever código de produção, é importante dar instruções detalhadas e claras para orientar a implementação correta da funcionalidade desejada.
- Como usar:
Especifique itens concretos como assinatura de função, bibliotecas a usar e tratamento de exceções para que o LLM produza código alinhado aos requisitos.
6. O código gerado precisa ser testado (You have to test what it writes!)
- Ponto principal:
Mesmo quando o código é escrito por um LLM, é indispensável confirmar se ele realmente funciona, com testes automatizados e validação manual.
- Como usar:
Verifique o funcionamento do código gerado usando frameworks de teste como pytest.
7. Lembre-se de que é uma conversa (Remember it’s a conversation)
- Ponto principal:
A interação com um LLM não é algo pontual; o resultado pode ser melhorado por meio de um processo iterativo de conversa.
- Como usar:
Se o resultado inicial for insuficiente, refine e melhore o código com instruções adicionais ou feedback.
8. Use ferramentas que consigam executar o código para você (Use tools that can run the code for you)
- Ponto principal:
É possível usar ambientes sandbox executáveis ou ferramentas integradas de desenvolvimento para realmente rodar o código escrito pelo LLM.
- Como usar:
Faça validação em tempo real com ferramentas que ofereçam ambiente seguro de execução, como ChatGPT Code Interpreter e Claude Artifacts.
9. Aprenda com ‘vibe-coding’ (Vibe-coding is a great way to learn)
- Ponto principal:
É uma forma de aprender a usar LLMs por meio de experimentação repetida e livre, colocando ideias em prática rapidamente.
- Como usar:
Comece com funcionalidades simples e, com tentativas e melhorias iterativas, entenda os limites do LLM e desenvolva melhor sua intuição de programação.
10. Exemplo detalhado com Claude Code (A detailed example using Claude Code)
- Ponto principal:
Mostra, com um exemplo de projeto real, como Claude Code incorpora requisitos específicos para executar tarefas.
- Como usar:
Use como referência o processo de realizar tarefas compostas, como gerar um script em Python e uma página HTML, por meio de prompts e feedback passo a passo.
11. Esteja pronto para a intervenção humana (Be ready for the human to take over)
- Ponto principal:
Mesmo no código gerado por LLMs, podem existir erros ou trechos inadequados, então a revisão e correção final devem sempre ser feitas por uma pessoa.
- Como usar:
Revise diretamente os detalhes e erros sutis que o LLM pode deixar passar para produzir um resultado final de alta qualidade.
12. A maior vantagem é a velocidade de desenvolvimento (The biggest advantage is speed of development)
- Ponto principal:
Usar LLMs pode aumentar drasticamente a velocidade de criação de protótipos e de tarefas repetitivas.
- Como usar:
Use LLMs ativamente para validar ideias iniciais ou escrever códigos simples e assim reduzir o tempo de desenvolvimento.
13. LLMs ampliam a expertise existente (LLMs amplify existing expertise)
- Ponto principal:
Para desenvolvedores já experientes, LLMs podem fortalecer ainda mais a especialização e elevar a produtividade.
- Como usar:
Com base na sua própria experiência e conhecimento, dê instruções claras ao LLM para obter resultados mais refinados.
14. Recurso extra: responder perguntas sobre codebases (Bonus: answering questions about codebases)
- Ponto principal:
LLMs também podem ser úteis para responder perguntas sobre uma codebase ou explicar partes específicas do código.
- Como usar:
Faça perguntas sobre a estrutura do código ou sobre funcionalidades específicas e use o modelo como apoio para gerar explicações ou documentação relacionada.
1 comentários
O blog dessa pessoa é impressionante. Obrigado.