34 pontos por darjeeling 2025-03-12 | 1 comentários | Compartilhar no WhatsApp

1. Defina expectativas realistas (Set reasonable expectations)

  • Ponto principal:
    É preciso reconhecer que LLMs são, em essência, ferramentas avançadas de autocompletar, e que confiar totalmente nelas pode gerar erros ou resultados imprecisos.
  • Como usar:
    Use-os como ferramentas de apoio para complementar sua habilidade de programação, sem expectativas excessivas, e com uma postura de sempre verificar possíveis falhas.

2. Considere a data de corte do treinamento (Account for training cut-off dates)

  • Ponto principal:
    A atualidade dos dados usados no treinamento do modelo pode ser limitada, então é preciso ter cuidado com bibliotecas recentes ou mudanças tecnológicas.
  • Como usar:
    Priorize bibliotecas com estabilidade e uso amplamente comprovados e, se precisar de tecnologia mais recente, complemente fornecendo exemplos diretamente.

3. O contexto é rei (Context is king)

  • Ponto principal:
    Todo o histórico da conversa (prompts e respostas) influencia o resultado, então gerenciar o contexto é essencial.
  • Como usar:
    Em tarefas complexas, inclua o código existente na conversa para que o modelo possa consultá-lo e, se necessário, reinicie em uma nova conversa.

4. Peça opções diferentes (Ask them for options)

  • Ponto principal:
    Na fase inicial de pesquisa, vale pedir ao LLM várias opções de implementação e exemplos para explorar alternativas possíveis.
  • Como usar:
    Faça perguntas como “quais opções existem?” para verificar as possibilidades técnicas e, depois, detalhe a partir da opção escolhida.

5. Diga exatamente o que fazer (Tell them exactly what to do)

  • Ponto principal:
    Ao escrever código de produção, é importante dar instruções detalhadas e claras para orientar a implementação correta da funcionalidade desejada.
  • Como usar:
    Especifique itens concretos como assinatura de função, bibliotecas a usar e tratamento de exceções para que o LLM produza código alinhado aos requisitos.

6. O código gerado precisa ser testado (You have to test what it writes!)

  • Ponto principal:
    Mesmo quando o código é escrito por um LLM, é indispensável confirmar se ele realmente funciona, com testes automatizados e validação manual.
  • Como usar:
    Verifique o funcionamento do código gerado usando frameworks de teste como pytest.

7. Lembre-se de que é uma conversa (Remember it’s a conversation)

  • Ponto principal:
    A interação com um LLM não é algo pontual; o resultado pode ser melhorado por meio de um processo iterativo de conversa.
  • Como usar:
    Se o resultado inicial for insuficiente, refine e melhore o código com instruções adicionais ou feedback.

8. Use ferramentas que consigam executar o código para você (Use tools that can run the code for you)

  • Ponto principal:
    É possível usar ambientes sandbox executáveis ou ferramentas integradas de desenvolvimento para realmente rodar o código escrito pelo LLM.
  • Como usar:
    Faça validação em tempo real com ferramentas que ofereçam ambiente seguro de execução, como ChatGPT Code Interpreter e Claude Artifacts.

9. Aprenda com ‘vibe-coding’ (Vibe-coding is a great way to learn)

  • Ponto principal:
    É uma forma de aprender a usar LLMs por meio de experimentação repetida e livre, colocando ideias em prática rapidamente.
  • Como usar:
    Comece com funcionalidades simples e, com tentativas e melhorias iterativas, entenda os limites do LLM e desenvolva melhor sua intuição de programação.

10. Exemplo detalhado com Claude Code (A detailed example using Claude Code)

  • Ponto principal:
    Mostra, com um exemplo de projeto real, como Claude Code incorpora requisitos específicos para executar tarefas.
  • Como usar:
    Use como referência o processo de realizar tarefas compostas, como gerar um script em Python e uma página HTML, por meio de prompts e feedback passo a passo.

11. Esteja pronto para a intervenção humana (Be ready for the human to take over)

  • Ponto principal:
    Mesmo no código gerado por LLMs, podem existir erros ou trechos inadequados, então a revisão e correção final devem sempre ser feitas por uma pessoa.
  • Como usar:
    Revise diretamente os detalhes e erros sutis que o LLM pode deixar passar para produzir um resultado final de alta qualidade.

12. A maior vantagem é a velocidade de desenvolvimento (The biggest advantage is speed of development)

  • Ponto principal:
    Usar LLMs pode aumentar drasticamente a velocidade de criação de protótipos e de tarefas repetitivas.
  • Como usar:
    Use LLMs ativamente para validar ideias iniciais ou escrever códigos simples e assim reduzir o tempo de desenvolvimento.

13. LLMs ampliam a expertise existente (LLMs amplify existing expertise)

  • Ponto principal:
    Para desenvolvedores já experientes, LLMs podem fortalecer ainda mais a especialização e elevar a produtividade.
  • Como usar:
    Com base na sua própria experiência e conhecimento, dê instruções claras ao LLM para obter resultados mais refinados.

14. Recurso extra: responder perguntas sobre codebases (Bonus: answering questions about codebases)

  • Ponto principal:
    LLMs também podem ser úteis para responder perguntas sobre uma codebase ou explicar partes específicas do código.
  • Como usar:
    Faça perguntas sobre a estrutura do código ou sobre funcionalidades específicas e use o modelo como apoio para gerar explicações ou documentação relacionada.

1 comentários

 
junghan0611 2025-03-27

O blog dessa pessoa é impressionante. Obrigado.