4 pontos por davespark 2025-10-20 | Ainda não há comentários. | Compartilhar no WhatsApp

O ex-diretor de IA da OpenAI e da Tesla, Andrej Karpathy, apresentou recentemente uma análise realista sobre o futuro dos agentes de IA e o cronograma da AGI em um podcast de Dwarkesh Patel. Enquanto a indústria clama pelo “ano dos agentes”, ele explicou por que isso deve ser a “década dos agentes” e foi transparente sobre qual é o problema central do aprendizado por reforço hoje.

Pontos principais:

  • “Sugador de supervisão pelo canudo”: a fragilidade fatal do RL – O método atual de RL, que avalia todo o processo com apenas um único sinal de recompensa correta após centenas de tentativas, é fundamentalmente ineficiente e ruidoso
  • A capacidade real da IA de codificação: o que o projeto nanochat mostrou – Durante a construção de um clone do ChatGPT de 8 mil linhas, o agente de IA foi criticamente fraco em escrever código original; o melhor que conseguiu foi se limitar a uma função de autocompletar
  • O dilema da queda de modelos: a armadilha oculta dos dados sintéticos – Todas as amostras geradas por LLM têm uma distribuição “silenciosamente colapsada”, e é por isso que, ao pedir uma piada ao ChatGPT, geralmente se repetem apenas cerca de três versões

Ainda não há comentários.

Ainda não há comentários.