1 pontos por brainer 1 시간 전 | Ainda não há comentários. | Compartilhar no WhatsApp
  • Recentemente, a codificação com IA consegue criar rapidamente “código que funciona”, mas ainda não consegue automaticamente transformar isso no “bom produto” que o usuário espera

  • O autor vê duas causas principais para isso

    • Falta de senso comum/conhecimento tácito na IA
    • Na aprendizagem baseada em RLVR, há uma estrutura em que é mais fácil recompensar o “sucesso na execução do código” do que “bom código/bom produto”
  • Como exemplos, ele cita a alucinação do MacBook Pro do Rei Sejong, o teste do lava-rápido e a falha na geração de imagens de salas de aula/alunos coreanos, apontando que até os modelos mais recentes podem deixar passar estranhezas que humanos percebem imediatamente

  • Se a recompensa do RLVR para programação ficar enviesada para a mera execução, o LLM pode criar try-except em excesso, fallback e lógica defensiva, acumulando dívida técnica

  • O ponto central é que, no Go, basta vencer; já no software, não basta “funcionar mais ou menos”, ele precisa ser um “produto que as pessoas querem e pelo qual pagarão”

  • Pela perspectiva de AJI (Artificial Jagged Intelligence) de Karpathy, os pontos fracos atuais da IA estão em “taste”, sensibilidade de produto e na esfera do senso comum implícito

  • A Anthropic também vê que a área de design/taste ainda é amplamente responsabilidade humana, embora considere que essa fronteira esteja sendo renegociada à medida que os modelos melhoram

  • O autor prevê que, com a evolução dos modelos, como de GPT-5.4 para GPT-5.5, essa lacuna vai diminuir gradualmente

  • Em última instância, ele defende que, quando a IA adquirir um nível de sensibilidade e julgamento difícil de distinguir do humano, ela passará no teste de Turing, e esse momento poderá ser visto como AGI

Resumo:
O problema da codificação com IA não é que ela “não sabe programar”, mas que ela se otimiza para produzir resultados executáveis sem saber qual é o produto que as pessoas realmente querem. Hoje, o papel humano é complementar a IA em senso comum, taste e julgamento de produto, áreas em que ela ainda é deficiente.

Ainda não há comentários.

Ainda não há comentários.