- O autor do texto não acredita que a AGI (inteligência artificial geral) surgirá em um futuro próximo
- Os LLMs (grandes modelos de linguagem) mostram capacidades impressionantes, mas carecem da habilidade de aprender continuamente e melhorar de forma gradual como os humanos
- Os LLMs atuais têm limitações para se adaptar por meio de feedback do usuário ou acumular contexto, o que é uma grande barreira para a automação real de trabalho de escritório
- Desafios práticos como uso de computador e dados multimodais devem avançar lentamente devido à escassez de dados, à longa duração das tarefas e à dificuldade técnica
- No longo prazo, espera-se que quando o aprendizado online se tornar possível ocorram mudanças muito abruptas, mas isso não parece fácil de se concretizar nos próximos 10 anos
Introdução e discussão sobre quando a AGI pode chegar
- O autor apresenta sua visão com base em experiências discutindo o momento de chegada da AGI com diversos especialistas
- Alguns preveem AGI em 2 anos, outros em 20, mas, em junho de 2025, o autor não acredita que a AGI esteja prestes a chegar
Limites do aprendizado contínuo (Continual Learning)
- Muitas pessoas defendem que a tecnologia atual de IA já é economicamente mais transformadora que a internet, mas o autor discorda
- O motivo de empresas da Fortune 500 não conseguirem usar LLMs para transformar radicalmente o trabalho não é o conservadorismo da gestão, e sim a falta de aprendizado contínuo na IA atual
- Ao construir e usar diretamente várias ferramentas baseadas em LLM, o autor concluiu que os LLMs entregam algo como 5/10 em tarefas repetitivas, mas não têm capacidade de melhoria gradual
- Humanos aumentam sua produtividade por meio de construção de contexto, análise das próprias falhas e pequenas melhorias aprendidas pela repetição, enquanto os LLMs não têm um canal para receber feedback de alto nível, e ajustar prompts não permite um “aprendizado” humano
- Existe fine-tuning com RL (RLHF), mas isso ainda está longe de um aprendizado adaptativo e orgânico como o humano, o que se torna uma limitação decisiva na automação do trabalho real
- Ainda faltam formas viáveis de fazer modelos de IA acumularem contexto rico, lembrarem dele e evoluírem durante o trabalho como funcionários humanos
- Dentro de uma sessão, algum aprendizado de contexto até acontece, mas todo o contexto aprendido se perde quando a sessão termina
- Soluções como memória de longo prazo (
rolling context window) vêm sendo testadas, mas resumir conhecimento experiencial rico é frágil, e fora de domínios baseados em texto isso funciona de forma ainda menos eficiente
- Mesmo que o avanço da IA fique estagnado no nível atual, muitos trabalhos de escritório ainda serão difíceis de substituir com essa tecnologia, porque a capacidade humana de aprender contexto continua sendo uma vantagem competitiva
- Em outras palavras, só quando a tecnologia de aprendizado contínuo for implementada de fato o valor da IA deve disparar de forma descontínua; e, no limite, quando isso for possível, o compartilhamento de aprendizado entre múltiplas instâncias pode permitir que ela se torne superinteligente mais rápido que humanos
- No entanto, como os laboratórios têm forte incentivo para lançar versões imperfeitas antes de concluir totalmente uma inovação, o autor espera sinais prévios antes de um salto real no aprendizado contínuo
Dificuldades práticas no uso de computador e na automação
- Em conversas com pesquisadores da Anthropic, o autor ouviu previsões de que agentes confiáveis de uso de computador surgiriam até o fim de 2026, mas ele está cético
- Já existem agentes de uso de computador hoje, mas na prática sua eficiência ainda é baixa
- Para automatizar tarefas reais como declaração de impostos, é preciso lidar com múltiplos sistemas, executar agentes por longos períodos e processar diversos tipos de dados multimodais, o que torna o processo de treinamento e validação muito lento
- Diferentemente dos dados de pré-treinamento em texto já existentes (como grandes volumes de documentos da internet usados em modelos de linguagem), faltam datasets multimodais de uso de computador, o que deve alongar o desenvolvimento de agentes realmente confiáveis
- Mesmo algoritmos inovadores recém-propostos exigem anos de ajustes de engenharia antes de chegar ao uso real, então o avanço em tarefas de uso de computador tende a ser bastante lento
Sofisticação da capacidade de raciocínio e seus limites
- Modelos recentes como o Gemini 2.5 de fato mostram capacidade de raciocínio em aspectos como interpretação da intenção do falante, autoverificação lógica e resposta ao contexto
- Ferramentas como Claude Code conseguem gerar rapidamente código funcional apenas com uma especificação dada, o que sugere sinais iniciais de “inteligência geral” rudimentar em domínios amplos
- Nos domínios em que os modelos LLM de ponta mostram capacidade, eles às vezes entregam resultados bastante impressionantes
Previsões de curto e longo prazo para IA/AGI
- O autor enfatiza que mantém uma visão probabilística sobre suas previsões e, por isso, ainda considera válido preparar medidas de precaução
- Ele estaria disposto a apostar com 50% de probabilidade nos itens abaixo
- Até 2028: existe a possibilidade de a IA chegar a um nível em que consiga conduzir de ponta a ponta todo o processo de declaração de impostos de pequenas empresas
- A capacidade atual de uso de computador ainda está em um nível comparável ao GPT-2, e a escassez de dados, junto com horizontes longos de tarefa, torna a otimização difícil
- Devem surgir demos impressionantes em 2026–2027, mas o autor acredita que ainda será difícil alcançar um nível de execução totalmente autônoma de tarefas complexas e prolongadas
- Até 2032: pode chegar o momento em que a IA aprenda de forma natural e gradual durante o trabalho, como um humano, e após alguns meses de adaptação consiga internalizar contexto, preferências e know-how no mesmo nível de uma pessoa
- Mesmo que a implementação de aprendizado online contínuo não pareça próxima agora, um avanço essencial ainda pode acontecer ao longo de 7 anos
Fatores limitantes do avanço da IA e perspectivas futuras
- O momento de realização da AGI tem uma distribuição probabilística muito ampla (log-normal), e o avanço da IA ao longo dos últimos 10 anos esteve intimamente ligado ao aumento da capacidade computacional de treinamento (
training compute)
- Esse aumento de capacidade computacional deve atingir limites depois de 2030, fazendo com que a inovação algorítmica se torne o principal gargalo
- Sem uma mudança de paradigma realmente inovadora, a probabilidade anual de surgimento da AGI pode diminuir com o tempo
- Se a aposta no cenário “mais longo” estiver correta, o mundo cotidiano pode não mudar tanto até 2030–2040; por outro lado, se os limites atuais da IA forem superados, mudanças muito radicais poderão acontecer
4 comentários
Acho que a AGI não se concretiza porque existem limitações físicas em termos de persistência e aprendizado
É literalmente por haver limitações físicas, não por falta de capacidade tecnológica
Se avançarmos um passo como AGI ao não impor essas limitações, depois será difícil voltar atrás, e como os desenvolvedores de IA também sabem disso, acho que eles apenas a desenvolvem de forma personalizada para serviços, sem tentar remover essas limitações
Concordo totalmente com você!
Opiniões do Hacker News
Até agora, a mesma ladainha de novo.