3 pontos por GN⁺ 10 일 전 | 1 comentários | Compartilhar no WhatsApp
  • O AI Index 2026 é um relatório que compila as tendências gerais da IA por meio de métricas como desempenho em benchmarks, investimentos, percepção pública, capacidade computacional e emissões de carbono
  • Os lançamentos de modelos de IA notáveis continuaram concentrados nos EUA e na indústria, enquanto a China registrou uma vantagem clara em instalação de robôs industriais
  • A capacidade computacional global de IA cresceu mais de 3 vezes por ano desde 2022, e as GPUs da Nvidia agora respondem por mais de 60 por cento da capacidade total
  • O desempenho em benchmarks de LLMs multimodais e de agentic AI subiu rapidamente, mas a precisão continua baixa em tarefas gerais como leitura de relógios analógicos
  • Em 2025, o investimento em IA ultrapassou US$ 581 bilhões e bateu recorde, enquanto impacto no emprego, confiança na regulação e aceitação pública variaram bastante conforme o país e a métrica

Principais indicadores do relatório AI Index 2026

  • O relatório AI Index 2026 de Stanford, com mais de 400 páginas, reúne o panorama da IA a partir de vários ângulos, como pontuações de benchmark, investimento e percepção pública
  • O desempenho dos modelos líderes de IA continua acelerando, e grandes empresas de IA como OpenAI e Anthropic avançam rumo a IPOs ainda neste ano
  • A reação negativa à IA também persiste; nos EUA, em especial, governos locais começam a adotar restrições ou até proibições totais a novos desenvolvimentos de data centers
  • Em continuidade às coberturas dos anos anteriores, de 2021 a 2025, foram selecionadas tendências que condensam o panorama da IA em 2026

A vantagem dos modelos de IA dos EUA

  • Os EUA lideraram o lançamento de modelos de IA notáveis na última década e mantiveram essa trajetória em 2025
    • Segundo a Epoch AI, organizações sediadas nos EUA lançaram 50 modelos notáveis em 2025
    • A produção da China começou a reduzir a diferença
  • Quase todos os modelos notáveis surgiram da indústria
    • Em 2025, houve 87 lançamentos de modelos notáveis pela indústria
    • Outras fontes, somando academia e órgãos governamentais, responderam por 7 lançamentos
  • A participação da indústria cresceu fortemente no longo prazo
    • Modelos lançados pela indústria agora representam mais de 90 por cento dos modelos notáveis
    • Em 2015, eram menos de 50 por cento; em 2003, 0

A vantagem da China na implantação de robótica

  • Empresas americanas lideram em número de modelos de IA notáveis, mas a China tem uma vantagem clara em implantação de robótica
    • Segundo dados da International Federation of Robotics, a China instalou 295.000 robôs industriais em 2024
    • O Japão instalou cerca de 44.500, e os EUA 34.200

Explosão da computação global para IA

  • A métrica de capacidade computacional total de IA da Epoch AI é apresentada como um indicador representativo da expansão da infraestrutura de IA
  • No gráfico que usa o desempenho do Nvidia H100e como referência, a capacidade computacional global de IA cresceu mais de 3 vezes por ano desde 2022
    • Tomando 2021 como primeiro ano rastreado, a computação total de IA aumentou 30 vezes
  • A Nvidia foi a maior beneficiada dessa expansão
    • As GPUs da Nvidia agora respondem por mais de 60 por cento da capacidade computacional total de IA no mundo
    • Amazon e Google, que projetam seu próprio hardware de IA, vêm em seguida

Emissões de carbono do treinamento e da inferência em IA

  • As emissões de carbono do treinamento de IA já eram apontadas em anos anteriores, e a preocupação continua em 2026
  • O treinamento dos mais recentes grandes modelos de linguagem de fronteira é estimado como altamente emissor
    • A estimativa de emissões do treinamento do Grok 4 da xAI supera 72.000 toneladas em CO₂ equivalente
    • O GPT-4 da OpenAI é estimado em 5.184 toneladas, e o Llama 3.1 405B da Meta em 8.930 toneladas
  • Ray Perrault ressalta que esses números são estimativas e pede cautela na interpretação
    • “These estimates should be interpreted with caution”
    • No caso do Grok, há incerteza porque os insumos dependem fortemente de uma matéria da Forbes, declarações da xAI e outras fontes não verificáveis
    • A Epoch AI estima independentemente as emissões do Grok 4 em cerca de 140.000 toneladas de CO₂, um valor ainda maior
  • As emissões de inferência de IA também estão aumentando, com grandes diferenças entre modelos
    • O modelo de inferência menos eficiente emite mais de 10 vezes o do mais eficiente
    • O DeepSeek V3 consome cerca de 23 watts ao responder a prompts de tamanho médio
    • O Claude 4 Opus é estimado em cerca de 5 watts

Aceleração do desempenho em benchmarks de LLMs

  • Nos últimos 10 anos, o desempenho dos modelos de IA melhorou muito rapidamente, e os gráficos sugerem que esse ritmo está acelerando ainda mais
  • Em especial, os LLMs multimodais avançam a ponto de praticamente dominar benchmarks recém-criados quase de imediato
  • O avanço é mais íngreme na área de agentic AI
    • As duas linhas mais inclinadas à direita do gráfico são o benchmark OSWorld, que avalia uso autônomo de computadores
    • E o benchmark de engenharia de software SWE-Bench Verified, que avalia programação autônoma
  • O desempenho também melhora rapidamente no Humanity’s Last Exam
    • No Stanford AI Index 2025, o modelo líder, o o1 da OpenAI, tinha taxa de acerto de 8,8 por cento
    • Depois disso, a precisão subiu para 38,3 por cento
    • Em abril de 2026, modelos com maior pontuação, como Claude Opus 4.6 da Anthropic e Gemini 3.1 Pro do Google, já ultrapassavam 50 por cento
  • Ray Perrault chama atenção para a relação entre benchmarks e desempenho no mundo real
    • “We generally lack measures of how well a system (or agent) needs to function in a particular setting”
    • Ele observa que 75 por cento de acerto em um benchmark de raciocínio jurídico não basta para dizer se o sistema é adequado para o trabalho real em um escritório de advocacia

Expansão da pesquisa em IA na área da saúde

  • A adoção de IA em pesquisa médica cresce rapidamente
  • O número de artigos sobre descoberta de fármacos com IA mais que dobrou nos últimos dois anos
  • O número de artigos sobre IA biomédica multimodal, que lida ao mesmo tempo com imagens médicas e texto, ficou 2,7 vezes maior do que há dois anos

Limites na leitura de relógios analógicos

  • Apesar da melhora acelerada em algumas áreas, persistem fraquezas em tarefas gerais como leitura de relógios analógicos e compreensão de calendário
  • No ClockBench, que mede a capacidade de LLMs multimodais de ler relógios analógicos, até o melhor modelo acerta só metade das vezes
    • A probabilidade de acerto do GPT-5.4 da OpenAI é de 50 a 50
  • A maioria dos modelos fica muito abaixo disso
    • A precisão do Claude Opus 4.6 da Anthropic é de 8,9 por cento
    • O texto também destaca que esse mesmo modelo obteve uma das maiores pontuações no Humanity’s Last Exam
  • Ray Perrault relaciona isso a um problema mais geral
    • Quando se pergunta sobre combinações de linguagem com outras modalidades, como imagem e tom de voz, o componente linguístico pesa mais do que o esperado
    • Ele menciona linhas de pesquisa que indicam que isso pode chegar ao ponto de ignorar completamente informações não linguísticas

Recorde de investimento em IA em 2025

  • Junto com a melhora no desempenho dos modelos, o investimento em IA também subiu
  • Segundo dados da empresa de análise de IA Quid, o investimento em IA em 2025 bateu recorde com mais de US$ 581 bilhões
    • Mais que o dobro dos US$ 253 bilhões de 2024
    • E muito acima do recorde anterior de US$ 360 bilhões em 2021
  • Diferentemente de 2021, o recorde de 2025 foi puxado por investimento privado em empresas de IA, e não por fusões e aquisições
  • A maior parte do capital foi para os EUA
    • No ano passado, o investimento em IA nos EUA superou US$ 344 bilhões

O foco dos engenheiros de software em IA

  • No GitHub, o número de projetos relacionados a IA disparou para 5,58 milhões até 2025
    • Cerca de 5 vezes mais do que em 2020
    • Um aumento de 23,7 por cento em relação a 2024
  • Esse crescimento não parece ser apenas uma enxurrada de projetos gerados por IA
    • O número de projetos com 10 estrelas ou mais cresceu em ritmo semelhante
    • O total de stars recebido pelos projetos de IA também aumentou em ritmo parecido
    • O que sugere participação humana
  • Como exemplo popular, é citado o software open source de agentic AI OpenClaw
    • Ele acumulou 352.000 stars no GitHub
  • Ray Perrault reconhece que projetos de bots ou agentes de IA podem influenciar parte desse entusiasmo
    • “probably the intensity of GitHub use is highly correlated with the intensity of AI use”
    • Ele também menciona que, segundo o site de rastreamento de atividade Agents in the Wild, que não é citado no relatório de Stanford, boa parte da atividade no GitHub ainda parece ser realizada por humanos
  • O entusiasmo com IA também é forte em artigos de ciência da computação
    • O número de artigos de ciência da computação relacionados a IA mais que dobrou nos últimos 10 anos, de 102.000 para 258.000
    • Em 2024, mais de 68 por cento deles vinham da academia
    • Governo e indústria responderam por cerca de 11,5 por cento e 12,5 por cento, respectivamente
    • O crescimento foi puxado por machine learning, computer vision e generative AI

Incerteza sobre o impacto da IA no emprego

  • Com a disseminação da IA generativa, aumentou a ansiedade em relação ao emprego, mas os dados atuais mostram resultados mistos
  • É apresentado um gráfico com o número normalizado de trabalhadores por faixa etária em ocupações consideradas de maior risco de substituição por IA, como software developers e customer support agents
    • As vagas de entrada diminuíram
    • Cargos de nível intermediário e sênior se mantiveram ou cresceram
  • É difícil interpretar essas mudanças separadamente das tendências econômicas mais amplas
    • O relatório menciona aumento do desemprego em muitas ocupações no geral
    • Contra o esperado, a alta no desemprego entre os trabalhadores menos expostos à IA foi maior do que entre os mais expostos

Mudanças na percepção pública sobre IA

  • Em pesquisa da Ipsos, o otimismo em relação à IA aumentou de forma modesta, mas perceptível, nos últimos anos
    • As respostas de que os “benefits outweigh the drawbacks” subiram de 55 por cento em 2024 para 59 por cento
    • As respostas de que têm “good understanding” de IA passaram de 67 por cento para 68 por cento
  • Em perguntas semelhantes, a aceitação geral continua mais positiva do que negativa, mas alguns sentimentos negativos também cresceram
    • 52 por cento dos entrevistados disseram que produtos e serviços que usam IA os deixam “nervous”
  • Há grande variação entre países
    • China e países do Sudeste Asiático, incluindo Malaysia, Thailand, Indonesia e Singapore, mostram tendências mais positivas
    • As maiores viradas positivas no ano foram de Germany 12 por cento, France 10 por cento e the Netherlands 10 por cento
    • A Colombia registrou a maior virada negativa, com -6 por cento

Diferenças entre países na confiança na regulação de IA

  • Junto do aumento na percepção de que a IA terá impacto positivo, em alguns países também aparece forte desconfiança em relação à confiança na regulação governamental
  • Os EUA, em especial, apesar de liderarem o investimento em IA, estão entre os piores em confiança regulatória
    • Na pesquisa da Ipsos, apenas 31 por cento dos americanos disseram confiar que o governo regule a IA
  • Muitos países europeus e o Japão também mostram baixo nível de confiança
  • Países da Ásia e da América do Sul são os que mais confiam na capacidade do governo de regular IA
  • O contraste entre EUA e Colombia chama atenção
    • Nos EUA, há forte desconfiança em relação à regulação de IA, mas a maioria dos respondentes acha que os benefícios da IA superarão as desvantagens
    • Na Colombia, a confiança na regulação de IA é alta, mas o sentimento geral em relação à IA piorou
  • Como uma miniatura da narrativa de 2025 sobre IA, a qualidade do desempenho dos modelos e a percepção de seu impacto social variam amplamente conforme a tarefa e a pergunta

1 comentários

 
GN⁺ 10 일 전
Opiniões do Hacker News
  • Quero destacar que a percepção dos mais jovens sobre IA não é tão positiva quanto se imagina. Pela pesquisa da Gallup, o ceticismo parece bem claro

    • Vejo isso como um processo de descoberta gradual das limitações inerentes da IA
    • Acho que esse clima é passageiro. Como em toda transição tecnológica da história, no fim todos vão se adaptar e encontrar formas de uso
  • Mesmo que treinar um LLM de fronteira de última geração gere mais de 72 mil toneladas de emissões de carbono, ainda considero isso relativamente pequeno em comparação com as 38 bilhões de toneladas anuais do mundo todo

    • Não acho nem um pouco trivial que a emissão de treinamento de um único LLM equivalha às emissões anuais de 17 mil pessoas. Segundo o artigo, isso aumentou 8 vezes em relação ao ano passado, e é possível que haja uma subestimação de cerca de 2 vezes. Além disso, ficam de fora hardware, bots de coleta de dados de treinamento e o processamento de prompts no uso geral, e há vários desses modelos grandes e dezenas de milhares de modelos pequenos. A estimativa de que as emissões totais da IA neste ano ultrapassem 80 milhões de toneladas de CO2e é maior do que a de países inteiros como Austria ou Israel, então não é algo leve
    • Também dá para olhar assim. Se treinar um modelo custa 72 mil toneladas e esse modelo é usado por 100 milhões de pessoas, isso dá 0,00072 tonelada por pessoa. Pelo artigo, a emissão média anual de um ser humano é de mais de 5 toneladas, e a de um americano é de cerca de 18 toneladas, então somar 0,00072 aqui mal faria diferença perceptível. Claro, o custo de inferência é separado
    • Mesmo considerando que a xAI aparentemente fez questão de aumentar a intensidade de carbono, ainda acho que esse número é basicamente insignificante. Além disso, pegar dois dos principais modelos de 2025 e fazer com que ambos sejam o Grok parece meio engraçado, como se tivessem escolhido justamente modelos entre os menos úteis, menos usados e menos interessantes daquele ano
  • No fim, acho que ninguém vai ter um moat, então para mim esse gráfico parece mais alimentar o engano dos investidores

    • Acho que moats claramente vão surgir. Dá para concentrar orçamento na qualidade dos tokens, ou usar menos tokens, porém melhores. Somando isso a uma base de usuários e engajamento, cria-se um flywheel que dificulta muito a vida de novos entrantes. O mercado é complexo, e simplificar demais faz perder muita coisa
    • Também acho que capital e momentum por si só já são um moat. É verdade que os modelos chineses usam destilação, mas ainda não vimos muito treinamento de modelos de grande escala do zero. Ainda assim, isso pode mudar quando os chips ficarem mais baratos e os chips chineses entrarem de vez no jogo
  • A liderança da China em robótica também chama atenção, mas o que mais saltou aos meus olhos foi o gráfico de emissões do Grok

    • Quando leio no artigo que "essa estimativa deve ser interpretada com cautela e, no caso do Grok, depende fortemente de valores de entrada inferidos a partir de reportagens públicas", esse gráfico me parece um tanto duvidoso em termos de confiabilidade
  • Dizer que "engenheiros de software apostaram tudo em IA" só porque o número de projetos no GitHub aumentou me parece bem engraçado. Criar um repositório não faz de ninguém um engenheiro de software; se fizesse, até dá vontade de pensar que eu nem precisaria ter estudado outras coisas

    • Concordo que essa métrica não é boa e acho melhor trocá-la por algo como Claude Code GitHub Commits Over Time. Claro, isso também não é perfeito, mas pelo menos é uma métrica um pouco menos imperfeita e parece mostrar melhor algum fluxo realmente significativo
  • A parte de que "a China está na frente em robótica" parece ter pouca relação com IA. O gráfico da China segue quase a mesma trajetória desde 2012, então esse gráfico não combina muito com o contexto do artigo

    • Mesmo que o ChatGPT não existisse naquela época, eu diria que a própria tecnologia de ML que movia a robótica já funcionava suficientemente bem naquele período
  • A afirmação de que "o treinamento de modelos de IA pode emitir enormes quantidades de carbono" está certa, mas o que eu realmente queria ver é um gráfico mostrando quanto carbono é emitido globalmente na operação desses serviços

  • Tenho dificuldade em concordar com a frase de que "o desempenho dos modelos de IA melhorou a uma velocidade impressionante na última década, e esse progresso está acelerando". Na minha visão, quase todas as áreas já estão entrando em plateau. Áreas que começaram recentemente, como matemática competitiva, podem parecer menos assim por enquanto, mas pelos padrões de gráficos do passado, é bem provável que acabem estagnando de forma parecida

  • Ainda não entendo muito bem a expressão State of AI in 2026

  • Este post parece ser uma publicação duplicada. O original está neste tópico, e a fonte é o 2026 AI Index Report da Stanford HAI