- Neste ano, as quatro maiores big techs globais estão gastando US$ 344 bilhões em AI, investindo a maior parte em data centers para treinar e operar grandes modelos de linguagem (LLMs)
- Os LLMs já conseguiram popularização em massa, a ponto de mais de 700 milhões de pessoas usarem o ChatGPT toda semana, mas o ritmo de avanço está desacelerando e limitações como alucinações, alto custo e ganhos mínimos de desempenho estão ficando evidentes
- A chinesa DeepSeek surpreendeu o mercado ao revelar modelos menores e mais eficientes, e empresas como Covariant (robótica) e Atman Labs (abordagem não baseada em deep learning) estão explorando AIs reativas ao mundo físico
- Pesquisas recentes indicam que a capacidade de raciocínio social dos LLMs depende de um pequeno número de características e é vulnerável até a pequenas mudanças; a OpenAI também reconheceu a possibilidade de falha em salvaguardas para grupos vulneráveis
- Especialistas criticam os LLMs por serem apenas “geradores de tokens” e alertam que a obsessão por uma única tecnologia pode aumentar a instabilidade do mercado, exigindo preparação para a ascensão de novas abordagens
O enorme investimento em AI e o foco nos LLMs
- Todo investidor sabe que “não se deve colocar todos os ovos na mesma cesta”, então por que o Vale do Silício está apostando em apenas uma única forma de construir inteligência artificial (AI)?
- As quatro maiores empresas de tecnologia do mundo devem investir US$ 344 bilhões em AI em 2025, concentrando-se principalmente na construção de data centers para treinar e executar grandes modelos de linguagem (LLMs)
- Os LLMs processam entradas multimodais como texto, áudio e conteúdo visual, e dependem da técnica de previsão do próximo token em uma sequência
- Chatbots pessoais estão crescendo rapidamente, algumas startups de AI começaram a gerar receita, e empresas também estão obtendo ganhos iniciais de produtividade com AI generativa
- Os LLMs são a primeira tecnologia de AI a atingir adoção em massa, e o ChatGPT tem mais de 700 milhões de usuários por semana
- Algumas startups chegaram ao ponto de equilíbrio, mas em áreas sensíveis como saúde e direito ainda há limites para conquistar confiança por causa do problema das alucinações
O risco da obsessão por uma única tecnologia
- No entanto, concentrar-se em uma só tecnologia é arriscado, e há casos passados de fracasso, como a BlackBerry, que insistiu no teclado físico e foi superada pela tela sensível ao toque da Apple, e o Yahoo, cuja aposta em portais perdeu para o domínio da busca do Google
- Os LLMs também correm o risco de seguir esse mesmo caminho, e se uma nova abordagem de AI surgir, o enorme volume de investimento pode ficar encalhado
- Em janeiro, a chinesa DeepSeek revelou um LLM menor e mais eficiente, abriu sua arquitetura e surpreendeu o mercado, demonstrando o potencial de abordagens não convencionais
A busca por abordagens alternativas
- O avanço da AI acontece pela combinação de insights do passado com novas ideias, e até a busca por máquinas superinteligentes exige uma abordagem diversificada
- Startups como a Covariant estão saindo do foco em LLMs ao desenvolver software de percepção espacial em vez de apenas analisar padrões de dados
- Empresas de robótica, drones, descoberta de fármacos e modelagem climática precisam de respostas físicas em tempo real, o que as afasta do foco exclusivo em LLMs
- A britânica Atman Labs está resgatando ideias esquecidas de antes do deep learning, refletindo a abordagem inicial multitrilha do Google DeepMind (por exemplo, AlphaGo e aprendizado por reforço)
Limites dos LLMs e problemas de confiabilidade
- Agora começam a surgir rachaduras na lógica dos grandes modelos de linguagem: de custos extremamente altos até perspectivas de retornos decrescentes
- Os modelos mais recentes da OpenAI e do Google são apenas um pouco melhores do que os anteriores, mesmo com muito mais dinheiro sendo investido neles
- Ainda assim, as alucinações não desaparecem, o que se torna um obstáculo para adoção em empresas em áreas como medicina e análise jurídica
- Um estudo recente da Nature mostra que a capacidade de raciocínio social dos modelos de linguagem depende de um número muito pequeno de características e pode colapsar com pequenas alterações, levantando questões fundamentais sobre confiabilidade
- A OpenAI reconheceu a possibilidade de colapso de salvaguardas para grupos vulneráveis em conversas longas, e de fato houve um caso em que foram fornecidas instruções de automutilação a um adolescente
Críticas do setor e perspectivas
- Fei-Fei Li: “Na natureza não existe linguagem, e o mundo segue leis físicas”, apontando os limites de uma abordagem centrada na linguagem
- Alex Karp (CEO da Palantir): criticou que “o Vale do Silício exagerou no marketing dos LLMs”
- Yann LeCun: os LLMs são um ‘beco sem saída’ para máquinas mais inteligentes, não passam de “geradores de tokens” e não conseguem entender o ambiente físico ao redor nem planejar com antecedência
- Em conclusão, os LLMs vão continuar existindo, mas insistir em uma solução única é arriscado, e investidores e empresas devem se preparar para a possibilidade de uma mudança para um novo paradigma tecnológico
Ainda não há comentários.