8 pontos por GN⁺ 2025-12-03 | 7 comentários | Compartilhar no WhatsApp
  • Sobre o forte aumento de investimento em data centers de IA por parte de empresas globais, o CEO da IBM, Arvind Krishna, levantou fortes dúvidas sobre a lucratividade
  • Ele afirmou que, com os custos atuais, construir um data center de 1 gigawatt exige cerca de US$ 80 bilhões, e que empresas líderes estão mirando entre 20 e 30 gigawatts
  • Globalmente, ele calculou que há cerca de 100 gigawatts em investimento de infraestrutura de IA em andamento, com um total de cerca de US$ 8 trilhões
  • Krishna avaliou que, considerando a depreciação de 5 anos dos chips de IA e o alto custo de capital, seria necessário um lucro anual de US$ 800 bilhões, o que ele considera irrealista
  • Segundo ele, com a tecnologia atual, a chance de alcançar a AGI (inteligência artificial geral) é de apenas 0% a 1%, e ele destacou que há limites para depender apenas de LLMs

Aumento de investimento em data centers de IA e debate sobre lucratividade

  • Grandes empresas de IA estão colocando bilhões de dólares em data centers em meio à competição pela AGI
    • A Meta citou repetidamente “capacidade” e “infraestrutura de IA” em seu último relatório de resultados
    • A Google anunciou um plano de construir data centers espaciais em longo prazo
  • Krishna afirmou que “a chance de esses investimentos retornarem em lucro é baixa”
    • Ele frisou que se trata de um “cálculo com base nos custos de hoje”, assumindo que os custos futuros são incertos

Cálculo de custos de Krishna e análise de lucratividade

  • Ele explicou que a construção de um data center de 1 gigawatt requer cerca de US$ 80 bilhões
    • Se uma empresa estiver investindo em 20 a 30 gigawatts, isso gera US$ 1,5 trilhão em capex
  • Há investimento global em torno de 100 gigawatts de infraestrutura, no valor de cerca de US$ 8 trilhões
    • Nesse caso, seriam necessários US$ 800 bilhões de lucro anual apenas para pagar juros
  • Ele afirmou categoricamente que “não existe jeito de gerar esse lucro”

Depreciação e risco de investimento

  • Destacou a depreciação de 5 anos dos chips de IA como principal risco
    • “Depois de 5 anos, é necessário descartar os chips e repor tudo novamente”, disse
  • Michael Burry também criticou o problema da depreciação da Nvidia, o que ajudou a provocar a queda das ações de IA
  • Krishna avaliou que essa estrutura de depreciação torna o ROI (retorno sobre investimento) ainda pior

Ceticismo sobre a chance de atingir a AGI

  • Krishna definiu a probabilidade de atingir a AGI com a tecnologia atual em 0% a 1%
    • “Sem uma nova ruptura tecnológica, isso é impossível”, disse
  • Ele sugeriu que os LLMs (modelos de linguagem de grande porte) têm limites e propôs que devem ser combinados com ‘hard knowledge’
  • O CEO da OpenAI, Elon Sutskever, também enfatizou a transição para pesquisa, dizendo que “a era do scaling acabou”

Outras visões céticas no mercado

  • Marc Benioff chamou o ímpeto pela AGI de “uma espécie de hipnose”
  • Andrew Ng disse que a AGI está “supervalorizada”
  • O CEO da Mistral, Arthur Mensch, definiu a AGI como uma “estratégia de marketing”

Avaliação final do CEO da IBM

  • Krishna acredita que as ferramentas de IA atuais podem gerar valor em escala trilionária na produtividade empresarial
  • No entanto, destacou que alcançar a AGI exigirá avanços técnicos além do caminho atual dos LLMs
  • “Mesmo que isso aconteça, a chance é só de ‘talvez’ (maybe)”, manteve, adotando postura cautelosa

7 comentários

 
un0haep337 2025-12-04

Concordo que a escala atual dos investimentos e dos planos para data centers de IA é excessiva, mas plano é só plano, e numa situação em que ninguém consegue prever a velocidade nem a direção do avanço tecnológico, é arriscado fazer uma afirmação tão categórica, e isso também não me parece um bom julgamento da parte de um CEO.

 
halfenif 2025-12-04

(Em alguma entrevista) achei marcante a pergunta feita ao presidente do SKT, Chey Tae-won, sobre se ele achava que a IA era uma bolha, e a resposta dele também.

A nuance de que me lembro é: "Mesmo que isso seja uma bolha, não dá para ficar de fora quando todo mundo está fazendo."

 
aer0700 2025-12-06

Sincerão, hein

 
mhj5730 2025-12-04

Se olhar para o dinheiro que está entrando, parece que a eficiência vai chegar a todas as áreas em que ela pode ser aplicada.
[Custo de energia, eficiência de parâmetros de LLM, cache etc.] Acho que isso pode acabar fazendo com que o custo final seja menor do que o esperado. Hum... essa postura pessimista em relação à inteligência artificial (~~ isso nunca vai dar certo) sempre acaba sendo quebrada.

Mesmo olhando só para os LLMs, para mim isso parece um milagre.

 
bus710 2025-12-04

Em termos numéricos, é isso mesmo...
Mas será que os EUA têm algo além de LLMs e data centers capaz de impulsionar a economia?

 
love7peace 2025-12-03

Quase exatamente o mesmo que eu penso... no nosso caso, basta vender muita memória e pronto

 
GN⁺ 2025-12-03
Opiniões do Hacker News
  • Cita uma fala de Steve Jobs de que, em 1958, a IBM deixou passar a tecnologia de xerography, 10 anos depois ignorou os minicomputadores e, mais 10 anos depois, subestimou o Apple II
    Vendo agora o CEO da IBM dizer que “investimento em datacenters de IA não dá retorno”, parece que a IBM ainda continua sem ler bem o futuro
    Materiais relacionados: Steve Jobs 1983 Keynote, história da invenção da Xerox

    • A IBM já tinha lançado em 1975 um computador pessoal chamado IBM 5100. O problema é que ele era caro demais
      Depois, o IBM PC (5150) baixou o preço usando componentes comerciais, e esse foi o segredo do sucesso
      IBM 5100 wiki
    • Não vejo qual é a relação entre esses casos do passado e o julgamento do CEO agora
    • Acho inútil focar no mensageiro em vez da mensagem. A Xerox já ficou para trás, mas a IBM ainda é uma empresa de US$ 300 bilhões
      O Apple II também teve impacto mínimo no mercado corporativo. Além disso, isso foi há 50 anos, separado da discussão atual sobre ROI de investimento em IA
    • A DEC desapareceu, e a Xerox vale 1/1000 da capitalização de mercado da IBM. A abertura da arquitetura de PC da IBM foi justamente um dos fatores que a levaram a dominar o mercado
  • O CEO da IBM disse que “chips de IA precisam ser descartados depois de 5 anos”, mas isso parece uma premissa categórica demais
    Se o hardware continuar estável depois de 5 anos, existe margem para lucrar operando modelos antigos a baixo custo

    • Michael Burry argumenta justamente o contrário: que 5 anos é um período de depreciação generoso demais. Na prática, seriam 2 a 3 anos
      tweet de Burry
    • O período padrão de depreciação para hardware de servidor é de 5 anos, então não é um problema exclusivo de GPUs
    • Servidores antigos continuam funcionando bem, mas, por causa da eficiência energética, perdem viabilidade econômica frente às tecnologias mais novas
    • Como no caso da mineração de criptomoedas, a demanda por GPU pode ter um ciclo de substituição mais rápido com a chegada de ASICs.
      No fim, o ciclo de 5 anos terá grande impacto na decisão de investimento
    • Se concorrentes usarem chips mais eficientes, no fim será preciso descartar o hardware antigo e fazer upgrade
  • Acho difícil que todo esse investimento em datacenters de IA realmente se concretize. Só a demanda de energia já impõe limites

    • Os países ocidentais têm baixa margem de reserva de energia, mas a China mantém 100% de reserva, então consegue responder a aumentos bruscos de demanda
    • Mas os CEOs provavelmente já pesquisaram isso o suficiente, então é difícil dizer que sabemos mais do que eles
  • A Gartner prevê que os gastos globais com IA chegarão a US$ 1,5 trilhão em 2025
    Em relação ao PIB mundial (US$ 111 trilhões em 2024), isso não parece tão excessivo
    A vida útil estimada do investimento em IA é de 6 a 8 anos, então, sem pessimismo excessivo, parece uma escala razoável
    relatório da Gartner
    dados de PIB do Banco Mundial

    • Mas se os investidores realmente conseguirão capturar esse ganho adicional de PIB é outra questão
    • GPUs ficam obsoletas muito antes de 6 a 8 anos, então o prazo para recuperar o investimento pode ser curto
  • Se serviços de LLM usarem por padrão um modo de resposta curta (menos de 200 tokens), com cache de prompts e roteamento para modelos pequenos,
    acredito que seja possível reduzir o consumo de energia em mais de 70%
    Na escala do ChatGPT, a conta anual de eletricidade ficaria entre US$ 50 milhões e US$ 100 milhões, mas com esse método cairia para US$ 5 milhões a US$ 10 milhões
    Se a UE ou a Califórnia tornarem esse modo obrigatório, isso pode mudar bastante a economia dos datacenters

    • Nesse caso, fico me perguntando por que essa otimização de 90% de redução ainda não foi implementada
  • Há 10 anos, a IBM despejava anúncios de “Watson” com slogans como “Cognitive Finance”, mas hoje ninguém mais menciona isso
    Dá até a impressão de que talvez esteja incomodada por outros estarem liderando o boom atual de IA

    • A IBM também entrou cedo em IA e nuvem no passado, mas não conseguiu conquistar participação de mercado
      As demos tecnológicas eram impressionantes, mas não havia um modelo real de monetização
    • Consultores externos empurravam o Watson como solução para todo problema, mas na prática ele era caro e inútil
      Lembro de ter precisado montar eu mesmo um PoC para provar que não funcionava
    • Como a IBM passou por esses fracassos, talvez hoje tenha uma visão mais cética
      Ainda assim, considerando sua posição no mercado, não é uma opinião a ser totalmente ignorada
    • O fracasso do Watson não invalida o julgamento do CEO atual
    • Talvez a IBM esteja apenas fazendo uma avaliação realista de que “investimentos na casa do bilhão de dólares não entregam ROI”
  • Há algum fundamento na fala do CEO da IBM de que é difícil a IA dar lucro
    Pelos números da NVIDIA, com energia na faixa de 1 GW seria possível gerar 6,29×10^16 tokens por ano,
    e, se todo o texto da internet estiver na faixa de 10^14 tokens, os próprios dados podem virar um limite

    • Mas esse número parece subestimado demais. Se incluir dados de imagem e vídeo, a diferença será de várias ordens de magnitude
    • Incluindo tokens de imagem, acredito que a diferença será de pelo menos 5 ordens de magnitude
    • Ainda assim, não entendo bem por que esse cálculo leva à conclusão de que “a IA não consegue dar lucro”
  • Há três fatores de medo na discussão atual sobre IA

    1. medo de que seja uma bolha
    2. medo de que uma revolução real esteja chegando
    3. medo de ficar de fora dessa revolução (FOMO)
      A IBM, mais do que ter algum insight especial, só está refletindo parte desses medos
  • Acho que o investimento em infraestrutura de IA é parecido com o excesso de investimento em fibra óptica na bolha das pontocom
    No longo prazo ele tem valor, mas empresas individuais podem fracassar feio
    Mais importante que a quantidade de GPUs são a taxa de utilização e o modelo de receita

    • Em posição contrária, apresenta este post de blog sobre tema semelhante
    • Mas a fibra óptica tinha um valor de longo prazo evidente, enquanto GPUs têm uso mais limitado fora da IA, então o risco é maior
  • A IBM é uma empresa que perdeu oportunidades em hardware para consumidor, sistemas operacionais e nuvem
    O CEO pode até estar certo, mas é inadequado usá-lo como referência para prever o futuro