- Sobre o forte aumento de investimento em data centers de IA por parte de empresas globais, o CEO da IBM, Arvind Krishna, levantou fortes dúvidas sobre a lucratividade
- Ele afirmou que, com os custos atuais, construir um data center de 1 gigawatt exige cerca de US$ 80 bilhões, e que empresas líderes estão mirando entre 20 e 30 gigawatts
- Globalmente, ele calculou que há cerca de 100 gigawatts em investimento de infraestrutura de IA em andamento, com um total de cerca de US$ 8 trilhões
- Krishna avaliou que, considerando a depreciação de 5 anos dos chips de IA e o alto custo de capital, seria necessário um lucro anual de US$ 800 bilhões, o que ele considera irrealista
- Segundo ele, com a tecnologia atual, a chance de alcançar a AGI (inteligência artificial geral) é de apenas 0% a 1%, e ele destacou que há limites para depender apenas de LLMs
Aumento de investimento em data centers de IA e debate sobre lucratividade
- Grandes empresas de IA estão colocando bilhões de dólares em data centers em meio à competição pela AGI
- A Meta citou repetidamente “capacidade” e “infraestrutura de IA” em seu último relatório de resultados
- A Google anunciou um plano de construir data centers espaciais em longo prazo
- Krishna afirmou que “a chance de esses investimentos retornarem em lucro é baixa”
- Ele frisou que se trata de um “cálculo com base nos custos de hoje”, assumindo que os custos futuros são incertos
Cálculo de custos de Krishna e análise de lucratividade
- Ele explicou que a construção de um data center de 1 gigawatt requer cerca de US$ 80 bilhões
- Se uma empresa estiver investindo em 20 a 30 gigawatts, isso gera US$ 1,5 trilhão em capex
- Há investimento global em torno de 100 gigawatts de infraestrutura, no valor de cerca de US$ 8 trilhões
- Nesse caso, seriam necessários US$ 800 bilhões de lucro anual apenas para pagar juros
- Ele afirmou categoricamente que “não existe jeito de gerar esse lucro”
Depreciação e risco de investimento
- Destacou a depreciação de 5 anos dos chips de IA como principal risco
- “Depois de 5 anos, é necessário descartar os chips e repor tudo novamente”, disse
- Michael Burry também criticou o problema da depreciação da Nvidia, o que ajudou a provocar a queda das ações de IA
- Krishna avaliou que essa estrutura de depreciação torna o ROI (retorno sobre investimento) ainda pior
Ceticismo sobre a chance de atingir a AGI
- Krishna definiu a probabilidade de atingir a AGI com a tecnologia atual em 0% a 1%
- “Sem uma nova ruptura tecnológica, isso é impossível”, disse
- Ele sugeriu que os LLMs (modelos de linguagem de grande porte) têm limites e propôs que devem ser combinados com ‘hard knowledge’
- O CEO da OpenAI, Elon Sutskever, também enfatizou a transição para pesquisa, dizendo que “a era do scaling acabou”
Outras visões céticas no mercado
- Marc Benioff chamou o ímpeto pela AGI de “uma espécie de hipnose”
- Andrew Ng disse que a AGI está “supervalorizada”
- O CEO da Mistral, Arthur Mensch, definiu a AGI como uma “estratégia de marketing”
Avaliação final do CEO da IBM
- Krishna acredita que as ferramentas de IA atuais podem gerar valor em escala trilionária na produtividade empresarial
- No entanto, destacou que alcançar a AGI exigirá avanços técnicos além do caminho atual dos LLMs
- “Mesmo que isso aconteça, a chance é só de ‘talvez’ (maybe)”, manteve, adotando postura cautelosa
7 comentários
Concordo que a escala atual dos investimentos e dos planos para data centers de IA é excessiva, mas plano é só plano, e numa situação em que ninguém consegue prever a velocidade nem a direção do avanço tecnológico, é arriscado fazer uma afirmação tão categórica, e isso também não me parece um bom julgamento da parte de um CEO.
(Em alguma entrevista) achei marcante a pergunta feita ao presidente do SKT, Chey Tae-won, sobre se ele achava que a IA era uma bolha, e a resposta dele também.
Sincerão, hein
Se olhar para o dinheiro que está entrando, parece que a eficiência vai chegar a todas as áreas em que ela pode ser aplicada.
[Custo de energia, eficiência de parâmetros de LLM, cache etc.] Acho que isso pode acabar fazendo com que o custo final seja menor do que o esperado. Hum... essa postura pessimista em relação à inteligência artificial (~~ isso nunca vai dar certo) sempre acaba sendo quebrada.
Mesmo olhando só para os LLMs, para mim isso parece um milagre.
Em termos numéricos, é isso mesmo...
Mas será que os EUA têm algo além de LLMs e data centers capaz de impulsionar a economia?
Quase exatamente o mesmo que eu penso... no nosso caso, basta vender muita memória e pronto
Opiniões do Hacker News
Cita uma fala de Steve Jobs de que, em 1958, a IBM deixou passar a tecnologia de xerography, 10 anos depois ignorou os minicomputadores e, mais 10 anos depois, subestimou o Apple II
Vendo agora o CEO da IBM dizer que “investimento em datacenters de IA não dá retorno”, parece que a IBM ainda continua sem ler bem o futuro
Materiais relacionados: Steve Jobs 1983 Keynote, história da invenção da Xerox
Depois, o IBM PC (5150) baixou o preço usando componentes comerciais, e esse foi o segredo do sucesso
IBM 5100 wiki
O Apple II também teve impacto mínimo no mercado corporativo. Além disso, isso foi há 50 anos, separado da discussão atual sobre ROI de investimento em IA
O CEO da IBM disse que “chips de IA precisam ser descartados depois de 5 anos”, mas isso parece uma premissa categórica demais
Se o hardware continuar estável depois de 5 anos, existe margem para lucrar operando modelos antigos a baixo custo
tweet de Burry
No fim, o ciclo de 5 anos terá grande impacto na decisão de investimento
Acho difícil que todo esse investimento em datacenters de IA realmente se concretize. Só a demanda de energia já impõe limites
A Gartner prevê que os gastos globais com IA chegarão a US$ 1,5 trilhão em 2025
Em relação ao PIB mundial (US$ 111 trilhões em 2024), isso não parece tão excessivo
A vida útil estimada do investimento em IA é de 6 a 8 anos, então, sem pessimismo excessivo, parece uma escala razoável
relatório da Gartner
dados de PIB do Banco Mundial
Se serviços de LLM usarem por padrão um modo de resposta curta (menos de 200 tokens), com cache de prompts e roteamento para modelos pequenos,
acredito que seja possível reduzir o consumo de energia em mais de 70%
Na escala do ChatGPT, a conta anual de eletricidade ficaria entre US$ 50 milhões e US$ 100 milhões, mas com esse método cairia para US$ 5 milhões a US$ 10 milhões
Se a UE ou a Califórnia tornarem esse modo obrigatório, isso pode mudar bastante a economia dos datacenters
Há 10 anos, a IBM despejava anúncios de “Watson” com slogans como “Cognitive Finance”, mas hoje ninguém mais menciona isso
Dá até a impressão de que talvez esteja incomodada por outros estarem liderando o boom atual de IA
As demos tecnológicas eram impressionantes, mas não havia um modelo real de monetização
Lembro de ter precisado montar eu mesmo um PoC para provar que não funcionava
Ainda assim, considerando sua posição no mercado, não é uma opinião a ser totalmente ignorada
Há algum fundamento na fala do CEO da IBM de que é difícil a IA dar lucro
Pelos números da NVIDIA, com energia na faixa de 1 GW seria possível gerar 6,29×10^16 tokens por ano,
e, se todo o texto da internet estiver na faixa de 10^14 tokens, os próprios dados podem virar um limite
Há três fatores de medo na discussão atual sobre IA
A IBM, mais do que ter algum insight especial, só está refletindo parte desses medos
Acho que o investimento em infraestrutura de IA é parecido com o excesso de investimento em fibra óptica na bolha das pontocom
No longo prazo ele tem valor, mas empresas individuais podem fracassar feio
Mais importante que a quantidade de GPUs são a taxa de utilização e o modelo de receita
A IBM é uma empresa que perdeu oportunidades em hardware para consumidor, sistemas operacionais e nuvem
O CEO pode até estar certo, mas é inadequado usá-lo como referência para prever o futuro