14 pontos por GN⁺ 2026-03-08 | 1 comentários | Compartilhar no WhatsApp
  • Benchmark de desempenho de CPU e custo-benefício em 7 nuvens (44 tipos de VM), abrangendo instâncias de thread única, multithread, reservadas e spot
  • AMD EPYC Turin ficou em 1º lugar em quase todos os benchmarks, consolidando-se como a nova CPU topo de linha do ecossistema x86
  • Em desempenho por preço sob demanda, Hetzner e Oracle Cloud dominaram o topo, enquanto a AWS, exceto pelas instâncias com Turin, registrou o pior custo-benefício geral
  • Intel Granite Rapids resolveu os problemas de instabilidade de desempenho da geração anterior, Emerald Rapids, e entrega desempenho consistente, mas a diferença para o Turin ainda permanece grande
  • Ao usar instâncias spot, é possível obter cerca de 2x mais desempenho por dólar do que com reservas de 3 anos, tornando isso um meio essencial de otimização de custos em nuvem

Visão geral do benchmark e metodologia

  • Comparação entre 7 provedores: AWS, GCP, Azure, Oracle Cloud (OCI), Akamai (Linode), DigitalOcean e Hetzner, com 44 tipos de VM
  • Para manter a consistência na comparação de custos, todas as instâncias foram configuradas com base em 2 vCPU, 2 GB/vCPU de RAM e SSD de 30 GB
  • Em AMD e Intel, com SMT (hyper-threading), 2 vCPU = 1 núcleo físico; em ARM e algumas exceções x86 (AWS C8a, C7a, GCP t2d), 2 vCPU = 2 núcleos físicos
  • O preço sob demanda usa a região mais barata nos EUA, com valores de janeiro de 2026; é necessário verificar os preços atuais separadamente
  • Ferramentas de benchmark usadas: DKbench (benchmark principal, 19 cargas de trabalho de servidor baseadas em Perl e C/XS), Geekbench 5, 7zip, NGINX, FFmpeg/libx264, OpenSSL RSA4096 (AVX512)
    • O Geekbench 6 não foi usado por ter sido considerado falho por projeto na forma de medir multicore
  • Para identificar a faixa de desempenho, instâncias foram criadas e medidas repetidamente em várias regiões, com indicação dos intervalos mínimo e máximo

Visão geral das faixas de desempenho por geração de CPU

  • AMD: Rome → Milan → Genoa → Turin (ordem geracional, da inferior para a superior)
  • Intel: Broadwell → Skylake → Cascade Lake → Ice Lake → Sapphire Rapids → Emerald Rapids → Granite Rapids
  • ARM: Ampere Altra → AmpereOne → AmpereOne M / AWS Graviton2 → Graviton3 → Graviton4 / Google Axion / Azure Cobalt 100
  • Tipos de CPU de gerações antigas, apesar do desempenho inferior, acabam sendo mais caros por causa do custo operacional, então é recomendável migrar para gerações mais novas sempre que possível

Resultados de desempenho em thread única

  • AMD EPYC Turin ficou em 1º lugar geral, com um nível de vantagem isolada inédito na história da série
    • A AWS C8a (Turin, SMT desativado) foi a configuração Turin mais rápida
    • No GCP, a c4d teve grande variação de desempenho, e a n4d, mais barata, foi superior em consistência
  • Intel Granite Rapids: corrigiu os problemas de instabilidade de desempenho do Emerald Rapids causados por dependência de boost clock e disputa de nó, entregando desempenho mais alto e consistente
    • No GCP, o Emerald Rapids perde desempenho claramente com aumento de carga, e o GCP oferece separadamente um modo de "desempenho consistente" para isso (boost desativado)
  • No campo ARM, o Google Axion alcançou desempenho de thread única no nível do EPYC Genoa, liderando entre servidores ARM
    • O Azure Cobalt 100 fica entre o Graviton3 e o Graviton4
    • O Ampere AmpereOne M melhorou levemente, ficando no nível do AWS Graviton3
  • Entre os provedores mais baratos, a DigitalOcean mostra queda nos indicadores de desempenho; Akamai e Hetzner têm bom resultado com instâncias Milan, mas o nível de desempenho não é garantido no momento da criação da instância

Desempenho multithread e escalabilidade

  • Escalabilidade (Scalability): instâncias ARM e de CPU compartilhada ficam próximas de ~100%, ou seja, com 2 vCPU entregam o dobro do desempenho de 1 vCPU
    • Instâncias x86 com SMT ficam abaixo de 100%, e quanto mais perto de 50%, menor o ganho de desempenho
    • A AMD tradicionalmente tem melhor eficiência de SMT que a Intel, e a Intel vem melhorando desde o Ice Lake
    • As instâncias Turin da Akamai registraram uma escalabilidade excepcionalmente alta de 71,9% mesmo com SMT, por motivo ainda indefinido
    • Instâncias com SMT desativado: AWS C7a (Genoa), C8a (Turin), GCP t2d (Milan)
  • Líder em multithread: a AWS C8a baseada em Turin com SMT desativado dominou o gráfico
    • O Google Axion ficou no mesmo nível da Genoa C7a, que havia liderado a comparação anterior
    • O Graviton4 veio logo atrás, seguido pelo Cobalt 100
    • Na parte inferior ficaram Intel Broadwell/Skylake/Ice Lake e AMD Rome
  • 7zip: o Turin liderou no geral, mas Axion e Graviton4 superaram o Turin na descompressão; o Cobalt 100 teve o melhor desempenho isolado em descompressão
  • NGINX (100 connections): a AWS C8a ficou quase 2x à frente do 2º lugar, e o Granite Rapids também teve ótimo resultado
  • FFmpeg H264: Turin em 1º, Granite Rapids próximo em thread única; usando 2 núcleos completos, o Axion superou a maioria das instâncias SMT (núcleo único), exceto o Turin
  • OpenSSL RSA4096 (AVX512): a AMD superou a Intel na própria extensão da Intel; Turin e Genoa ficaram à frente de todas as gerações Intel; Granite Rapids não mostrou grande melhora frente ao Ice Lake; ARM e AMD antigos, sem suporte a AVX512, ficaram abaixo do Intel Skylake

Comparação de desempenho/preço sob demanda

  • Thread única: Hetzner (disparada em 1º ao incluir shared core) e Oracle lideraram, seguidas por GCP n4d (Turin) e Linode
    • A AWS teve o pior custo-benefício em sob demanda; dentro da AWS, o Turin foi a melhor opção, mas as gerações antigas ficaram no fim da tabela
  • Multithread: as instâncias ARM da Oracle (AmpereOne M) ficaram em 1º, com shared core da Hetzner e da Linode logo atrás
    • Google Axion, Azure Cobalt 100 e os droplets da DigitalOcean formaram a segunda faixa
  • O shared core da Hetzner (CPX22, CAX11), apesar das restrições de disponibilidade (limitado a regiões EU/AP e com frequentes faltas de estoque), teve preço por unidade de desempenho muito superior ao dos demais provedores

Comparação de desempenho/preço com reserva

  • Reserva de 1 ano: o Turin do GCP (n4d, c4d) ficou próximo da Oracle, e o Azure Cobalt 100 e o Genoa também mostraram custo-benefício competitivo
    • Na AWS, a família C8a foi a melhor opção, e serviços de terceiros como o DoIT Flexsave permitem aplicar preço de 1 ano mesmo sem reserva
  • Reserva de 3 anos em thread única: o Turin do GCP ficou ligeiramente à frente das VMs dedicadas da Oracle e da Hetzner; a Azure também se mostrou competitiva com Cobalt 100 e Genoa
    • A AWS, com compromisso de 3 anos, ainda entrega custo-benefício melhor do que Akamai e DigitalOcean
  • Reserva de 3 anos em multithread: o Azure Cobalt 100 ficou em 1º de forma inesperada; GCP e OCI ARM vieram em seguida; AWS e GCP Turin também ficaram próximas do topo

Comparação de desempenho/preço de instâncias spot/preemptíveis

  • Instâncias spot são apresentadas como a única forma na nuvem de se aproximar do custo de operar seus próprios servidores
    • Aviso antes do recolhimento da instância: AWS e OCI 2 minutos, Azure e GCP 30 segundos
    • A Oracle mantém desconto fixo de 50%, enquanto nas outras 3 o desconto varia muito conforme região e momento
  • Spot em thread única: o Turin da Oracle fica sempre no topo graças ao desconto fixo; GCP e Azure oferecem os descontos mais agressivos (Genoa, Cobalt 100)
    • Ao usar spot, é possível obter cerca de 2x mais desempenho por dólar do que com reserva de 3 anos
  • Spot em multithread: o Azure Cobalt 100 ficou em 1º, o OCI AmpereOne M em 2º; no GCP, a t2d (Milan) pode ter o melhor custo-benefício dependendo da região; a AWS entrou no Top 10 por pouco com o Turin

Avaliação geral por provedor de nuvem

  • AWS: perdeu o posto de melhor desempenho ARM geral para o Google Axion, já que o Graviton5 ainda está em beta privado, mas manteve o melhor desempenho x86 com o C8a (Turin sem SMT); sob demanda é cara frente aos concorrentes, mas pode ser competitiva com spot, reserva e Flexsave; como o desconto em instâncias antigas é pequeno, o C8a é a melhor opção até em spot
  • GCP: recomendadas as instâncias ARM de 4ª geração (Axion c4a) e AMD (Turin n4d, c4d); a n4d custa menos e tem desempenho quase idêntico à c4d; Granite Rapids é inacessível sem custo extra de SSD local (atualmente sem suporte a min_cpu_platform); em spot, o melhor tipo de instância varia por região
  • Azure: o ARM próprio Cobalt 100 tem desempenho ligeiramente inferior ao Google Axion, mas com preço competitivo; Turin e Granite Rapids ainda estavam em preview privado no momento da escrita; ficou inesperadamente em 1º em multithread com reserva de 3 anos
  • Oracle: a VM ARM gratuita de 4 núcleos (A1) é fortemente recomendada para projetos pequenos; as instâncias pagas também têm custo-benefício sob demanda comparável ao preço reservado de 1 a 3 anos dos Big 3; AmpereOne M (A4) e Turin E6 são as melhores opções para ARM e x86, respectivamente; a A4 tem regiões disponíveis limitadas
  • Akamai (Linode): o Linode de shared core fica atrás apenas de Hetzner e Oracle em custo-benefício sob demanda; como não é possível escolher a CPU na criação, é preciso confirmar manualmente se é Milan em /proc/cpuinfo; instâncias dedicadas permitem definir a geração (G8 = Turin), mas o desempenho em thread única é excepcionalmente baixo
  • DigitalOcean: sem upgrades há muito tempo, caiu no ranking de desempenho e também apresenta sinais de sobrecarga; ainda mantém conveniências como upgrade fácil de instância (mudança de tipo com um clique)
  • Hetzner: boa reputação entre usuários de longo prazo, sem overprovisioning excessivo (exceto CX23); shared core CPX22 (Genoa) e CAX11 (ARM Altra) têm o melhor custo-benefício, mas ficam limitados às regiões EU/AP e costumam esgotar; o core dedicado CCX13 apresenta variação de desempenho entre datacenters

Recomendações finais

  • Menor orçamento: camada gratuita da Oracle → Hetzner (se regiões EU/AP forem aceitáveis) → instâncias spot (Azure ARM, Oracle e GCP ARM/AMD)
  • Melhor custo-benefício com CPU não compartilhada (sob demanda): Oracle AmpereOne M A4 ou Turin E6; com reserva, Azure Dpls_v6, GCP c4a/n4d e AWS C8a também são competitivas
  • Melhor desempenho: a AWS C8a (Turin sem SMT) oferece o maior desempenho por instância; todas as instâncias dos grandes provedores com Turin formam o segundo melhor grupo

1 comentários

 
GN⁺ 2026-03-08
Comentários no Hacker News
  • Rodamos testes em larga escala no nosso CI. Usamos instâncias AMD Turin da GCP, que o artigo também dizia estar entre as mais rápidas.
    Mas, surpreendentemente, o AMD EPYC 4565p chega a ser até 2x mais rápido em desempenho single-core do que o Turin na nuvem.
    Na GCP o teste levou 2 minutos, mas no 4565p terminou em 1 minuto. Na nuvem ficou em 4,1 GHz, enquanto na minha máquina sustentou boost de 5,1 GHz.
    Na GCP são 8 vCPU por US$ 130/mês (instância spot), enquanto meu 4565p é uma CPU de US$ 500 com 32 vCPU, e a máquina inteira custou menos de US$ 2.000.
    Para CI, acho muito mais eficiente colocar em rack por conta própria. Em alguns meses você compensa o custo da nuvem, e ainda tem o dobro do desempenho.

    • Na Hetzner, uma configuração de 8 vCPU fica na faixa de €10 a €48 por mês, e por €104 dá para ter Ryzen 9 7950X3D (quase igual ao 4565p) + 128 GB DDR5 + 2x SSD de 2 TB.
      As margens das empresas europeias são muito menores do que as dos EUA. Fazendo a conta simples, seriam 17 meses; considerando até custo de colocation, só empataria em uns 8 anos.
    • Se um equipamento de US$ 2.000 tiver custo de colo de US$ 100 por mês, essa conta de empatar em poucos meses não faz sentido.
      Mesmo com colo grátis, ainda levaria mais de 1 ano.
    • Eu operava um site de comparação de preços (baremetalsavings.com).
      Hoje em dia desenvolvedores acham bare metal difícil, mas na prática a nuvem é igualmente ou ainda mais complexa.
    • Datapacket e OVH também oferecem 4565p. Essa CPU é uma joia escondida. Em quase todas as cargas de trabalho, está no topo tanto em desempenho quanto em custo-benefício.
    • Blacksmith.sh segue uma ideia parecida. A diferença é que você não precisa hospedar o hardware por conta própria.
  • Trabalho na equipe de VM do Google Compute Engine. Este post foi um benchmark realmente muito bem organizado.

    1. Turin é monstruoso.
    2. Em performance por preço, a Hetzner é excelente, especialmente para projetos pequenos.
    3. A DigitalOcean ainda tem muito hardware antigo, mas recentemente renovou parte da frota com processadores Xeon de 5ª geração.
    • A Hetzner realmente brilha em servidores dedicados.
  • Genoa já tinha sido um grande salto sobre Milan, e Turin é ainda maior. A AMD está mandando muito bem ultimamente. Palmas para a equipe da Lisa Su.

    • Mas a AMD ainda é fraca em ecossistema de software. É por isso que a NVIDIA virou uma empresa de trilhões de dólares.
      Aceleradores como o MI300 são competitivos no papel, mas a pilha de software é fraca e ninguém se interessa.
  • Vultr e HostHatch também são opções a considerar.

  • Fiz algumas comparações com meu PC gamer (9800X3D, 8 núcleos a 5,2 GHz).
    Pelos resultados de 7-Zip e Geekbench, a CPU desktop é muito mais rápida tanto em single-thread quanto em multithread.
    O desempenho single-thread da C8A é ok, mas o desempenho de memória é péssimo.

  • Fico curioso sobre como é fácil sair da Oracle Cloud. Os benchmarks foram bons, mas ouvi dizer que o lock-in de licenciamento é pesado.

    • Eu escrevi aquele post. Não recomendo Oracle de jeito nenhum. A política de preços e o lock-in são severos demais.
      Dito isso, como o custo é tão baixo, mantenho projetos pequenos na Oracle Cloud. Não uso DBaaS, só VM Linux mesmo.
    • Uso Oracle Cloud no trabalho há anos. Desde que você não use DBaaS proprietário, sair é até fácil, e o tráfego de egress também é gratuito.
      Mas a UX é realmente horrível.
    • Solicitei o trial, mas em poucos dias a conta foi fechada e a VM foi apagada. Nem consegui adicionar informações de pagamento.
      O time comercial continuou entrando em contato, mas nada foi resolvido. No Reddit, muita gente relatou a mesma experiência.
    • Testei o tier gratuito, mas a criação de conta era complicada e eles desligavam a instância por baixo uso. Era uma interface ultrapassada no geral.
    • Toda vez que faço login na Oracle Cloud, penso: “por que preciso fazer login aqui mesmo?”.
  • Ainda uso CPUs EPYC ROME que comprei por algumas centenas de dólares. A eficiência energética não é boa, mas em multithread ainda ficam acima do 9950X.

  • Fico feliz em ver que minha fibra de 250/250 por 36 euros ainda é bastante competitiva.

  • Ainda parece que ter o próprio hardware é muito mais barato. Especialmente em ambiente de desenvolvimento/teste, imagino que seja ainda mais verdade.
    Não entendo por que grandes empresas vão para a nuvem mesmo tendo custo de capital menor que o da AWS.

    • Quando a nuvem surgiu, pedir servidor podia levar 3 meses, e os custos de energia, refrigeração e mão de obra de operação eram altos.
      Mas hoje a estrutura já inclui até o custo dos engenheiros da AWS, então na prática continua sendo caro.
      Hoje em dia já existem servidores com até 288 núcleos, então operar com folga própria é totalmente viável.
    • Migrei dois clientes para colocation e a redução de custos foi dramática.
      Dá tranquilamente para rodar as cargas principais em hardware próprio e usar armazenamento em nuvem em paralelo.
    • A nuvem obviamente sempre vai ser mais cara do que hardware próprio. Ainda assim, ela é escolhida por multirregião e facilidade de gestão.
      Na prática, muitas vezes o motivo maior é “porque todo mundo faz”.
    • Também há muitos relatos do tipo “saímos da AWS para a Hetzner e reduzimos 89% dos custos”.
      Veja um texto relacionado
    • Mas manter e atualizar hardware por conta própria tem um overhead operacional alto, então a flexibilidade da nuvem continua atraente.
  • É irônico que a Oracle pareça uma opção com bom custo-benefício, mas não acho que dê para confiar nisso por muito tempo.