- Benchmark de desempenho de CPU e custo-benefício em 7 nuvens (44 tipos de VM), abrangendo instâncias de thread única, multithread, reservadas e spot
- AMD EPYC Turin ficou em 1º lugar em quase todos os benchmarks, consolidando-se como a nova CPU topo de linha do ecossistema x86
- Em desempenho por preço sob demanda, Hetzner e Oracle Cloud dominaram o topo, enquanto a AWS, exceto pelas instâncias com Turin, registrou o pior custo-benefício geral
- Intel Granite Rapids resolveu os problemas de instabilidade de desempenho da geração anterior, Emerald Rapids, e entrega desempenho consistente, mas a diferença para o Turin ainda permanece grande
- Ao usar instâncias spot, é possível obter cerca de 2x mais desempenho por dólar do que com reservas de 3 anos, tornando isso um meio essencial de otimização de custos em nuvem
Visão geral do benchmark e metodologia
- Comparação entre 7 provedores: AWS, GCP, Azure, Oracle Cloud (OCI), Akamai (Linode), DigitalOcean e Hetzner, com 44 tipos de VM
- Para manter a consistência na comparação de custos, todas as instâncias foram configuradas com base em 2 vCPU, 2 GB/vCPU de RAM e SSD de 30 GB
- Em AMD e Intel, com SMT (hyper-threading), 2 vCPU = 1 núcleo físico; em ARM e algumas exceções x86 (AWS C8a, C7a, GCP t2d), 2 vCPU = 2 núcleos físicos
- O preço sob demanda usa a região mais barata nos EUA, com valores de janeiro de 2026; é necessário verificar os preços atuais separadamente
- Ferramentas de benchmark usadas: DKbench (benchmark principal, 19 cargas de trabalho de servidor baseadas em Perl e C/XS), Geekbench 5, 7zip, NGINX, FFmpeg/libx264, OpenSSL RSA4096 (AVX512)
- O Geekbench 6 não foi usado por ter sido considerado falho por projeto na forma de medir multicore
- Para identificar a faixa de desempenho, instâncias foram criadas e medidas repetidamente em várias regiões, com indicação dos intervalos mínimo e máximo
Visão geral das faixas de desempenho por geração de CPU
- AMD: Rome → Milan → Genoa → Turin (ordem geracional, da inferior para a superior)
- Intel: Broadwell → Skylake → Cascade Lake → Ice Lake → Sapphire Rapids → Emerald Rapids → Granite Rapids
- ARM: Ampere Altra → AmpereOne → AmpereOne M / AWS Graviton2 → Graviton3 → Graviton4 / Google Axion / Azure Cobalt 100
- Tipos de CPU de gerações antigas, apesar do desempenho inferior, acabam sendo mais caros por causa do custo operacional, então é recomendável migrar para gerações mais novas sempre que possível
Resultados de desempenho em thread única
- AMD EPYC Turin ficou em 1º lugar geral, com um nível de vantagem isolada inédito na história da série
- A AWS C8a (Turin, SMT desativado) foi a configuração Turin mais rápida
- No GCP, a c4d teve grande variação de desempenho, e a n4d, mais barata, foi superior em consistência
- Intel Granite Rapids: corrigiu os problemas de instabilidade de desempenho do Emerald Rapids causados por dependência de boost clock e disputa de nó, entregando desempenho mais alto e consistente
- No GCP, o Emerald Rapids perde desempenho claramente com aumento de carga, e o GCP oferece separadamente um modo de "desempenho consistente" para isso (boost desativado)
- No campo ARM, o Google Axion alcançou desempenho de thread única no nível do EPYC Genoa, liderando entre servidores ARM
- O Azure Cobalt 100 fica entre o Graviton3 e o Graviton4
- O Ampere AmpereOne M melhorou levemente, ficando no nível do AWS Graviton3
- Entre os provedores mais baratos, a DigitalOcean mostra queda nos indicadores de desempenho; Akamai e Hetzner têm bom resultado com instâncias Milan, mas o nível de desempenho não é garantido no momento da criação da instância
Desempenho multithread e escalabilidade
- Escalabilidade (Scalability): instâncias ARM e de CPU compartilhada ficam próximas de ~100%, ou seja, com 2 vCPU entregam o dobro do desempenho de 1 vCPU
- Instâncias x86 com SMT ficam abaixo de 100%, e quanto mais perto de 50%, menor o ganho de desempenho
- A AMD tradicionalmente tem melhor eficiência de SMT que a Intel, e a Intel vem melhorando desde o Ice Lake
- As instâncias Turin da Akamai registraram uma escalabilidade excepcionalmente alta de 71,9% mesmo com SMT, por motivo ainda indefinido
- Instâncias com SMT desativado: AWS C7a (Genoa), C8a (Turin), GCP t2d (Milan)
- Líder em multithread: a AWS C8a baseada em Turin com SMT desativado dominou o gráfico
- O Google Axion ficou no mesmo nível da Genoa C7a, que havia liderado a comparação anterior
- O Graviton4 veio logo atrás, seguido pelo Cobalt 100
- Na parte inferior ficaram Intel Broadwell/Skylake/Ice Lake e AMD Rome
- 7zip: o Turin liderou no geral, mas Axion e Graviton4 superaram o Turin na descompressão; o Cobalt 100 teve o melhor desempenho isolado em descompressão
- NGINX (100 connections): a AWS C8a ficou quase 2x à frente do 2º lugar, e o Granite Rapids também teve ótimo resultado
- FFmpeg H264: Turin em 1º, Granite Rapids próximo em thread única; usando 2 núcleos completos, o Axion superou a maioria das instâncias SMT (núcleo único), exceto o Turin
- OpenSSL RSA4096 (AVX512): a AMD superou a Intel na própria extensão da Intel; Turin e Genoa ficaram à frente de todas as gerações Intel; Granite Rapids não mostrou grande melhora frente ao Ice Lake; ARM e AMD antigos, sem suporte a AVX512, ficaram abaixo do Intel Skylake
Comparação de desempenho/preço sob demanda
- Thread única: Hetzner (disparada em 1º ao incluir shared core) e Oracle lideraram, seguidas por GCP n4d (Turin) e Linode
- A AWS teve o pior custo-benefício em sob demanda; dentro da AWS, o Turin foi a melhor opção, mas as gerações antigas ficaram no fim da tabela
- Multithread: as instâncias ARM da Oracle (AmpereOne M) ficaram em 1º, com shared core da Hetzner e da Linode logo atrás
- Google Axion, Azure Cobalt 100 e os droplets da DigitalOcean formaram a segunda faixa
- O shared core da Hetzner (CPX22, CAX11), apesar das restrições de disponibilidade (limitado a regiões EU/AP e com frequentes faltas de estoque), teve preço por unidade de desempenho muito superior ao dos demais provedores
Comparação de desempenho/preço com reserva
- Reserva de 1 ano: o Turin do GCP (n4d, c4d) ficou próximo da Oracle, e o Azure Cobalt 100 e o Genoa também mostraram custo-benefício competitivo
- Na AWS, a família C8a foi a melhor opção, e serviços de terceiros como o DoIT Flexsave permitem aplicar preço de 1 ano mesmo sem reserva
- Reserva de 3 anos em thread única: o Turin do GCP ficou ligeiramente à frente das VMs dedicadas da Oracle e da Hetzner; a Azure também se mostrou competitiva com Cobalt 100 e Genoa
- A AWS, com compromisso de 3 anos, ainda entrega custo-benefício melhor do que Akamai e DigitalOcean
- Reserva de 3 anos em multithread: o Azure Cobalt 100 ficou em 1º de forma inesperada; GCP e OCI ARM vieram em seguida; AWS e GCP Turin também ficaram próximas do topo
Comparação de desempenho/preço de instâncias spot/preemptíveis
- Instâncias spot são apresentadas como a única forma na nuvem de se aproximar do custo de operar seus próprios servidores
- Aviso antes do recolhimento da instância: AWS e OCI 2 minutos, Azure e GCP 30 segundos
- A Oracle mantém desconto fixo de 50%, enquanto nas outras 3 o desconto varia muito conforme região e momento
- Spot em thread única: o Turin da Oracle fica sempre no topo graças ao desconto fixo; GCP e Azure oferecem os descontos mais agressivos (Genoa, Cobalt 100)
- Ao usar spot, é possível obter cerca de 2x mais desempenho por dólar do que com reserva de 3 anos
- Spot em multithread: o Azure Cobalt 100 ficou em 1º, o OCI AmpereOne M em 2º; no GCP, a t2d (Milan) pode ter o melhor custo-benefício dependendo da região; a AWS entrou no Top 10 por pouco com o Turin
Avaliação geral por provedor de nuvem
- AWS: perdeu o posto de melhor desempenho ARM geral para o Google Axion, já que o Graviton5 ainda está em beta privado, mas manteve o melhor desempenho x86 com o C8a (Turin sem SMT); sob demanda é cara frente aos concorrentes, mas pode ser competitiva com spot, reserva e Flexsave; como o desconto em instâncias antigas é pequeno, o C8a é a melhor opção até em spot
- GCP: recomendadas as instâncias ARM de 4ª geração (Axion c4a) e AMD (Turin n4d, c4d); a n4d custa menos e tem desempenho quase idêntico à c4d; Granite Rapids é inacessível sem custo extra de SSD local (atualmente sem suporte a
min_cpu_platform); em spot, o melhor tipo de instância varia por região
- Azure: o ARM próprio Cobalt 100 tem desempenho ligeiramente inferior ao Google Axion, mas com preço competitivo; Turin e Granite Rapids ainda estavam em preview privado no momento da escrita; ficou inesperadamente em 1º em multithread com reserva de 3 anos
- Oracle: a VM ARM gratuita de 4 núcleos (A1) é fortemente recomendada para projetos pequenos; as instâncias pagas também têm custo-benefício sob demanda comparável ao preço reservado de 1 a 3 anos dos Big 3; AmpereOne M (A4) e Turin E6 são as melhores opções para ARM e x86, respectivamente; a A4 tem regiões disponíveis limitadas
- Akamai (Linode): o Linode de shared core fica atrás apenas de Hetzner e Oracle em custo-benefício sob demanda; como não é possível escolher a CPU na criação, é preciso confirmar manualmente se é Milan em
/proc/cpuinfo; instâncias dedicadas permitem definir a geração (G8 = Turin), mas o desempenho em thread única é excepcionalmente baixo
- DigitalOcean: sem upgrades há muito tempo, caiu no ranking de desempenho e também apresenta sinais de sobrecarga; ainda mantém conveniências como upgrade fácil de instância (mudança de tipo com um clique)
- Hetzner: boa reputação entre usuários de longo prazo, sem overprovisioning excessivo (exceto CX23); shared core CPX22 (Genoa) e CAX11 (ARM Altra) têm o melhor custo-benefício, mas ficam limitados às regiões EU/AP e costumam esgotar; o core dedicado CCX13 apresenta variação de desempenho entre datacenters
Recomendações finais
- Menor orçamento: camada gratuita da Oracle → Hetzner (se regiões EU/AP forem aceitáveis) → instâncias spot (Azure ARM, Oracle e GCP ARM/AMD)
- Melhor custo-benefício com CPU não compartilhada (sob demanda): Oracle AmpereOne M A4 ou Turin E6; com reserva, Azure Dpls_v6, GCP c4a/n4d e AWS C8a também são competitivas
- Melhor desempenho: a AWS C8a (Turin sem SMT) oferece o maior desempenho por instância; todas as instâncias dos grandes provedores com Turin formam o segundo melhor grupo
1 comentários
Comentários no Hacker News
Rodamos testes em larga escala no nosso CI. Usamos instâncias AMD Turin da GCP, que o artigo também dizia estar entre as mais rápidas.
Mas, surpreendentemente, o AMD EPYC 4565p chega a ser até 2x mais rápido em desempenho single-core do que o Turin na nuvem.
Na GCP o teste levou 2 minutos, mas no 4565p terminou em 1 minuto. Na nuvem ficou em 4,1 GHz, enquanto na minha máquina sustentou boost de 5,1 GHz.
Na GCP são 8 vCPU por US$ 130/mês (instância spot), enquanto meu 4565p é uma CPU de US$ 500 com 32 vCPU, e a máquina inteira custou menos de US$ 2.000.
Para CI, acho muito mais eficiente colocar em rack por conta própria. Em alguns meses você compensa o custo da nuvem, e ainda tem o dobro do desempenho.
As margens das empresas europeias são muito menores do que as dos EUA. Fazendo a conta simples, seriam 17 meses; considerando até custo de colocation, só empataria em uns 8 anos.
Mesmo com colo grátis, ainda levaria mais de 1 ano.
Hoje em dia desenvolvedores acham bare metal difícil, mas na prática a nuvem é igualmente ou ainda mais complexa.
Trabalho na equipe de VM do Google Compute Engine. Este post foi um benchmark realmente muito bem organizado.
Genoa já tinha sido um grande salto sobre Milan, e Turin é ainda maior. A AMD está mandando muito bem ultimamente. Palmas para a equipe da Lisa Su.
Aceleradores como o MI300 são competitivos no papel, mas a pilha de software é fraca e ninguém se interessa.
Vultr e HostHatch também são opções a considerar.
Fiz algumas comparações com meu PC gamer (9800X3D, 8 núcleos a 5,2 GHz).
Pelos resultados de 7-Zip e Geekbench, a CPU desktop é muito mais rápida tanto em single-thread quanto em multithread.
O desempenho single-thread da C8A é ok, mas o desempenho de memória é péssimo.
Fico curioso sobre como é fácil sair da Oracle Cloud. Os benchmarks foram bons, mas ouvi dizer que o lock-in de licenciamento é pesado.
Dito isso, como o custo é tão baixo, mantenho projetos pequenos na Oracle Cloud. Não uso DBaaS, só VM Linux mesmo.
Mas a UX é realmente horrível.
O time comercial continuou entrando em contato, mas nada foi resolvido. No Reddit, muita gente relatou a mesma experiência.
Ainda uso CPUs EPYC ROME que comprei por algumas centenas de dólares. A eficiência energética não é boa, mas em multithread ainda ficam acima do 9950X.
Fico feliz em ver que minha fibra de 250/250 por 36 euros ainda é bastante competitiva.
Ainda parece que ter o próprio hardware é muito mais barato. Especialmente em ambiente de desenvolvimento/teste, imagino que seja ainda mais verdade.
Não entendo por que grandes empresas vão para a nuvem mesmo tendo custo de capital menor que o da AWS.
Mas hoje a estrutura já inclui até o custo dos engenheiros da AWS, então na prática continua sendo caro.
Hoje em dia já existem servidores com até 288 núcleos, então operar com folga própria é totalmente viável.
Dá tranquilamente para rodar as cargas principais em hardware próprio e usar armazenamento em nuvem em paralelo.
Na prática, muitas vezes o motivo maior é “porque todo mundo faz”.
Veja um texto relacionado
É irônico que a Oracle pareça uma opção com bom custo-benefício, mas não acho que dê para confiar nisso por muito tempo.