- Na faixa de 5 GHz, usar uma largura de canal estreita de 20/40 MHz oferece a melhor experiência, mas produtos para consumidores usam por padrão larguras de canal amplas de 80 MHz ou mais, causando interferência e aumento da latência
- Como os consumidores preferem velocidades mais altas, fabricantes e ISPs mantêm canais largos por receio de cair em rankings de benchmarks se lançarem produtos com configuração de canal estreita
- O próprio ato de fazer um teste de velocidade de Wi‑Fi também consome a largura de banda compartilhada da rede, reduzindo a responsividade e fazendo com que outros dispositivos da rede sofram latência e perda de pacotes
- O próximo Wi‑Fi 8 (802.11bn) da IEEE mira melhorar a confiabilidade e a responsividade mais do que a velocidade, mas a padronização não deve ser concluída até 2028
- Mesmo agora, só com mudanças de configuração no hardware já implantado, é possível obter melhorias significativas
A importância da largura de canal estreita
- Redes corporativas usam largura de canal de 20 MHz a 40 MHz para suportar áreas amplas e muitas conexões de dispositivos
- Isso permite garantir mais canais e evitar interferência de co-canal (co-channel interference)
- O Wi‑Fi residencial e de pequenas empresas não é tão diferente do ambiente corporativo: a casa média nos EUA tem 21 dispositivos Wi‑Fi
- Muitas residências precisam de múltiplos nós mesh ou pontos de acesso para ter cobertura efetiva
- Ainda assim, roteadores domésticos e equipamentos de ISPs costumam usar por padrão 80 MHz ou mais, frequentemente ocupando 2/3 de toda a faixa
- Alguns equipamentos de 2,4 GHz permitem apenas 40 MHz, sem dar ao usuário a opção de reduzir isso
O problema da ‘obsessão por velocidade’
- A razão para essas configurações é que os consumidores enxergam qualidade do Wi‑Fi = velocidade, sem considerar outros fatores além da velocidade
- O foco fica apenas na velocidade, em vez de métricas mais importantes da experiência de internet, como responsividade e confiabilidade
- Fabricantes e ISPs são sensíveis a pontuações em testes de velocidade, então mantêm a configuração padrão com canais largos
- Com canais estreitos, a qualidade percebida na prática melhora, mas os números de velocidade parecem menores, o que gera receio de aumento nas devoluções
- Como resultado, persiste uma estrutura obcecada com taxa máxima de transferência em vez de responsividade e estabilidade
O efeito colateral dos testes de velocidade
- O Wi‑Fi funciona em uma estrutura de compartilhamento do canal no ar (airtime contention), então apenas um dispositivo pode transmitir por vez
- Por isso, quando um dispositivo executa um teste de velocidade, a latência e a perda de pacotes dos outros dispositivos aumentam
- Resultados experimentais mostram que, quando outro dispositivo na mesma rede executa um teste de velocidade, latência, jitter e perda de pacotes aumentam
- Quando o mesmo teste foi feito com conexão cabeada (ethernet), esse efeito não apareceu
- A maior parte dos equipamentos de consumo vem com mitigação de buffer bloat desativada, o que piora ainda mais a situação
- As próprias ferramentas de medição de velocidade e sistemas automatizados de medição acabam sendo uma das principais causas da piora da qualidade percebida pelo consumidor
A nova abordagem do IEEE 802.11bn (Wi‑Fi 8): mudança de foco para responsividade e confiabilidade
- 68% dos lares nos EUA tiveram problemas de Wi‑Fi no último ano
- O padrão IEEE Wi‑Fi 8 (802.11bn) busca se afastar da lógica tradicional centrada em velocidade
- definindo como objetivos confiabilidade, baixa latência (no percentil 95), minimização da perda de pacotes e robustez em ambientes com interferência
- No entanto, o padrão só deve ser finalizado em 2028
- A faixa de 6 GHz usada por Wi‑Fi 6E e 7 oferece canais mais largos, mas
- a adoção de dispositivos ainda é baixa e não resolve o problema fundamental de compartilhamento de canal
Soluções e propostas
- Não é preciso esperar pela adoção real de Wi‑Fi 6E e 7 nem pelas promessas ainda não concretizadas do Wi‑Fi 8
- Só com mudanças de configuração no hardware já implantado, é possível alcançar um desempenho muito melhor
- Basta parar de perseguir apenas o throughput máximo e passar a focar em responsividade e confiabilidade do Wi‑Fi
- Testes de velocidade são ferramentas úteis, mas a dependência excessiva deles acaba reduzindo a qualidade
- Os consumidores querem, de fato, resposta rápida e estabilidade, mas faltam ferramentas e dados para medir isso
- Fabricantes e ISPs precisam adotar novas métricas para destacar uma experiência de rede contínua (Responsiveness & Reliability)
- Mesmo com o hardware atual, simples mudanças de configuração já permitem criar um ambiente de Wi‑Fi mais estável
2 comentários
Comentários do Hacker News
Ao fazer experimentos com um hub UniFi, ficou claro que o ideal seria fornecer um canal Wi‑Fi independente para cada dispositivo; a interferência é tão severa que, mesmo em ambientes onde não há colisão de canais, o resultado é muito melhor. Além disso, a melhor forma de deixar o ambiente sem fio mais rápido é simplesmente usar menos Wi‑Fi sempre que possível, e conectar diretamente por Ethernet dispositivos fixos, como TVs, reduz de forma eficaz a congestão e a perda de velocidade do Wi‑Fi
O ideal é ligar por Ethernet todos os dispositivos, exceto smartphones e notebooks que não ficam presos à mesa. Em 2020, com o aumento das videoconferências, passei cabeamento Ethernet dentro de casa e a usabilidade melhorou bastante
Dispositivos IoT costumam usar chipsets Wi‑Fi lentos e padrões antigos, então é eficaz separá-los em um SSID exclusivo de 2,4 GHz. Assim, aparelhos antigos e lentos não atrapalham a fluidez do 5 GHz. Além disso, instalar mais roteadores sem fio e usar backhaul cabeado permite que os dispositivos se conectem com eficiência ao AP mais próximo, deixando o Wi‑Fi muito mais estável. Depois de cabeá-los e ajustar todos os aparelhos fixos da casa, a qualidade do sem fio melhorou muito
iPhone/iPad também podem ser conectados com adaptadores Ethernet, e em downloads grandes o trabalho fica bem mais rápido. É uma pena que muitos eletrônicos de consumo não suportem conexão cabeada. Em apartamentos urbanos densos, o sem fio realmente é uma escolha desfavorável, e também há o incômodo de vários dispositivos exibirem redes próximas além do necessário ou não conseguirem desligar o Wi‑Fi de forma adequada
Clientes Wi‑Fi ociosos, sem tráfego na rede, quase não afetam a qualidade. O verdadeiro problema são dispositivos em uso ou com muito tráfego em segundo plano, como smart TVs. Em redes IoT, bloqueio a internet para a maioria dos dispositivos para reduzir tráfego em segundo plano. No geral, só ampliar a cobertura dos APs, usar backhaul cabeado e trocar por equipamentos melhores (por exemplo, Ubiquiti/UniFi) já melhora bastante a maioria dos problemas de Wi‑Fi. Se for usar mesh Wi‑Fi, recomendo backhaul em 6 GHz, mas com alguma perda de alcance
Instalar cabeamento é a solução mais agressiva e poderosa. Mas, se for necessário usar bastante Wi‑Fi, dá para otimizar com vários APs com backhaul dedicado. Já montei assim uma rede com mais de 60 dispositivos mantendo roaming confortável e alta velocidade. Usei UniFi, mas equipamentos Eero PoE também têm desempenho semelhante
Uma das causas da piora do Wi‑Fi é o recurso Wi‑Fi Direct de impressoras como as da HP. Ao escanear os sinais próximos, dá para ver mais de 5 impressoras vizinhas emitindo sinal forte. Em ambientes de prédios grandes, só os canais de 6 GHz suportados pelo Wi‑Fi 6e são realmente utilizáveis
Pelo conteúdo do artigo, não ficou claro o que exatamente deve ser aplicado na prática. Quer dizer reduzir a largura de canal em casa? Para isso fazer diferença de verdade, parece que seria preciso usar bastante WAP. Em apartamentos e afins, talvez seja mais realista recomendar reduzir a potência de transmissão (TX power), mas nem todo mundo fará isso, e o melhor é ficar dentro do limite legal. Dispositivos que exigem alto desempenho deveriam mesmo estar ligados por cabo. Se for investir tempo em otimizar Wi‑Fi, wiisfi.com é um material realmente muito bom
O ponto principal é que reduzir a largura dos canais de 5 GHz para 40Mhz e manter 2,4 GHz em 20MHz aumenta a confiabilidade. Se os fabricantes simplesmente configurassem isso direito como padrão, já ajudaria muita gente, mas os roteadores domésticos hoje geralmente vêm com largura de canal ampla demais por padrão. Claro, se no seu ambiente não há problema, não há necessidade de mudar
Esse tipo de ajuste só merece atenção quando há problema. Na maioria dos casos, os recursos do Wi‑Fi moderno são tão folgados que a diferença quase não é perceptível, e no máximo as transferências grandes ficam um pouco mais lentas em situações bem excepcionais, então não sinto necessidade de passar cabo só por isso
Usar 40MHz em 2,4 GHz equivale a ocupar metade de todos os canais disponíveis, então a poluição de canal pode ficar muito pior do que o ganho de velocidade. Se mais aparelhos à sua volta começarem a usar canais 8 ou 9 sem critério, o resto da faixa também logo fica poluído, e até dispositivos IoT mal conseguem manter sinal. Algo que antes passava de 70 Mbps com uma boa distribuição usando 20MHz pode cair para apenas 30 Mbps. Quando muita gente compartilha, chega ao ponto de até o FaceTime precisar ser forçado para 5 GHz ou o Wi‑Fi ter de ser desligado
Eu também tinha quedas frequentes de Wi‑Fi no quarto em um ambiente 5 GHz de 80MHz, mas hoje reduzi para 20MHz e a relação sinal-ruído subiu cerca de 5 dB, então a conexão no quarto voltou a funcionar. Houve um pequeno aumento de latência, mas senti o efeito na prática
O material recomendado foi realmente muito útil; queria ter conhecido antes
É uma explicação que lembra que a otimização recente de Wi‑Fi vinha focando na “corrida de especificações de velocidade”, enfatizando só a velocidade máxima no papel em vez da experiência real do usuário. Isso faz lembrar a antiga “guerra dos megapixels” das câmeras digitais. No dia a dia, o que importa de verdade é responsividade e confiabilidade, mas essas métricas são difíceis de quantificar e nem aparecem na embalagem dos produtos. Há até a ironia de que o próprio teste de velocidade piora o desempenho da rede. Ainda não se sabe se, no futuro, roteadores e ISPs vão oferecer pontuações baseadas na experiência real, como responsividade, em vez de indicadores de velocidade. No fundo, é um problema de cultura de rede: a indústria se fixou em números fáceis de admirar em vez de experiências melhores
A Apple está propondo uma forma de avaliar a qualidade da rede com mais precisão do que uma simples medição de velocidade. A especificação é network-quality/goresponsiveness, e os Macs recentes já incluem uma ferramenta de linha de comando chamada
networkQuality. Ela mede “round trips por minuto” em estado ocioso e sob carga. Como prevê melhor a sensação real de uma internet agradável de usar (respostas rápidas e imediatas), sua utilidade prática é maior do que a de testes de velocidade comunsComo “velocidade” é fácil de medir, ela acaba recebendo toda a atenção, e no fim todos os envolvidos ficam obcecados por ela. Depois de muitos anos trabalhando com redes, minha impressão é que os usuários tratam qualquer problema como falta de velocidade, mas acima de certo nível isso muitas vezes vira apenas satisfação psicológica
No grupo de trabalho do IEEE 802.11bn (Wi‑Fi 8), os objetivos da especificação também estão sendo redefinidos: em vez de apenas aumentar velocidade, o foco passa a ser confiabilidade, baixa latência (especialmente no percentil 95), redução de perda de pacotes, superação de interferência e mobilidade. Mas, pela experiência na indústria, recursos novos raramente são bem implementados logo na geração em que surgem; os recursos centrais do Wi‑Fi 6 só vão funcionar direito no Wi‑Fi 7, e os do Wi‑Fi 7 só no Wi‑Fi 8, e assim por diante. Ou seja, para as funções introduzidas em cada geração operarem de forma estável na prática, normalmente é preciso esperar mais uma geração. Ainda assim, o Wi‑Fi atual já passa de 1 Gbps reais e chega a mais de 2,5 Gbps de desempenho efetivo, além de melhorar bastante em confiabilidade e eficiência a cada ano
Dizem que muitos ISPs, fabricantes de dispositivos e consumidores executam testes de velocidade automatizados periodicamente, e me surpreende a alegação de que isso afeta negativamente a experiência geral de internet dos consumidores. Fico curioso para saber por que alguém criaria intencionalmente mais carga do que o necessário
Um exemplo é a empresa SamKnows, que coleta dados de desempenho de milhões de residências e foi recentemente adquirida pela Cisco. Artigo relacionado: Cisco anuncia intenção de adquirir a SamKnows
A maioria dos ISPs executa esses testes de velocidade apenas dentro da própria rede interna, então o impacto sobre a carga de tráfego real é pequeno. Isso acontece porque os números podem ser inflados usando apenas tráfego interno, sem consumir links externos, e do ponto de vista da empresa isso não gera problema. Na prática, entendi esse mecanismo quando um operador da rede do meu ISP me explicou
Pouquíssimas pessoas sequer conhecem teste de velocidade, e não acho que a maioria dos consumidores tenha capacidade de automatizar isso
A parte mais frustrante do Wi‑Fi é o roaming. Minha casa foi construída com paredes muito grossas (até 120 cm), então praticamente cada cômodo precisa de um AP. Fiz muitos esforços de otimização, mas ainda não vivi um roaming perfeitamente contínuo. Depois de mudar para equipamentos TP-Link Omada, ficou melhor do que antes, mas ainda está longe da troca sem interrupções de um telefone sem fio DECT. Por exemplo, se estou vendo Twitch no quarto e vou para a cozinha, em cerca de 30% dos casos a reprodução congela, e às vezes é preciso desligar e ligar o Wi‑Fi para a troca acontecer. Já tentei todas as dicas sobre canais, sobreposição etc., mas ainda não está totalmente perfeito
Telefones sem fio DECT usam a faixa de 1,9 GHz, então sofrem menos perda de sinal por água do que o Wi‑Fi de 2,4 GHz e atravessam melhor muitos materiais. O problema é que muita gente posiciona mal repetidores/relays de Wi‑Fi ou usa equipamentos baratos sem múltiplos rádios. Se um repetidor ou equipamento mesh tiver apenas um rádio, a velocidade cai pela metade a cada salto. Do ponto de vista de quem opera um ISP, é sempre difícil fazer o cliente entender o resultado e a causa, porque ele tende a economizar justamente na rede sem fio dentro de casa
Também moro em um prédio de estrutura parecida, então entendo bem a dificuldade, mas consegui praticamente resolver o problema ligando os APs com backhaul cabeado, evitando sobreposição de canais, limitando 2,4 GHz a 20MHz e 5 GHz a 40MHz, usando rigorosamente só os canais 1, 6 e 11 no 2,4 GHz, evitando canais DFS no 5 GHz e, quando necessário, reduzindo a potência de transmissão de cada AP para que não se sobreponham de longe. Em alguns APs, desligar o 2,4 GHz conforme a necessidade também pode ajudar
Uso telefones DECT VoIP na maioria das chamadas e estou satisfeito
O próximo padrão Wi‑Fi, 802.11bn (WiFi 8), tem o apelido de Ultra High Reliability (UHR). Link de referência: Wikipedia sobre 802.11bn. A tendência agora é considerar de forma mais ativa variáveis além da velocidade
Estou usando o GiGA Wi-Fi da KT, e como a largura do canal estava em 80MHz, comparei os resultados do
networkQualitydo macOS mudando para 40MHz; no meu caso, quando mudo para 40, tanto a capacidade de resposta quanto o desempenho caem bastante.