- Uma nova prova apresentada pelo cientista teórico da computação do MIT Ryan Williams mostra que a memória pode ser um recurso computacional mais poderoso do que o tempo
- O resultado rompe uma estagnação de 50 anos na relação entre complexidade de tempo e espaço e propõe uma forma de transformar qualquer algoritmo para usar menos memória
- O núcleo da prova é a ideia de generalizar a simulação com economia de espaço para reduzir o uso de espaço de um algoritmo ao nível da raiz quadrada do tempo
- Com isso, houve avanço na demonstração quantitativa da diferença entre as classes PSPACE e P, além de abrir a possibilidade de provas com separações ainda maiores
- Especialistas avaliam o feito como um “avanço surpreendente e ponto de partida para uma nova exploração”, e consideram que o resultado pode ajudar a resolver outros problemas difíceis da computação teórica
One Small Step for Space, One Giant Leap for Complexity
Visão geral da nova prova de Ryan Williams
- No verão de 2024, Ryan Williams, do MIT, percebeu ao revisar sua prova que uma ideia que ele achava ser um erro na verdade era válida
- Ele propôs um procedimento geral para transformar qualquer algoritmo de modo que possa ser executado com menos memória
- Isso permitiu demonstrar que alguns problemas não podem ser resolvidos dentro de limites restritos de tempo
Tempo e espaço: dois recursos da computação
- Todo algoritmo usa tempo e memória (espaço)
- Antes, acreditava-se que, ao resolver certos problemas, o espaço era proporcional ao tempo
- A prova de Williams estabelece matematicamente que o espaço pode ser mais poderoso do que o tempo
Origem e história da computação teórica
- Juris Hartmanis e Richard Stearns estabeleceram, nos anos 1960, as definições de complexidade de tempo/espaço
- Eles lançaram as bases para classificar problemas em classes de complexidade de acordo com os recursos necessários para resolvê-los
- P representa problemas solucionáveis em tempo razoável, enquanto PSPACE representa problemas solucionáveis com quantidade adequada de memória
O primeiro avanço: a técnica de simulação de 1975
- Hopcroft, Paul e Valiant desenvolveram um procedimento universal de simulação capaz de converter qualquer algoritmo para usar um pouco menos espaço
- Esse foi o primeiro passo para esclarecer a relação entre tempo e espaço, mas depois o progresso esbarrou em limites
- Acreditava-se que não seria possível avançar além disso por causa da premissa de que dados não podem ocupar o mesmo espaço ao mesmo tempo
O ponto de virada: Squishy Pebbles
- Em 2010, o pioneiro da teoria da complexidade Stephen Cook e seus colegas conceberam o problema de avaliação de árvore - Pebbles and Branching Programs for Tree Evaluation e provaram que a tarefa é impossível para algoritmos com orçamento de espaço abaixo de certo limite
- Mas havia uma brecha. A prova se baseava na mesma suposição intuitiva usada décadas antes por Paul e seus colegas
- Ou seja, que um algoritmo não pode armazenar novos dados em um espaço já cheio
- Por mais de 10 anos, teóricos da complexidade tentaram fechar essa brecha
- James Cook, filho de Stephen Cook, e Ian Mertz publicaram em 2023 um algoritmo para o problema de avaliação de árvore que rompe essa suposição anterior Tree Evaluation Is in Space 𝑂 (log 𝑛 · log log 𝑛)
- Eles propuseram um novo modelo de representação em que dados na memória podem se sobrepor fisicamente
- Essa abordagem se tornou a chave para superar os limites das simulações anteriores
O salto decisivo de Williams
- Depois de conhecer a técnica de Cook-Mertz a partir da apresentação de estudantes, Williams teve a ideia de aplicá-la à simulação universal
- A nova simulação pode reduzir a exigência de espaço de um algoritmo ao nível da raiz quadrada do tempo
- Em fevereiro de 2025, ele publicou o artigo final no arXiv, recebendo grande elogio da comunidade acadêmica
O que esse resultado significa
- A prova não demonstra diretamente que PSPACE > P, mas é um avanço decisivo que cria uma “brecha” nessa direção
- Se no futuro esse procedimento puder ser aplicado repetidamente para ampliar essa separação, será possível chegar mais perto da resolução do problema P vs PSPACE
- Isso pode se tornar a pista inicial para resolver um dos problemas mais antigos da ciência da computação
Um desfecho marcante
- Williams relembrou o resultado desta forma:
“Eu não consegui provar exatamente o que realmente queria provar, mas o que acabei provando foi ainda melhor do que eu queria.”
2 comentários
....Hã?
Comentários do Hacker News
tpode ser simulada usando espaçoO(sqrt(t log t))(normalmente levando mais tempo do quet) Simulating Time With Square-Root Spacen, você pode escrever duranteO(n)tempo, mas se a fita é binária existem2^nconfigurações possíveis para esse comprimento. Se o espaço for bem usado, ele parece dar muito mais poder de representação do que o tempoO(1)é tratada como óbvia demais, mas na prática o custo de acesso cresce atéO(n^(1/3))à medida que o computador aumenta. Dá para sentir isso claramente em datacenters. Acho que era um modelo diferente de UMAP ≠ PSPACEainda não foi provado, é uma área em que demonstrar matematicamente é mais difícil do que parece pela intuiçãoPTIME=PSPACE) o espaço pode não trazer um ganho tão grande. No artigo, o salto det/log tparasqrt(t log t)é revolucionário, mas deve haver limites substanciais que nem a paralelização infinita consegue superarNe tenta escreverNvezes o valor 1 à direita da fita, parece que ela precisaria de espaçoNem tempoN. Então fico me perguntando como isso poderia ser simulado com menos espaço queN. Também queria entender que relação isso tem com computadores reais, já que, pela estrutura da máquina de Turing, não dá para saltar para posições arbitrárias da fitaNbits, a explicação é que isso é essencialmente equivalente a juntarNproblemas de decisão