- Erdős #281 é um problema que parte da situação em que, não importa como se escolham infinitas congruências, quase não restam inteiros que não pertençam a nenhuma delas
- A questão é saber se, caso isso seja verdadeiro, na prática não seria necessário usar todas as infinitas congruências, e se apenas as primeiras já bastariam para filtrar quase todos os inteiros
- Neel Somani apresentou uma solução para essa questão usando o GPT-5.2 Pro, e vários matemáticos revisaram e aprimoraram a argumentação, com foco nas etapas centrais da lógica
- Em vez de calcular diretamente inteiros individuais, a abordagem trata o conjunto dos inteiros como um espaço único e usa propriedades de densidade e limite para lidar com o problema
- Também se revelou que a mesma conclusão pode ser obtida pela combinação de teoremas já conhecidos no passado, o que levou a uma discussão sobre por que essa conexão passou despercebida por tanto tempo
Problema de Erdős #281 — o teorema central da discussão
- Erdős #281 é um problema que considera a situação em que, dadas infinitas congruências, quase todos os inteiros acabam pertencendo a pelo menos uma delas, independentemente de como essas congruências sejam escolhidas
- Parte-se do pressuposto de que, ao aplicar todas as congruências, quase não restam inteiros que não pertençam a nenhuma delas
- A dúvida é se, quando essa propriedade vale, não seria necessário usar infinitas congruências até o fim, e se as primeiras já produziriam praticamente o mesmo efeito
- A estrutura da pergunta é saber se um resultado válido no estágio infinito também fica automaticamente garantido no estágio finito
- Há uma dificuldade em afirmar que um número finito de congruências basta, sob a condição de sempre permitir a pior escolha possível de classes residuais
A abordagem da solução de Neel Somani e GPT-5.2 Pro
- Em vez de examinar os inteiros um a um, a abordagem considera o conjunto inteiro dos inteiros como um único espaço e trata o problema por meio do conceito de densidade
- O conjunto dos inteiros que evitam as primeiras k congruências é definido como um objeto de estudo
- À medida que k cresce, esse conjunto vai diminuindo gradualmente, aproveitando-se a estrutura de convergência para o resultado no estágio infinito
- A partir da hipótese de que quase não existem inteiros que escapem de todas as infinitas congruências, desenvolve-se a lógica de que, no estágio finito, esse conjunto também inevitavelmente precisa se tornar suficientemente pequeno
- O fluxo geral da argumentação é construído com o uso de limite, média e propriedades de translação
O processo de revisão e o desenvolvimento da discussão
- Houve uma revisão concentrada na legitimidade da ordem em que os limites são tomados e da forma como as médias são tratadas na solução apresentada
- Surgiram observações indicando que algumas etapas precisavam de explicações adicionais e refinamentos
- Vários matemáticos examinaram publicamente a lógica, esclarecendo passo a passo o significado de cada parte
- Como resultado, a estrutura central da demonstração foi preservada, mas refinada em uma forma mais clara
A conexão com teoremas clássicos
- Confirmou-se que a mesma conclusão também pode ser obtida combinando teoremas já conhecidos
- Essa combinação une resultados sobre convergência de densidade sob condições infinitas com teoremas que explicam o pior caso sob condições finitas
- Essa conexão revela uma estrutura em que a propriedade do estágio infinito se reflete fortemente também no estágio finito
- A discussão também se ampliou para por que essa conexão não havia sido claramente organizada por tanto tempo
Por que esse caso chama atenção
- É um caso em que um problema proposto há muito tempo voltou ao centro das atenções a partir de uma sugestão de solução baseada em IA
- Em vez de a IA ter apresentado sozinha uma resposta finalizada, ela serviu como gatilho para uma nova perspectiva de discussão
- Ficou evidente que a dificuldade do problema pode mudar bastante dependendo da linguagem e da estrutura em que ele é reformulado
1 comentários
Comentários do Hacker News
Por isso, a demonstração gerada por LLM foi movida para a seção 2 da wiki de Terence Tao
A discussão relacionada está neste post do fórum erdosproblems
O mais estranho é que essa demonstração estava em um artigo do próprio Erdős, e mesmo assim ele deixou como problema em aberto
Já havia uma solução, mas ninguém sabia porque as pessoas não se importavam
Simplesmente buscar na literatura antiga e chamar isso de “novo avanço” pode ser progresso ilusório
Grande parte da matemática pura acaba parecendo uma brincadeira de quebra-cabeça intelectual
Segundo a explicação na wiki do Tao,
os problemas de Erdos variam muito em dificuldade, e alguns são classificados como problemas fáceis, bons para IA resolver
Os problemas fáceis eram do tipo que “nem os melhores matemáticos resolveriam imediatamente”, então servem bem como métrica de desempenho para IA
À medida que a IA evoluir, ela deverá subir a escada da dificuldade com problemas cada vez mais difíceis
e nem perceberam que a tal demonstração estava no próprio artigo do Erdős
Ainda assim, Fediverse e Twitter estão fazendo barulho como se fosse um grande avanço dos LLMs
foi impressionante que o LLM tenha evitado erros em troca de limites ou no tratamento de quantificadores
Ele disse que modelos da geração anterior provavelmente errariam nessas partes,
e informou que registrou esse resultado na seção 1 da wiki
o mesmo resultado já havia sido demonstrado
Tao comentou: “a nova demonstração é diferente da existente, mas vou movê-la para a seção 2”
Os modelos mais recentes falam com confiança em “código 100% perfeito”, mas na prática ele quebra
Até ao tentar pagar no z.ai deu erro e nem foi possível concluir a compra
LLM é uma tecnologia impressionante, mas ao mesmo tempo superestimada
São necessárias comprovações empíricas, como logs ou resultados de execução
O modelo só gera texto, e o aplicativo é que precisa validar isso
Mas geração de texto perfeita é algo impossível no momento
porque já vi muitos casos em que LLMs davam respostas erradas com muita confiança
A política de memória e as restrições de acesso ao modelo da OpenAI também são temas interessantes
Neste caso, a história é que o ChatGPT 5.2 chegou à resposta em uma hora,
mas não está claro se isso é reproduzível, por que ele encontrou essa solução, nem o que exatamente foi provado
A validação do Tao dá credibilidade, mas no fim fica a dúvida: “será que o modelo foi treinado para se adequar melhor à matemática pura?”
Veja o caso anterior e o link da sessão do ChatGPT
Link relacionado
e depois elas são verificadas com sistemas de prova formal como o Lean
Tao primeiro olha a correção da demonstração e depois verifica a originalidade com busca na literatura
No momento, demonstrações totalmente novas quase não existem, mas novas abordagens estão começando a aparecer
Neste caso também, no começo parecia uma nova demonstração, mas no fim era um resultado que Erdos já conhecia
Colocando as duas demonstrações no Opus, ele disse ter confirmado que eram equivalentes
e que se faltar verificação detalhada, a demonstração inteira pode ruir
Como exemplo, mencionaram o conjunto (U_k) para sugerir a possibilidade de um contraexemplo
Veja a discussão neste comentário
Sua precisão matemática é inferior à do ChatGPT ou Gemini Pro
Fica a dúvida se alguns matemáticos profissionais não estariam usando IA sem revelar isso
Como uma corrida de doping nos esportes, todo mundo vai acabar usando para não ficar para trás
Além disso, usar IA nem é violação de regra
mas é bem possível que os LLMs ainda não estejam produzindo progresso substancial
Pessoalmente, acho que uma linha de agradecimento seria apropriada
Como pós-doc em matemática, usei o GPT 5.2 e achei que ele mente menos e é honesto quando falha
Já o Gemini 3, quando erra, tende a inventar teoremas fictícios
ou se representam de fato resultados de pesquisa originais
os problemas de Erdos têm grande variação de dificuldade, e existe um grupo de problemas mais fáceis para IA resolver
Se um problema entrou na lista do Erdos, é provável que ao menos alguém tenha tentado resolvê-lo alguma vez