1 pontos por GN⁺ 2026-01-19 | 1 comentários | Compartilhar no WhatsApp
  • Erdős #281 é um problema que parte da situação em que, não importa como se escolham infinitas congruências, quase não restam inteiros que não pertençam a nenhuma delas
  • A questão é saber se, caso isso seja verdadeiro, na prática não seria necessário usar todas as infinitas congruências, e se apenas as primeiras já bastariam para filtrar quase todos os inteiros
  • Neel Somani apresentou uma solução para essa questão usando o GPT-5.2 Pro, e vários matemáticos revisaram e aprimoraram a argumentação, com foco nas etapas centrais da lógica
  • Em vez de calcular diretamente inteiros individuais, a abordagem trata o conjunto dos inteiros como um espaço único e usa propriedades de densidade e limite para lidar com o problema
  • Também se revelou que a mesma conclusão pode ser obtida pela combinação de teoremas já conhecidos no passado, o que levou a uma discussão sobre por que essa conexão passou despercebida por tanto tempo

Problema de Erdős #281 — o teorema central da discussão

  • Erdős #281 é um problema que considera a situação em que, dadas infinitas congruências, quase todos os inteiros acabam pertencendo a pelo menos uma delas, independentemente de como essas congruências sejam escolhidas
  • Parte-se do pressuposto de que, ao aplicar todas as congruências, quase não restam inteiros que não pertençam a nenhuma delas
  • A dúvida é se, quando essa propriedade vale, não seria necessário usar infinitas congruências até o fim, e se as primeiras já produziriam praticamente o mesmo efeito
  • A estrutura da pergunta é saber se um resultado válido no estágio infinito também fica automaticamente garantido no estágio finito
  • Há uma dificuldade em afirmar que um número finito de congruências basta, sob a condição de sempre permitir a pior escolha possível de classes residuais

A abordagem da solução de Neel Somani e GPT-5.2 Pro

  • Em vez de examinar os inteiros um a um, a abordagem considera o conjunto inteiro dos inteiros como um único espaço e trata o problema por meio do conceito de densidade
  • O conjunto dos inteiros que evitam as primeiras k congruências é definido como um objeto de estudo
  • À medida que k cresce, esse conjunto vai diminuindo gradualmente, aproveitando-se a estrutura de convergência para o resultado no estágio infinito
  • A partir da hipótese de que quase não existem inteiros que escapem de todas as infinitas congruências, desenvolve-se a lógica de que, no estágio finito, esse conjunto também inevitavelmente precisa se tornar suficientemente pequeno
  • O fluxo geral da argumentação é construído com o uso de limite, média e propriedades de translação

O processo de revisão e o desenvolvimento da discussão

  • Houve uma revisão concentrada na legitimidade da ordem em que os limites são tomados e da forma como as médias são tratadas na solução apresentada
  • Surgiram observações indicando que algumas etapas precisavam de explicações adicionais e refinamentos
  • Vários matemáticos examinaram publicamente a lógica, esclarecendo passo a passo o significado de cada parte
  • Como resultado, a estrutura central da demonstração foi preservada, mas refinada em uma forma mais clara

A conexão com teoremas clássicos

  • Confirmou-se que a mesma conclusão também pode ser obtida combinando teoremas já conhecidos
  • Essa combinação une resultados sobre convergência de densidade sob condições infinitas com teoremas que explicam o pior caso sob condições finitas
  • Essa conexão revela uma estrutura em que a propriedade do estágio infinito se reflete fortemente também no estágio finito
  • A discussão também se ampliou para por que essa conexão não havia sido claramente organizada por tanto tempo

Por que esse caso chama atenção

  • É um caso em que um problema proposto há muito tempo voltou ao centro das atenções a partir de uma sugestão de solução baseada em IA
  • Em vez de a IA ter apresentado sozinha uma resposta finalizada, ela serviu como gatilho para uma nova perspectiva de discussão
  • Ficou evidente que a dificuldade do problema pode mudar bastante dependendo da linguagem e da estrutura em que ele é reformulado

1 comentários

 
GN⁺ 2026-01-19
Comentários do Hacker News
  • Antes diziam que não havia solução, mas agora foi encontrada uma solução já existente
    Por isso, a demonstração gerada por LLM foi movida para a seção 2 da wiki de Terence Tao
    A discussão relacionada está neste post do fórum erdosproblems
    • O comentário do Tao é interessante — ele diz que a nova demonstração é bem diferente da demonstração na literatura existente
      O mais estranho é que essa demonstração estava em um artigo do próprio Erdős, e mesmo assim ele deixou como problema em aberto
    • Parece que esses modelos funcionam como um mecanismo de busca em linguagem natural que conecta pontos de conhecimento que humanos não conseguiram ligar
    • Na verdade, este caso mostra que o problema em si não é importante
      Já havia uma solução, mas ninguém sabia porque as pessoas não se importavam
      Simplesmente buscar na literatura antiga e chamar isso de “novo avanço” pode ser progresso ilusório
      Grande parte da matemática pura acaba parecendo uma brincadeira de quebra-cabeça intelectual
  • Fiquei curioso sobre a natureza dos problemas de Erdos — seriam desafios difíceis com os quais matemáticos lutaram por anos, ou problemas deixados de lado?
    Segundo a explicação na wiki do Tao,
    os problemas de Erdos variam muito em dificuldade, e alguns são classificados como problemas fáceis, bons para IA resolver
    • Erdos foi um matemático extremamente produtivo e gostava de propor problemas com recompensa em dinheiro
      Os problemas fáceis eram do tipo que “nem os melhores matemáticos resolveriam imediatamente”, então servem bem como métrica de desempenho para IA
      À medida que a IA evoluir, ela deverá subir a escada da dificuldade com problemas cada vez mais difíceis
    • Não precisa se preocupar tanto. Tao e o autor também não tinham grande interesse nos problemas de Erdos,
      e nem perceberam que a tal demonstração estava no próprio artigo do Erdős
      Ainda assim, Fediverse e Twitter estão fazendo barulho como se fosse um grande avanço dos LLMs
  • Segundo um comentário que o próprio Tao deixou no fórum,
    foi impressionante que o LLM tenha evitado erros em troca de limites ou no tratamento de quantificadores
    Ele disse que modelos da geração anterior provavelmente errariam nessas partes,
    e informou que registrou esse resultado na seção 1 da wiki
    • Depois, quando alguém pesquisou mais a literatura, descobriu que no artigo de Davenport e Erdos, de 1936,
      o mesmo resultado já havia sido demonstrado
      Tao comentou: “a nova demonstração é diferente da existente, mas vou movê-la para a seção 2”
  • Eu gostaria que a IA primeiro provasse as próprias afirmações
    Os modelos mais recentes falam com confiança em “código 100% perfeito”, mas na prática ele quebra
    Até ao tentar pagar no z.ai deu erro e nem foi possível concluir a compra
    LLM é uma tecnologia impressionante, mas ao mesmo tempo superestimada
    • Para verificar código gerado por IA, é preciso provar com testes ou evidências, como se faz com humanos
      São necessárias comprovações empíricas, como logs ou resultados de execução
    • É preciso distinguir o modelo do aplicativo
      O modelo só gera texto, e o aplicativo é que precisa validar isso
      Mas geração de texto perfeita é algo impossível no momento
  • Existe uma thread no fórum erdosproblems com participação direta do Tao
  • Fiquei me perguntando se essa demonstração foi realmente validada
    porque já vi muitos casos em que LLMs davam respostas erradas com muita confiança
    A política de memória e as restrições de acesso ao modelo da OpenAI também são temas interessantes
    • O próprio Tao aprovou. Não deve haver validação mais confiável do que essa
  • Recentemente houve uma postagem dizendo que o Aristotle, da Harmonic, resolveu o problema Erdős 728
    Neste caso, a história é que o ChatGPT 5.2 chegou à resposta em uma hora,
    mas não está claro se isso é reproduzível, por que ele encontrou essa solução, nem o que exatamente foi provado
    A validação do Tao dá credibilidade, mas no fim fica a dúvida: “será que o modelo foi treinado para se adequar melhor à matemática pura?”
    Veja o caso anterior e o link da sessão do ChatGPT
    • Há 49 dias também houve um caso em que o problema #124 teria sido demonstrado por IA
      Link relacionado
    • Isso é parte de uma série de tentativas em que LLMs geram demonstrações candidatas para problemas matemáticos
      e depois elas são verificadas com sistemas de prova formal como o Lean
      Tao primeiro olha a correção da demonstração e depois verifica a originalidade com busca na literatura
      No momento, demonstrações totalmente novas quase não existem, mas novas abordagens estão começando a aparecer
      Neste caso também, no começo parecia uma nova demonstração, mas no fim era um resultado que Erdos já conhecia
  • Dei o mesmo prompt ao Deepseek e ele resolveu muito mais rápido que o ChatGPT
    Colocando as duas demonstrações no Opus, ele disse ter confirmado que eram equivalentes
    • Mas houve quem apontasse que isso é “praticamente você mesmo carimbando”,
      e que se faltar verificação detalhada, a demonstração inteira pode ruir
    • Em termos matemáticos, também levantaram dúvida sobre se a parte da densidade da interseção é suficiente
      Como exemplo, mencionaram o conjunto (U_k) para sugerir a possibilidade de um contraexemplo
    • Também foi compartilhado o bloco de raciocínio do Kimi-k2
    • Houve ainda quem perguntasse se o Deepseek não teria simplesmente memorizado a solução existente
      Veja a discussão neste comentário
    • Também apareceu a opinião de que o Opus não é adequado para matemática
      Sua precisão matemática é inferior à do ChatGPT ou Gemini Pro
  • Surpreendentemente, uma parte considerável das demonstrações com LLM vem de não especialistas
    Fica a dúvida se alguns matemáticos profissionais não estariam usando IA sem revelar isso
    • Na prática, a maioria dos especialistas parece sentir que “na minha área de pesquisa, LLM é burro”
    • Esse tipo de uso anônimo de IA provavelmente vai se tornar comum em breve
      Como uma corrida de doping nos esportes, todo mundo vai acabar usando para não ficar para trás
      Além disso, usar IA nem é violação de regra
    • De forma realista, os especialistas talvez já tenham tentado,
      mas é bem possível que os LLMs ainda não estejam produzindo progresso substancial
    • Ainda estão pensando em como indicar a contribuição da IA
      Pessoalmente, acho que uma linha de agradecimento seria apropriada
      Como pós-doc em matemática, usei o GPT 5.2 e achei que ele mente menos e é honesto quando falha
      Já o Gemini 3, quando erra, tende a inventar teoremas fictícios
  • Fico curioso se os problemas de Erdos resolvidos por LLM são apenas problemas fáceis que humanos não tocaram,
    ou se representam de fato resultados de pesquisa originais
    • Segundo o aviso na wiki do Tao,
      os problemas de Erdos têm grande variação de dificuldade, e existe um grupo de problemas mais fáceis para IA resolver
    • Ainda assim, há valor em LLMs colocarem ordem nesses problemas de baixa dificuldade
      Se um problema entrou na lista do Erdos, é provável que ao menos alguém tenha tentado resolvê-lo alguma vez