1 pontos por GN⁺ 4 일 전 | 1 comentários | Compartilhar no WhatsApp
  • O antigo problema de que o valor mínimo da soma de Erdős de um primitive set é 1, e de que ele se aproxima desse valor à medida que seus elementos vão para o infinito, passou a ser aceito como resolvido com uma solução produzida pelo GPT-5.4 Pro
  • A solução foi obtida por Liam Price com um único prompt e publicada no erdosproblems.com, ganhando atenção rapidamente após revisão de Kevin Barreto e de especialistas
  • A prova seguiu um caminho diferente da abordagem inicial que as pessoas costumavam adotar e se destacou por combinar de forma inesperada uma fórmula conhecida da área relacionada a esse problema
  • A prova original do ChatGPT era muito bruta para ser usada como estava, e especialistas filtraram a ideia central, entenderam o argumento e o refinaram para uma forma mais curta e organizada
  • O fato de uma nova abordagem de LLM ter funcionado em um problema que nem matemáticos renomados conseguiram resolver pode mudar a forma de enxergar a estrutura dos números grandes e a perspectiva de agrupar problemas semelhantes

O problema e a forma de resolução

  • Um primitive set é um conjunto de inteiros em que nenhum número do conjunto é divisível por outro número do próprio conjunto
    • Erdős definiu para esses conjuntos a soma de Erdős, e acreditava que essa pontuação diminuía à medida que os números do conjunto cresciam
    • A conjectura de que seu valor mínimo é exatamente 1, e de que ele se aproxima desse valor conforme os elementos do conjunto vão para o infinito, permaneceu em aberto por muito tempo
  • Esta solução foi obtida por Liam Price com um único prompt ao GPT-5.4 Pro e depois publicada no erdosproblems.com
    • Sem conhecer a história de fundo do problema, Price estava apenas colocando problemas de Erdős em uma IA quando obteve uma solução que, à primeira vista, parecia correta
    • Depois ele a revisou com Kevin Barreto, e os especialistas contatados passaram a dar atenção ao caso rapidamente
  • Já havia relatos anteriores de que IAs tinham resolvido vários Erdős problems, mas a importância e a dificuldade variam muito de problema para problema, o que os torna uma medida imperfeita da habilidade matemática, e não faltavam soluções menos novas do que pareciam
    • Este resultado foi recebido de forma diferente por lidar com um problema que nem matemáticos renomados haviam resolvido e por usar um método que não era aplicado a problemas desse tipo

Por que está sendo avaliado de forma diferente

  • Ao tentar resolver esse problema, as pessoas em geral escolhiam uma abordagem inicial parecida, mas esta solução de LLM entrou por um caminho completamente diferente
    • Ela trouxe uma fórmula bem conhecida em uma área relacionada da matemática, mas em uma combinação cuja aplicação a esse tipo de problema ninguém havia imaginado
  • Terence Tao apontou que o problema em si talvez fosse mais fácil do que parecia e que havia uma espécie de mental block nas abordagens iniciais
  • Jared Lichtman disse que a prova original do ChatGPT era muito bruta como estava e que foi necessário um processo de especialistas para discernir o que ela queria dizer e compreender o argumento
    • Atualmente, Lichtman e Tao já refinaram a prova para uma versão mais curta, organizada para deixar mais clara a intuição central do LLM
  • Esse avanço pode levar a uma nova forma de pensar sobre números grandes e sua estrutura
    • Ainda é cedo para definir sua importância de longo prazo, mas ele vem sendo recebido como um método que reforça a intuição de que problemas parecidos estão conectados entre si

1 comentários

 
GN⁺ 4 일 전
Comentários do Hacker News
  • https://archive.ph/2w4fi

  • Paul Erdős foi um matemático muito famoso e bastante excêntrico que viveu durante boa parte do século XX
    Tinha o hábito de sair atrás de problemas em que os matemáticos estavam trabalhando e registrá-los, e o nível de dificuldade variava muito, desde algo no nível de tarefa de graduação até problemas dignos de Fields Medal se resolvidos
    O ponto em comum que unia esses problemas era que uma das pessoas mais brilhantes dos últimos 100 anos não conseguia respondê-los de imediato
    Hoje em dia, usam LLMs como benchmark, tentando produzir provas desses problemas, e a cada novo modelo mais alguns acabam sendo resolvidos

    • Pelas reações dos matemáticos, esta prova de Erdős parece um marco bem especial
      Era um problema que vários matemáticos especialistas já tinham examinado antes, e dizem que a prova apresentada foi surpreendente, elegante e ainda mostrou conexões novas
      As soluções anteriores de problemas de Erdős pelo ChatGPT em geral eram menos impressionantes, mais próximas de exploração da literatura ou da resolução de problemas relativamente fáceis, mas negligenciados
      Lendo o prompt, fico me perguntando se o incentivo na linha de pode ser não ortodoxo também ajudou no sucesso
      [1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
    • O caso tratado no artigo é a resolução de um problema em aberto já existente, então naturalmente entra numa categoria mais difícil
  • O prompt real foi este
    Foi pedido que não fizesse busca na internet e que tentasse produzir uma prova ou refutação não trivial, nova e criativa sobre um problema de number theory and primitive sets
    Exigiram uma proof ou disproof completa e unconditional, reforçando novamente que esse tipo de afirmação pode exigir elementos não triviais e criativos
    E ainda aparecia Thought for 80m 17s
    https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c

    • Rodando com 5.5 Pro, Extended Thinking, em 17 minutos saiu que o bound proposto estava correto e que a constante 1 era sharp,
      propondo provar w(a)= 1/alog(a) e uniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))
      e alegando que isso era uma conclusão mais forte do que o 1+o(1) pedido
      https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
    • No meu caso, com o Pro, levou 20 minutos
      https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
      Mas não entendo matemática o suficiente para julgar se isso é mesmo uma prova correta
    • Testei o mesmo prompt no free plan, e o resultado ficou bem aquém
  • O avanço da ciência muitas vezes aconteceu ao levar a técnica X de uma área para o problema Y de outra, e os LLMs parecem ser melhores do que humanos nesse tipo de conexão entre áreas
    Porque conhecem muito mais teorias e abordagens do que qualquer pessoa consegue conhecer e não precisam se preocupar em parecer bobos diante dos colegas

    • Para mim, reasoning é exatamente isso
      A capacidade de generalizar conhecimento e aplicá-lo em outros domínios
    • Boa parte do trabalho intelectual na prática está mais perto de intellectual labor, de juntar várias informações num só lugar
      Nisso os LLMs são muito melhores do que humanos, e parece até que as pessoas tradicionalmente classificaram isso de forma equivocada como criatividade
    • Eu mesmo tenho usado assim
      Não diria que produzi grandes breakthroughs, mas tive a sensação de obter algumas percepções que dariam para virar white papers
      O próprio processo de conectar correlações entre várias áreas já é bem divertido como experimento com LLM
    • A civilização avançou muito de forma left-brained/sequential/language based, e computadores e IA parecem ser o ápice disso
      Quando eu era criança, lia páginas inteiras de uma vez, e em algum momento isso virou leitura palavra por palavra, linha por linha, e esse modo ficou fixo
      Na faculdade, por um tempo, também tive uma percepção mais profunda, ampla e não linear dentro da minha área de matemática, mas não sei dizer se era treino do hemisfério esquerdo ou se o direito estava mais ativo
      Os LLMs certamente vão nos superar nesse tipo de pensamento sequencial, e aí fico pensando se os humanos vão ter de avançar mais para o lado da right-brainness, ou se a IA também vai chegar lá mais rápido
    • Para um exemplo representativo de aplicar técnicas de uma área em outra, basta procurar o Langlands project
  • IA é meu colaborador estranho favorito

  • Alguns problemas de Erdős acabam ficando quase triviais quando se usam técnicas sofisticadas desenvolvidas depois
    Um dos meus professores foi coautor com Erdős e tinha muito orgulho de dizer que conseguiu transformar um problema de Erdős, que tinha ficado em aberto por um tempo, em questão de prova para alunos de graduação

    • Acrescentando algo nesse sentido: esses problemas já foram praticamente todos testados em LLMs
      Então este caso parece evidência de que o modelo realmente ficou mais forte
      Porque as gerações anteriores de LLM não conseguiam resolver esse problema
    • Segundo Tao, a abordagem clássica existente para esse problema parece um beco sem saída, mas ao mesmo tempo era tão óbvia que seria o primeiro passo que qualquer um tentaria
      Por isso este resultado parece ainda mais promissor
      Porque agora surgiu uma nova linha de abordagem que vale a pena avaliar também em problemas parecidos
  • A esta altura, seria bom criar um GitHub repo com um monte de problemas em aberto de dry lab e montar um harness para rodar tudo de novo a cada novo modelo

    • Na verdade, Terence Tao e outros matemáticos já mantêm esse tipo de repositório e o usam activamente para tentar encontrar soluções com LLMs
      [1] https://github.com/teorth/erdosproblems
    • Isso é literalmente o próprio conjunto de Erdős problems
      Este texto é sobre um deles ter sido resolvido
  • A frase a prova original do ChatGPT era na verdade bem ruim, e foi preciso que um especialista filtrasse e entendesse o que ela queria dizer me passa exatamente a mesma sensação que sempre tenho ao ler artigos de matemática

  • Se este era um problema de 60 anos, fiquei pensando se na verdade ele já não teria sido resolvido indiretamente, e o modelo apenas encontrou isso cruzando várias informações
    Olhando o site, quase não há vestígios de discussões humanas antigas, e até os comentários recentes parecem falar só da descoberta do GPT, o que reforçou essa impressão
    Para um problema de 60 anos, eu esperaria discussões mais antigas, então fico curioso sobre o que estou deixando passar
    Ainda assim, é uma descoberta excelente, e deve haver mais problemas parecidos que valem a pena reexaminar com GPT

  • Humanos, e também as máquinas feitas por humanos, normalmente resolvem problemas de forma cumulativa
    Continuam empilhando coisas sobre uma base existente e, por não querer reinventar a roda, acabam presos a certos modos de pensar
    Então não me surpreende tanto que um LLM ingênuo tenha proposto uma abordagem que especialistas não tentaram
    Em casos limitados como esse, o LLM pode ser bem útil como fonte de outra abordagem, e nem precisa estar certo: basta apresentar uma alternativa e bagunçar o tabuleiro
    Só não sei qual valor prático esse problema de Erdős teria
    Se a pergunta é se isso prova que LLMs não são inúteis, isso me soa como perguntar em 1928 se valeria investir milhões de dólares em teoria dos números
    Na época, a resposta provavelmente seria não, e saia do meu escritório