Amador usando ChatGPT resolve problema de Erdős
(scientificamerican.com)- O antigo problema de que o valor mínimo da soma de Erdős de um primitive set é 1, e de que ele se aproxima desse valor à medida que seus elementos vão para o infinito, passou a ser aceito como resolvido com uma solução produzida pelo GPT-5.4 Pro
- A solução foi obtida por Liam Price com um único prompt e publicada no erdosproblems.com, ganhando atenção rapidamente após revisão de Kevin Barreto e de especialistas
- A prova seguiu um caminho diferente da abordagem inicial que as pessoas costumavam adotar e se destacou por combinar de forma inesperada uma fórmula conhecida da área relacionada a esse problema
- A prova original do ChatGPT era muito bruta para ser usada como estava, e especialistas filtraram a ideia central, entenderam o argumento e o refinaram para uma forma mais curta e organizada
- O fato de uma nova abordagem de LLM ter funcionado em um problema que nem matemáticos renomados conseguiram resolver pode mudar a forma de enxergar a estrutura dos números grandes e a perspectiva de agrupar problemas semelhantes
O problema e a forma de resolução
- Um primitive set é um conjunto de inteiros em que nenhum número do conjunto é divisível por outro número do próprio conjunto
- Erdős definiu para esses conjuntos a soma de Erdős, e acreditava que essa pontuação diminuía à medida que os números do conjunto cresciam
- A conjectura de que seu valor mínimo é exatamente 1, e de que ele se aproxima desse valor conforme os elementos do conjunto vão para o infinito, permaneceu em aberto por muito tempo
- Esta solução foi obtida por Liam Price com um único prompt ao GPT-5.4 Pro e depois publicada no erdosproblems.com
- Sem conhecer a história de fundo do problema, Price estava apenas colocando problemas de Erdős em uma IA quando obteve uma solução que, à primeira vista, parecia correta
- Depois ele a revisou com Kevin Barreto, e os especialistas contatados passaram a dar atenção ao caso rapidamente
- Já havia relatos anteriores de que IAs tinham resolvido vários Erdős problems, mas a importância e a dificuldade variam muito de problema para problema, o que os torna uma medida imperfeita da habilidade matemática, e não faltavam soluções menos novas do que pareciam
- Este resultado foi recebido de forma diferente por lidar com um problema que nem matemáticos renomados haviam resolvido e por usar um método que não era aplicado a problemas desse tipo
Por que está sendo avaliado de forma diferente
- Ao tentar resolver esse problema, as pessoas em geral escolhiam uma abordagem inicial parecida, mas esta solução de LLM entrou por um caminho completamente diferente
- Ela trouxe uma fórmula bem conhecida em uma área relacionada da matemática, mas em uma combinação cuja aplicação a esse tipo de problema ninguém havia imaginado
- Terence Tao apontou que o problema em si talvez fosse mais fácil do que parecia e que havia uma espécie de mental block nas abordagens iniciais
- Jared Lichtman disse que a prova original do ChatGPT era muito bruta como estava e que foi necessário um processo de especialistas para discernir o que ela queria dizer e compreender o argumento
- Atualmente, Lichtman e Tao já refinaram a prova para uma versão mais curta, organizada para deixar mais clara a intuição central do LLM
- Esse avanço pode levar a uma nova forma de pensar sobre números grandes e sua estrutura
- Ainda é cedo para definir sua importância de longo prazo, mas ele vem sendo recebido como um método que reforça a intuição de que problemas parecidos estão conectados entre si
1 comentários
Comentários do Hacker News
https://archive.ph/2w4fi
Paul Erdős foi um matemático muito famoso e bastante excêntrico que viveu durante boa parte do século XX
Tinha o hábito de sair atrás de problemas em que os matemáticos estavam trabalhando e registrá-los, e o nível de dificuldade variava muito, desde algo no nível de tarefa de graduação até problemas dignos de Fields Medal se resolvidos
O ponto em comum que unia esses problemas era que uma das pessoas mais brilhantes dos últimos 100 anos não conseguia respondê-los de imediato
Hoje em dia, usam LLMs como benchmark, tentando produzir provas desses problemas, e a cada novo modelo mais alguns acabam sendo resolvidos
Era um problema que vários matemáticos especialistas já tinham examinado antes, e dizem que a prova apresentada foi surpreendente, elegante e ainda mostrou conexões novas
As soluções anteriores de problemas de Erdős pelo ChatGPT em geral eram menos impressionantes, mais próximas de exploração da literatura ou da resolução de problemas relativamente fáceis, mas negligenciados
Lendo o prompt, fico me perguntando se o incentivo na linha de
pode ser não ortodoxotambém ajudou no sucesso[1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
O prompt real foi este
Foi pedido que não fizesse busca na internet e que tentasse produzir uma prova ou refutação não trivial, nova e criativa sobre um problema de number theory and primitive sets
Exigiram uma proof ou disproof completa e unconditional, reforçando novamente que esse tipo de afirmação pode exigir elementos não triviais e criativos
E ainda aparecia
Thought for 80m 17shttps://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
propondo provar
w(a)= 1/alog(a)euniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))e alegando que isso era uma conclusão mais forte do que o
1+o(1)pedidohttps://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
Mas não entendo matemática o suficiente para julgar se isso é mesmo uma prova correta
O avanço da ciência muitas vezes aconteceu ao levar a técnica X de uma área para o problema Y de outra, e os LLMs parecem ser melhores do que humanos nesse tipo de conexão entre áreas
Porque conhecem muito mais teorias e abordagens do que qualquer pessoa consegue conhecer e não precisam se preocupar em parecer bobos diante dos colegas
A capacidade de generalizar conhecimento e aplicá-lo em outros domínios
Nisso os LLMs são muito melhores do que humanos, e parece até que as pessoas tradicionalmente classificaram isso de forma equivocada como criatividade
Não diria que produzi grandes breakthroughs, mas tive a sensação de obter algumas percepções que dariam para virar white papers
O próprio processo de conectar correlações entre várias áreas já é bem divertido como experimento com LLM
Quando eu era criança, lia páginas inteiras de uma vez, e em algum momento isso virou leitura palavra por palavra, linha por linha, e esse modo ficou fixo
Na faculdade, por um tempo, também tive uma percepção mais profunda, ampla e não linear dentro da minha área de matemática, mas não sei dizer se era treino do hemisfério esquerdo ou se o direito estava mais ativo
Os LLMs certamente vão nos superar nesse tipo de pensamento sequencial, e aí fico pensando se os humanos vão ter de avançar mais para o lado da right-brainness, ou se a IA também vai chegar lá mais rápido
IA é meu colaborador estranho favorito
Alguns problemas de Erdős acabam ficando quase triviais quando se usam técnicas sofisticadas desenvolvidas depois
Um dos meus professores foi coautor com Erdős e tinha muito orgulho de dizer que conseguiu transformar um problema de Erdős, que tinha ficado em aberto por um tempo, em questão de prova para alunos de graduação
Então este caso parece evidência de que o modelo realmente ficou mais forte
Porque as gerações anteriores de LLM não conseguiam resolver esse problema
Por isso este resultado parece ainda mais promissor
Porque agora surgiu uma nova linha de abordagem que vale a pena avaliar também em problemas parecidos
A esta altura, seria bom criar um GitHub repo com um monte de problemas em aberto de dry lab e montar um harness para rodar tudo de novo a cada novo modelo
[1] https://github.com/teorth/erdosproblems
Este texto é sobre um deles ter sido resolvido
A frase
a prova original do ChatGPT era na verdade bem ruim, e foi preciso que um especialista filtrasse e entendesse o que ela queria dizerme passa exatamente a mesma sensação que sempre tenho ao ler artigos de matemáticaSe este era um problema de 60 anos, fiquei pensando se na verdade ele já não teria sido resolvido indiretamente, e o modelo apenas encontrou isso cruzando várias informações
Olhando o site, quase não há vestígios de discussões humanas antigas, e até os comentários recentes parecem falar só da descoberta do GPT, o que reforçou essa impressão
Para um problema de 60 anos, eu esperaria discussões mais antigas, então fico curioso sobre o que estou deixando passar
Ainda assim, é uma descoberta excelente, e deve haver mais problemas parecidos que valem a pena reexaminar com GPT
Humanos, e também as máquinas feitas por humanos, normalmente resolvem problemas de forma cumulativa
Continuam empilhando coisas sobre uma base existente e, por não querer reinventar a roda, acabam presos a certos modos de pensar
Então não me surpreende tanto que um LLM ingênuo tenha proposto uma abordagem que especialistas não tentaram
Em casos limitados como esse, o LLM pode ser bem útil como fonte de outra abordagem, e nem precisa estar certo: basta apresentar uma alternativa e bagunçar o tabuleiro
Só não sei qual valor prático esse problema de Erdős teria
Se a pergunta é se isso prova que LLMs não são inúteis, isso me soa como perguntar em 1928 se valeria investir milhões de dólares em teoria dos números
Na época, a resposta provavelmente seria
não, e saia do meu escritório