- Uma análise com 5 indicadores reais para medir o avanço da IA calculou, até o milissegundo, o momento de chegada da Singularidade e chegou à data de terça-feira, 18 de julho de 2034
- Ao ajustar independentemente 5 indicadores como pontuação no MMLU, tokens por dólar, intervalo entre lançamentos de modelos de fronteira, número de artigos no arXiv com "emergent" e participação de código do Copilot, o único indicador que de fato mostrou curvatura hiperbólica foi apenas o número de artigos no arXiv com "emergent"
- Todos os indicadores de capacidade das máquinas seguem tendência linear e não mostram sinal de singularidade; a única coisa que acelera é o interesse humano e a empolgação/ansiedade em torno dos fenômenos emergentes da IA
- Já em 2026, grandes demissões, atraso institucional, concentração de capital, queda de confiança e rearranjo político mostram que a singularidade social está precedendo a singularidade tecnológica
- A essência da singularidade não é o momento em que as máquinas alcançam a superinteligência, mas o momento em que os humanos perdem a capacidade de tomar decisões coletivas consistentes sobre as máquinas
Dados: 5 indicadores de progresso da IA
- Foram usados 5 indicadores escolhidos com base no significado grego de "importância antrópica (anthropic significance)" (não se refere à empresa Anthropic)
- Pontuação no MMLU: benchmark equivalente ao SAT para modelos de linguagem, com dados de GPT-3 (junho de 2020, 43,9%) até Claude Opus 4.5 (novembro de 2025, 90,8%)
- Tokens de saída por dólar: mede o colapso do custo da inteligência e aplica transformação logarítmica; vai de GPT-3 davinci (16.667 tokens/$) até Gemini 2.0 Flash (2.500.000 tokens/$), cobrindo uma faixa de 5 ordens de magnitude
- Intervalo entre lançamentos de modelos de fronteira: o encurtamento do tempo entre momentos "chocantes", de GPT-3→ChatGPT (902 dias) até Gemini 2.5 Pro→GPT-4.1 (20 dias)
- Número de artigos no arXiv com "emergent": baseado em uma janela móvel de 12 meses, como medida memética da empolgação acadêmica
- Participação de código do Copilot: proporção de código escrita por IA
- Cada indicador foi normalizado para [0,1]; o intervalo entre lançamentos foi invertido (quanto menor, maior o valor), tokens/$ foram transformados em log antes da normalização, e cada série manteve sua escala independente
Por que um modelo hiperbólico
- A função exponencial f(t) = ae^(bt), usada na maioria das extrapolações sobre IA, só alcança infinito quando t→∞, então não consegue representar uma singularidade em tempo finito
- O crescimento polinomial (t^n) também não consegue chegar ao infinito em tempo finito
- A função hiperbólica x(t) = k/(t_s − t) + c tem a propriedade de divergir em um ponto finito porque o denominador vai a 0 quando t→t_s
- O crescimento hiperbólico ocorre quando o que está crescendo acelera o próprio crescimento: IA melhor → ferramentas melhores para pesquisa em IA → IA melhor → loop de feedback positivo superlinear
Metodologia de ajuste
- Para cada indicador j, foi ajustada independentemente uma hipérbole y_i^(j) = k_j/(t_s − t_i) + c_j, mas compartilhando o mesmo instante de singularidade t_s
- Cada série tem sua própria escala k_j e offset c_j, então indicadores com eixos y diferentes, como pontuação no MMLU e tokens por dólar, ainda podem convergir em t_s
- Ao minimizar o RSS total, há o problema de que o melhor t_s sempre vai para o infinito: uma hipérbole distante degenera em reta e se ajusta bem a dados ruidosos
- Como alternativa, foi feita uma busca em grade pelo pico de R² para cada série de forma independente
- Se o R² atinge um pico em t_s finito, há um sinal hiperbólico real
- Se o R² continua aumentando quando t_s→∞, na prática a série é linear e não há sinal de singularidade
- Resultado: apenas o arXiv "emergent" mostrou um pico claro de R²; nas outras 4 séries, o ajuste linear foi melhor
A data obtida
- Momento previsto da singularidade: terça-feira, 18 de julho de 2034, 02:52:52.170 UTC
- n = 52 (5 séries), intervalo de confiança de 95%: janeiro de 2030 a janeiro de 2041 (largura de 132,4 meses)
- R² por série (com t_s compartilhado): MMLU 0,747, tokens/$ 0,020, intervalo entre lançamentos 0,291, arXiv "emergent" 0,926, participação de código do Copilot 1,000
- O intervalo de confiança de 95% foi derivado da verossimilhança de perfil (profile likelihood) para t_s, com base no valor crítico de F
Análise de sensibilidade
- Análise Drop-One-Out: mede o quanto t_s se desloca quando um indicador é removido
- Mesmo removendo MMLU, tokens/$, intervalo entre lançamentos ou participação de código do Copilot, não houve variação em t_s (+0,0 mês)
- Ao remover o arXiv "emergent", t_s foi para fevereiro de 2036, deslocando 18,6 meses (empurrado para o limite da busca)
- Conclusão: o arXiv faz todo o trabalho, e as outras séries apenas fornecem curvas de contexto no t_s compartilhado
- O Copilot tem 2 pontos de dados para 2 parâmetros, então o grau de liberdade é 0; ele se ajusta perfeitamente a qualquer hipérbole e não afeta t_s
O que t_s realmente significa
- O fato de o número de artigos no arXiv ir ao infinito não significa que um número infinito de artigos será publicado naquela terça-feira de 2034
- t_s é um marcador de transição de fase: o ponto em que a curvatura da trajetória atual já não pode mais ser mantida, seja por ruptura para algo qualitativamente novo, seja por saturação que prove que a hipérbole estava errada
- O fato central e desconfortável: o indicador que realmente segue uma hipérbole é o interesse humano, não a capacidade das máquinas
- MMLU, tokens/$, intervalo entre lançamentos e outros indicadores reais de capacidade e infraestrutura são todos lineares e sem extremo finito
- A única curva que aponta para uma data finita é a frequência com que pesquisadores descobrem e nomeiam novos comportamentos, isto é, a "empolgação acadêmica medida memeticamente"
- A conclusão dos dados: as máquinas melhoram em ritmo constante, enquanto os humanos aceleram sua aceleração e sua empolgação em relação a isso
Singularidade social: um fenômeno que já está em curso
- Se t_s é o ponto em que a velocidade da surpresa causada pela IA excede a capacidade humana de processá-la, a pergunta interessante é o que acontece com os humanos, não com as máquinas
- Mudança brusca no mercado de trabalho: em 2025, foram anunciadas 1,1 milhão de demissões (a 6ª vez desde 1993 que esse limiar foi ultrapassado), com mais de 55.000 citando explicitamente a IA como causa
- A HBR constatou que empresas estão reduzindo pessoal com base não no desempenho real da IA, mas em seu potencial
- A curva não precisa atingir o extremo; basta parecer que vai atingir para que ocorram reestruturações preventivas
- Fracasso da resposta institucional: as regras de alto risco do EU AI Act foram adiadas para 2027; nos EUA, a ordem executiva sobre IA de 2023 foi revogada em janeiro de 2025 e, em dezembro, saiu uma nova ordem para preempção de leis estaduais, enquanto California e Colorado seguem caminho próprio
- As leis em elaboração hoje regulam problemas de 2023; quando a legislação alcançar o GPT-4, o mundo já terá chegado ao GPT-7
- A incapacidade visível dos governos não corrói a confiança, ela a faz colapsar; a confiança global na IA caiu para 56%
- Concentração de capital em nível dot-com: as 10 maiores ações do S&P 500 (em sua maioria ligadas à IA) atingiram 40,7% do índice em 2025, superando o pico da bolha dot-com
- Desde o lançamento do ChatGPT, ações ligadas à IA responderam por 75% do retorno do S&P 500, 80% do crescimento dos lucros e 90% do crescimento dos gastos de capital
- O Shiller CAPE chegou a 39,4, nível visto pela última vez em 1999
- Impacto psicológico: terapeutas relatam um salto de FOBO (Fear of Becoming Obsolete), com pacientes dizendo que “o universo está dizendo: ‘você não é mais necessário’”
- 60% dos trabalhadores americanos esperam que a IA elimine mais empregos do que crie
- O uso de IA subiu 13% em relação ao ano anterior, enquanto a confiança na IA caiu 18%: quanto mais se usa, menos se confia
- Ruptura epistemológica: menos de 1/3 da pesquisa em IA é reproduzível, menos de 5% dos pesquisadores compartilham código, e laboratórios corporativos publicam menos
- A distância entre o conhecimento dos laboratórios de fronteira e o conhecimento público está aumentando, e formuladores de políticas operam com informações já ultrapassadas
- Especialistas que testemunham no Congresso se contradizem entre si: a área avança mais rápido do que a própria expertise consegue se formar
- Rearranjo político: a TIME relatou reação populista à IA, a Foreign Affairs disse que “a economia da raiva vai fortalecer o populismo”, e a HuffPost afirmou que a IA vai definir as eleições de meio de mandato de 2026
- O movimento MAGA se divide sobre se a IA é pró-corporações ou anti-trabalho, enquanto Sanders propõe uma moratória para data centers
- O eixo tradicional entre esquerda e direita está colapsando sob o peso dessa questão
- Tudo isso acontece 8 anos antes de t_s: a singularidade social precede a tecnológica, e o caos institucional e psicológico não espera uma explosão vertical de capacidades; ele começa no momento em que a trajetória é percebida
Observações (Caveats)
- A data vem de uma única série: só o arXiv "emergent" tem curvatura hiperbólica real; nas outras 4, a reta se ajusta melhor
- O significado prático da data da singularidade é “o momento em que a pesquisa sobre emergência em IA sobe na vertical”, e a questão central é se a empolgação acadêmica é indicador antecedente ou retardatário
- O modelo assume estacionariedade (stationarity): a curva acabará fazendo inflexão para um comportamento logístico (saturação do hype) ou para uma forma que o modelo não consegue representar (transição de fase real); t_s é o ponto em que o regime atual se torna insustentável, não uma previsão do que vem depois
- Efeito de teto no MMLU: um artefato de compressão perto do topo causado pela saturação do benchmark, refletido no R² baixo
- Tokens/$ passaram por transformação logarítmica e não são monotônicos: o GPT-4 era mais caro que o 3.5, e o Opus 4.5 custa mais que o DeepSeek-R1; a curva de custo não é suave e mistura avanços de Pareto com modelos caros
- Cinco indicadores não bastam: adicionar SWE-bench, ARC, GPQA, volume de compra de computação e salários de talentos pode reduzir a dependência do arXiv; a razão para usar 5 foi que cabiam na mesa
- O Copilot tem 2 pontos de dados: com grau de liberdade 0, não contribui para t_s
Conclusão
- Com dados reais e um modelo matemático, chega-se a um momento claro de singularidade
- Essa singularidade não significa superinteligência das máquinas, mas o colapso da atenção da sociedade humana
- O que a matemática encontrou foi um único indicador apontando para um extremo em um milissegundo específico: a velocidade com que humanos descobrem comportamentos emergentes de IA
- Os outros 4 indicadores são lineares: as máquinas estão melhorando de forma constante; quem está acelerando são os humanos
- Em trabalho, instituições, capital, conhecimento e política, a singularidade social já está em andamento
- Antes que chegue a singularidade tecnológica, virá primeiro um limite coletivo em que os humanos já não conseguem acompanhar a velocidade das mudanças em IA
- A singularidade nos dados é a singularidade da atenção humana, e ela já exerce gravidade sobre tudo em que toca
- A humanidade já entrou nessa contagem regressiva
3 comentários
O curioso é que os grandes anúncios, como os de novos modelos da OpenAI, Google e Anthropic, geralmente acontecem às terças e quintas-feiras.
No horário da Coreia, eles costumam ser anunciados por volta das 2h–3h da manhã de quarta e sexta (10h da manhã no horário da Califórnia), então, se você estiver sem sono de madrugada, vale a pena conferir as notícias nesse horário.
Comentários do Hacker News
Este texto foi realmente interessante. O autor passa um bom tempo explicando seu modelo e metodologia antes de enfim chegar ao ponto principal — mais importante do que a singularidade realmente acontecer é quantas pessoas acreditam nela e agem com base nisso
Por isso, mudei o foco do debate técnico para a discussão social. A ideia de que “é muito ruim tentar substituir o trabalho humano sem mudar a estrutura social que faz a sobrevivência depender do trabalho assalariado” gera muito mais identificação
A forma simples é “fazer todo mundo acreditar que você já venceu”; a forma sofisticada é “fazer todo mundo acreditar que os outros também acreditam nisso”. No fim, as pessoas passam a agir de acordo com essa crença
LLMs são apenas motores de previsão estatística, mas nesse processo podem surgir emergent behavior, ou seja, comportamentos inteligentes. Ainda não dá para saber com certeza
Se a singularidade não vier, então a crença das pessoas é muito importante; mas se ela vier de fato, a crença se torna quase irrelevante
Citando um trecho de Dune, de Frank Herbert, alguém diz que, ao delegar o pensamento às máquinas, outros humanos passaram a dominar humanos por meio das máquinas
Agora, alerta-se, deixaremos de ler, escrever e pensar. Se os LLMs fizerem tudo por nós, isso levará ao fim da humanidade
E, mencionando o projeto Poison Fountain, apresenta-se uma arma anti-IA que injeta “dados tóxicos” em web crawlers todos os dias. Convidam as pessoas a participar
Alguém apresenta o conto de 1965 de R.A. Lafferty, 「Slow Tuesday Night」.
É uma ficção científica de 2.600 palavras sobre uma sociedade ultrarrápida, em que um dia passa em poucos minutos
Citando a frase de que “a singularidade não é o momento em que as máquinas se tornam superinteligentes, mas o momento em que os humanos deixam de conseguir tomar decisões coletivas coerentes sobre as máquinas”, alguém reage com admiração
O conteúdo do artigo foi interessante. Em 2025, foram anunciadas 1,1 milhão de demissões, e 55 mil delas citaram a IA como motivo. Mas isso se baseava não no desempenho real da IA, e sim em seu “potencial”
No fim, a IA apenas revelou algo que já sabíamos: há empregos de escritório sem sentido demais
Alguém apresenta uma equação diferencial que expressa o “boom de inteligência” em um modelo simples
`dx/dt = x²` tem como solução `x = 1/(C - t)`, e seu crescimento é ainda mais abrupto do que o crescimento exponencial, em que a taxa de crescimento é proporcional a x.
Mas, ao considerar restrições reais (energia, recursos etc.), isso acaba convergindo para algo parecido com crescimento logístico
Lembra-se que tudo isso existe por causa dos videogames. Sem a evolução do hardware de GPU, não haveria LLMs
Na verdade, a IA é o resultado de décadas de acúmulo tecnológico — chips, internet, open source, cloud, data centers, matemática e física, tudo isso como um processo que inevitavelmente vinha caminhando para a singularidade
Alguém expressa alívio em tom de piada: “Que bom saber que estaremos bem até 2034”
Levanta-se a dúvida de por que a singularidade já não é mais discutida com base no conceito de duplicação do conhecimento (knowledge doubling)
Mencionando a ‘Knowledge Doubling Curve’ de Buckminster Fuller e a ‘Law of Accelerating Returns’ de Ray Kurzweil,
argumenta-se que, se no passado o conhecimento humano dobrava a cada 100 anos e depois a cada 25 anos, talvez o ponto em que essa velocidade converge ao infinito devesse ser considerado a singularidade
Alguém se mostra aliviado por talvez não precisar enfrentar o problema do timestamp Unix de 2038
Mesmo numa previsão otimista, ainda faltam 8 anos; há muito tempo e muita coisa para fazer. Não dá para viver sem fazer nada durante o tempo em que um recém-nascido vira aluno do ensino fundamental.