18 pontos por GN⁺ 2026-02-11 | 3 comentários | Compartilhar no WhatsApp
  • Uma análise com 5 indicadores reais para medir o avanço da IA calculou, até o milissegundo, o momento de chegada da Singularidade e chegou à data de terça-feira, 18 de julho de 2034
  • Ao ajustar independentemente 5 indicadores como pontuação no MMLU, tokens por dólar, intervalo entre lançamentos de modelos de fronteira, número de artigos no arXiv com "emergent" e participação de código do Copilot, o único indicador que de fato mostrou curvatura hiperbólica foi apenas o número de artigos no arXiv com "emergent"
  • Todos os indicadores de capacidade das máquinas seguem tendência linear e não mostram sinal de singularidade; a única coisa que acelera é o interesse humano e a empolgação/ansiedade em torno dos fenômenos emergentes da IA
  • Já em 2026, grandes demissões, atraso institucional, concentração de capital, queda de confiança e rearranjo político mostram que a singularidade social está precedendo a singularidade tecnológica
  • A essência da singularidade não é o momento em que as máquinas alcançam a superinteligência, mas o momento em que os humanos perdem a capacidade de tomar decisões coletivas consistentes sobre as máquinas

Dados: 5 indicadores de progresso da IA

  • Foram usados 5 indicadores escolhidos com base no significado grego de "importância antrópica (anthropic significance)" (não se refere à empresa Anthropic)
  • Pontuação no MMLU: benchmark equivalente ao SAT para modelos de linguagem, com dados de GPT-3 (junho de 2020, 43,9%) até Claude Opus 4.5 (novembro de 2025, 90,8%)
  • Tokens de saída por dólar: mede o colapso do custo da inteligência e aplica transformação logarítmica; vai de GPT-3 davinci (16.667 tokens/$) até Gemini 2.0 Flash (2.500.000 tokens/$), cobrindo uma faixa de 5 ordens de magnitude
  • Intervalo entre lançamentos de modelos de fronteira: o encurtamento do tempo entre momentos "chocantes", de GPT-3→ChatGPT (902 dias) até Gemini 2.5 Pro→GPT-4.1 (20 dias)
  • Número de artigos no arXiv com "emergent": baseado em uma janela móvel de 12 meses, como medida memética da empolgação acadêmica
  • Participação de código do Copilot: proporção de código escrita por IA
  • Cada indicador foi normalizado para [0,1]; o intervalo entre lançamentos foi invertido (quanto menor, maior o valor), tokens/$ foram transformados em log antes da normalização, e cada série manteve sua escala independente

Por que um modelo hiperbólico

  • A função exponencial f(t) = ae^(bt), usada na maioria das extrapolações sobre IA, só alcança infinito quando t→∞, então não consegue representar uma singularidade em tempo finito
  • O crescimento polinomial (t^n) também não consegue chegar ao infinito em tempo finito
  • A função hiperbólica x(t) = k/(t_s − t) + c tem a propriedade de divergir em um ponto finito porque o denominador vai a 0 quando t→t_s
  • O crescimento hiperbólico ocorre quando o que está crescendo acelera o próprio crescimento: IA melhor → ferramentas melhores para pesquisa em IA → IA melhor → loop de feedback positivo superlinear

Metodologia de ajuste

  • Para cada indicador j, foi ajustada independentemente uma hipérbole y_i^(j) = k_j/(t_s − t_i) + c_j, mas compartilhando o mesmo instante de singularidade t_s
  • Cada série tem sua própria escala k_j e offset c_j, então indicadores com eixos y diferentes, como pontuação no MMLU e tokens por dólar, ainda podem convergir em t_s
  • Ao minimizar o RSS total, há o problema de que o melhor t_s sempre vai para o infinito: uma hipérbole distante degenera em reta e se ajusta bem a dados ruidosos
  • Como alternativa, foi feita uma busca em grade pelo pico de R² para cada série de forma independente
    • Se o R² atinge um pico em t_s finito, há um sinal hiperbólico real
    • Se o R² continua aumentando quando t_s→∞, na prática a série é linear e não há sinal de singularidade
  • Resultado: apenas o arXiv "emergent" mostrou um pico claro de R²; nas outras 4 séries, o ajuste linear foi melhor

A data obtida

  • Momento previsto da singularidade: terça-feira, 18 de julho de 2034, 02:52:52.170 UTC
  • n = 52 (5 séries), intervalo de confiança de 95%: janeiro de 2030 a janeiro de 2041 (largura de 132,4 meses)
  • R² por série (com t_s compartilhado): MMLU 0,747, tokens/$ 0,020, intervalo entre lançamentos 0,291, arXiv "emergent" 0,926, participação de código do Copilot 1,000
  • O intervalo de confiança de 95% foi derivado da verossimilhança de perfil (profile likelihood) para t_s, com base no valor crítico de F

Análise de sensibilidade

  • Análise Drop-One-Out: mede o quanto t_s se desloca quando um indicador é removido
  • Mesmo removendo MMLU, tokens/$, intervalo entre lançamentos ou participação de código do Copilot, não houve variação em t_s (+0,0 mês)
  • Ao remover o arXiv "emergent", t_s foi para fevereiro de 2036, deslocando 18,6 meses (empurrado para o limite da busca)
  • Conclusão: o arXiv faz todo o trabalho, e as outras séries apenas fornecem curvas de contexto no t_s compartilhado
  • O Copilot tem 2 pontos de dados para 2 parâmetros, então o grau de liberdade é 0; ele se ajusta perfeitamente a qualquer hipérbole e não afeta t_s

O que t_s realmente significa

  • O fato de o número de artigos no arXiv ir ao infinito não significa que um número infinito de artigos será publicado naquela terça-feira de 2034
  • t_s é um marcador de transição de fase: o ponto em que a curvatura da trajetória atual já não pode mais ser mantida, seja por ruptura para algo qualitativamente novo, seja por saturação que prove que a hipérbole estava errada
  • O fato central e desconfortável: o indicador que realmente segue uma hipérbole é o interesse humano, não a capacidade das máquinas
  • MMLU, tokens/$, intervalo entre lançamentos e outros indicadores reais de capacidade e infraestrutura são todos lineares e sem extremo finito
  • A única curva que aponta para uma data finita é a frequência com que pesquisadores descobrem e nomeiam novos comportamentos, isto é, a "empolgação acadêmica medida memeticamente"
  • A conclusão dos dados: as máquinas melhoram em ritmo constante, enquanto os humanos aceleram sua aceleração e sua empolgação em relação a isso

Singularidade social: um fenômeno que já está em curso

  • Se t_s é o ponto em que a velocidade da surpresa causada pela IA excede a capacidade humana de processá-la, a pergunta interessante é o que acontece com os humanos, não com as máquinas
  • Mudança brusca no mercado de trabalho: em 2025, foram anunciadas 1,1 milhão de demissões (a 6ª vez desde 1993 que esse limiar foi ultrapassado), com mais de 55.000 citando explicitamente a IA como causa
    • A HBR constatou que empresas estão reduzindo pessoal com base não no desempenho real da IA, mas em seu potencial
    • A curva não precisa atingir o extremo; basta parecer que vai atingir para que ocorram reestruturações preventivas
  • Fracasso da resposta institucional: as regras de alto risco do EU AI Act foram adiadas para 2027; nos EUA, a ordem executiva sobre IA de 2023 foi revogada em janeiro de 2025 e, em dezembro, saiu uma nova ordem para preempção de leis estaduais, enquanto California e Colorado seguem caminho próprio
    • As leis em elaboração hoje regulam problemas de 2023; quando a legislação alcançar o GPT-4, o mundo já terá chegado ao GPT-7
    • A incapacidade visível dos governos não corrói a confiança, ela a faz colapsar; a confiança global na IA caiu para 56%
  • Concentração de capital em nível dot-com: as 10 maiores ações do S&P 500 (em sua maioria ligadas à IA) atingiram 40,7% do índice em 2025, superando o pico da bolha dot-com
    • Desde o lançamento do ChatGPT, ações ligadas à IA responderam por 75% do retorno do S&P 500, 80% do crescimento dos lucros e 90% do crescimento dos gastos de capital
    • O Shiller CAPE chegou a 39,4, nível visto pela última vez em 1999
  • Impacto psicológico: terapeutas relatam um salto de FOBO (Fear of Becoming Obsolete), com pacientes dizendo que “o universo está dizendo: ‘você não é mais necessário’”
    • 60% dos trabalhadores americanos esperam que a IA elimine mais empregos do que crie
    • O uso de IA subiu 13% em relação ao ano anterior, enquanto a confiança na IA caiu 18%: quanto mais se usa, menos se confia
  • Ruptura epistemológica: menos de 1/3 da pesquisa em IA é reproduzível, menos de 5% dos pesquisadores compartilham código, e laboratórios corporativos publicam menos
    • A distância entre o conhecimento dos laboratórios de fronteira e o conhecimento público está aumentando, e formuladores de políticas operam com informações já ultrapassadas
    • Especialistas que testemunham no Congresso se contradizem entre si: a área avança mais rápido do que a própria expertise consegue se formar
  • Rearranjo político: a TIME relatou reação populista à IA, a Foreign Affairs disse que “a economia da raiva vai fortalecer o populismo”, e a HuffPost afirmou que a IA vai definir as eleições de meio de mandato de 2026
    • O movimento MAGA se divide sobre se a IA é pró-corporações ou anti-trabalho, enquanto Sanders propõe uma moratória para data centers
    • O eixo tradicional entre esquerda e direita está colapsando sob o peso dessa questão
  • Tudo isso acontece 8 anos antes de t_s: a singularidade social precede a tecnológica, e o caos institucional e psicológico não espera uma explosão vertical de capacidades; ele começa no momento em que a trajetória é percebida

Observações (Caveats)

  • A data vem de uma única série: só o arXiv "emergent" tem curvatura hiperbólica real; nas outras 4, a reta se ajusta melhor
    • O significado prático da data da singularidade é “o momento em que a pesquisa sobre emergência em IA sobe na vertical”, e a questão central é se a empolgação acadêmica é indicador antecedente ou retardatário
  • O modelo assume estacionariedade (stationarity): a curva acabará fazendo inflexão para um comportamento logístico (saturação do hype) ou para uma forma que o modelo não consegue representar (transição de fase real); t_s é o ponto em que o regime atual se torna insustentável, não uma previsão do que vem depois
  • Efeito de teto no MMLU: um artefato de compressão perto do topo causado pela saturação do benchmark, refletido no R² baixo
  • Tokens/$ passaram por transformação logarítmica e não são monotônicos: o GPT-4 era mais caro que o 3.5, e o Opus 4.5 custa mais que o DeepSeek-R1; a curva de custo não é suave e mistura avanços de Pareto com modelos caros
  • Cinco indicadores não bastam: adicionar SWE-bench, ARC, GPQA, volume de compra de computação e salários de talentos pode reduzir a dependência do arXiv; a razão para usar 5 foi que cabiam na mesa
  • O Copilot tem 2 pontos de dados: com grau de liberdade 0, não contribui para t_s

Conclusão

  • Com dados reais e um modelo matemático, chega-se a um momento claro de singularidade
    • Essa singularidade não significa superinteligência das máquinas, mas o colapso da atenção da sociedade humana
  • O que a matemática encontrou foi um único indicador apontando para um extremo em um milissegundo específico: a velocidade com que humanos descobrem comportamentos emergentes de IA
    • Os outros 4 indicadores são lineares: as máquinas estão melhorando de forma constante; quem está acelerando são os humanos
  • Em trabalho, instituições, capital, conhecimento e política, a singularidade social já está em andamento
  • Antes que chegue a singularidade tecnológica, virá primeiro um limite coletivo em que os humanos já não conseguem acompanhar a velocidade das mudanças em IA
  • A singularidade nos dados é a singularidade da atenção humana, e ela já exerce gravidade sobre tudo em que toca
    • A humanidade já entrou nessa contagem regressiva

3 comentários

 
mammal 2026-02-11

O curioso é que os grandes anúncios, como os de novos modelos da OpenAI, Google e Anthropic, geralmente acontecem às terças e quintas-feiras.

No horário da Coreia, eles costumam ser anunciados por volta das 2h–3h da manhã de quarta e sexta (10h da manhã no horário da Califórnia), então, se você estiver sem sono de madrugada, vale a pena conferir as notícias nesse horário.

 
GN⁺ 2026-02-11
Comentários do Hacker News
  • Este texto foi realmente interessante. O autor passa um bom tempo explicando seu modelo e metodologia antes de enfim chegar ao ponto principal — mais importante do que a singularidade realmente acontecer é quantas pessoas acreditam nela e agem com base nisso
    Por isso, mudei o foco do debate técnico para a discussão social. A ideia de que “é muito ruim tentar substituir o trabalho humano sem mudar a estrutura social que faz a sobrevivência depender do trabalho assalariado” gera muito mais identificação

    • Isso me lembrou um conceito de que gosto, o ‘epistemic takeover’ (tomada epistêmica).
      A forma simples é “fazer todo mundo acreditar que você já venceu”; a forma sofisticada é “fazer todo mundo acreditar que os outros também acreditam nisso”. No fim, as pessoas passam a agir de acordo com essa crença
    • Acho que explicar “como os LLMs realmente funcionam” é parecido com dizer que “humanos são apenas um conjunto de moléculas e neurônios, portanto não têm significado”.
      LLMs são apenas motores de previsão estatística, mas nesse processo podem surgir emergent behavior, ou seja, comportamentos inteligentes. Ainda não dá para saber com certeza
    • Também há muita gente que discorda da ideia de que “é ruim quando a substituição do trabalho vem antes da reforma social”. O problema é que elas não pagam o preço disso — em vez disso, recebem stock options
    • Não concordo com a afirmação de que “não importa se a singularidade realmente acontece”.
      Se a singularidade não vier, então a crença das pessoas é muito importante; mas se ela vier de fato, a crença se torna quase irrelevante
    • Esse tipo de discussão já existia nos anos 1980. A indústria de tecnologia precisa formar pessoas interessadas em capacidades reais e suas nuances e afastar seguidores no estilo autoajuda que acham que “dá para ter sucesso sem nem ter um produto”
  • Citando um trecho de Dune, de Frank Herbert, alguém diz que, ao delegar o pensamento às máquinas, outros humanos passaram a dominar humanos por meio das máquinas
    Agora, alerta-se, deixaremos de ler, escrever e pensar. Se os LLMs fizerem tudo por nós, isso levará ao fim da humanidade
    E, mencionando o projeto Poison Fountain, apresenta-se uma arma anti-IA que injeta “dados tóxicos” em web crawlers todos os dias. Convidam as pessoas a participar

    • Os LLMs não têm esse efeito sobre mim. Pelo contrário, eu os uso de forma útil, como uma ferramenta de busca aprimorada
    • Em contraste com a distopia de Herbert, imagino uma utopia ao estilo de Iain Banks
    • Não se deve tratar as falas de escritores de ficção científica como profecias. Herbert apenas criou um dispositivo para explicar por que a singularidade não aconteceu no universo dele
    • O “fim da humanidade” já foi previsto muitas vezes, mas a humanidade sempre mudou e sobreviveu. Quando se elimina um problema, outro aparece no lugar
  • Alguém apresenta o conto de 1965 de R.A. Lafferty, 「Slow Tuesday Night」.
    É uma ficção científica de 2.600 palavras sobre uma sociedade ultrarrápida, em que um dia passa em poucos minutos

    • Há uma cena em que um filósofo termina um livro de filosofia em apenas 7 minutos, o que parece ajuste de prompt de LLM. O processo de misturar palavras e inserir uma “assinatura de personalidade” lembra muito a escrita com IA de hoje
  • Citando a frase de que “a singularidade não é o momento em que as máquinas se tornam superinteligentes, mas o momento em que os humanos deixam de conseguir tomar decisões coletivas coerentes sobre as máquinas”, alguém reage com admiração

    • Tenho a sensação de que já passamos desse ponto há bastante tempo
    • Além disso, a postura das Big Techs de tentar escapar da regulação e se mover mais rápido do que a burocracia só piora a situação
  • O conteúdo do artigo foi interessante. Em 2025, foram anunciadas 1,1 milhão de demissões, e 55 mil delas citaram a IA como motivo. Mas isso se baseava não no desempenho real da IA, e sim em seu “potencial”
    No fim, a IA apenas revelou algo que já sabíamos: há empregos de escritório sem sentido demais

    • Em 32 anos desde 1993, houve 6 episódios desse porte. Ou seja, algo como uma vez a cada 5 anos, então não é tão histórico assim
    • Isso é apenas uma continuação do ‘next quarter problem’ voltado para resultados de curto prazo. Empresas monopolistas podem cortar metade da força de trabalho sem perder clientes
    • O motivo de haver mais cargos de gerência intermediária é que outros empregos desapareceram. Para não passar fome, as pessoas acabam aceitando até cargos burocráticos sem sentido
    • Achava-se que DevOps acabaria com DBAs e SysAdmins, mas, em vez disso, criou uma nova indústria. Os “empregos sem sentido” continuam existindo
    • O fato de haver três vezes mais cargos administrativos do que nos anos 1960 também se explica, em parte, porque a população triplicou. Não dá para concluir simplesmente que são inúteis
  • Alguém apresenta uma equação diferencial que expressa o “boom de inteligência” em um modelo simples
    `dx/dt = x²` tem como solução `x = 1/(C - t)`, e seu crescimento é ainda mais abrupto do que o crescimento exponencial, em que a taxa de crescimento é proporcional a x.
    Mas, ao considerar restrições reais (energia, recursos etc.), isso acaba convergindo para algo parecido com crescimento logístico

    • Por causa do cone de luz (light cone), o crescimento em grande escala não pode ser mais rápido que x³ e, na prática, x² parece ser o limite
    • “Estão mesmo trazendo lógica e realidade para uma discussão sobre singularidade?”, comenta alguém em tom de brincadeira
  • Lembra-se que tudo isso existe por causa dos videogames. Sem a evolução do hardware de GPU, não haveria LLMs
    Na verdade, a IA é o resultado de décadas de acúmulo tecnológico — chips, internet, open source, cloud, data centers, matemática e física, tudo isso como um processo que inevitavelmente vinha caminhando para a singularidade

    • Mas alguém é cético e diz que, mesmo sem a NVIDIA, outra indústria teria desenvolvido hardware para operações de álgebra linear
    • Outra pessoa descarta isso como “completo absurdo”
  • Alguém expressa alívio em tom de piada: “Que bom saber que estaremos bem até 2034”

  • Levanta-se a dúvida de por que a singularidade já não é mais discutida com base no conceito de duplicação do conhecimento (knowledge doubling)
    Mencionando a ‘Knowledge Doubling Curve’ de Buckminster Fuller e a ‘Law of Accelerating Returns’ de Ray Kurzweil,
    argumenta-se que, se no passado o conhecimento humano dobrava a cada 100 anos e depois a cada 25 anos, talvez o ponto em que essa velocidade converge ao infinito devesse ser considerado a singularidade

  • Alguém se mostra aliviado por talvez não precisar enfrentar o problema do timestamp Unix de 2038

    • Imagina-se um conto apocalíptico em 20 de janeiro de 2038, com enxames de drones caindo do céu enquanto a humanidade tenta sobreviver
    • Na verdade, esse tipo de desejo pelo fim talvez seja a força psicológica que impulsiona o apocalipse
    • Brinca-se que assim não será preciso fazer manutenção de software vibecoded dos anos 2020
    • Alguém relembra ter comprado uma camiseta “Y2038” em 1998. Na época, parecia um futuro distante, mas agora faltam só 12 anos
    • “Ufa, as máquinas devem resolver isso sozinhas”, comenta alguém com alívio
 
pencil6962 2026-02-11

Mesmo numa previsão otimista, ainda faltam 8 anos; há muito tempo e muita coisa para fazer. Não dá para viver sem fazer nada durante o tempo em que um recém-nascido vira aluno do ensino fundamental.