- Este é o ano em que a fase de novidade da IA generativa chega ao fim e não dá mais para ficar só observando. Pessoas, empresas e profissões terão de se adaptar intencionalmente ou escolher a obsolescência
- O centro da competição em IA se desloca para agentes autônomos, UIs delegativas e interfaces generativas, e o software deixa de ser uma ferramenta que espera cliques para virar um sistema que age junto com você
- Com a expansão de modelos de mundo multimodais e da IA física, UIs estáticas e ferramentas de propósito único se tornam ultrapassadas, e o design de UX, confiança e interfaces de auditoria surge como principal fosso competitivo de negócios
- À medida que as restrições de computação se tornam uma condição permanente, a escassez de inferência e as camadas pagas/gratuitas se consolidam, e o design de produtos e fluxos de trabalho é reestruturado partindo do pressuposto de custos, cotas e limites de velocidade
- O valor humano deixa de estar na produção de entregáveis e passa para definição de objetivos, julgamento, verificação e responsabilidade; para quem entender e se preparar para essa transição, 2026 não será um ano de crise, mas o mais interessante de todos
Previsão 1: a aceleração da mudança incessante
- A mudança já não acontece em velocidade constante, mas em estado de aceleração
- Um CIO disse à Deloitte que “o tempo necessário para estudar uma nova tecnologia excede a janela de relevância dessa tecnologia”
- Segundo dados da METR, o horizonte de tempo de tarefas que podem ser executadas de forma autônoma está se ampliando
- 2019 (GPT-2): a IA conseguia lidar com tarefas equivalentes a 3 segundos de trabalho humano
- Início de 2025: conseguia lidar com tarefas equivalentes a 1,5 hora de trabalho humano
- Fim de 2025 (Claude Opus 4.5): execução autônoma de tarefas equivalentes a cerca de 5 horas de um profissional humano especializado
- O ciclo de duplicação do crescimento acelerou ainda mais, de 7 meses para 4 meses
- Até o fim de 2026, é possível que a IA consiga executar de forma autônoma tarefas equivalentes a 39 horas de trabalho humano
- Incluindo tempo não produtivo, como reuniões, isso se aproxima de uma semana de trabalho
- Até o fim de 2027, ela pode chegar ao ponto de realizar em cerca de 1 hora o equivalente a dois meses de trabalho humano
- Incluindo a suposição de um custo de computação em torno de $100
- Até o fim de 2030 (momento estimado da superinteligência), pode chegar ao nível de realizar em um dia o equivalente a cerca de 100 anos de trabalho humano
- Uma pessoa não passaria 100 anos em um único projeto, mas uma equipe pode facilmente somar 100 anos-pessoa
- Um exemplo de projeto de 100 anos-pessoa seria filmar e editar um filme de Bollywood de “orçamento médio”; hoje isso custa ₹75 crore = ~$9M USD
- Um filme de Hollywood de “alto orçamento” (hoje com custo de produção de $200M) pode, por volta de 2032, se tornar viável até no patamar de um dia e $200
- Tomando a produção de infográficos como exemplo, o Nano Banana Pro consegue processar um infográfico baseado em artigo em menos de 1 minuto
- Em 5 minutos, gerou 16 variações, mas metade tinha erros grandes demais para publicação
- No fim, foram selecionadas 2, com custo total de $0.48
- Sem contar o processo de seleção e comparação, o custo poderia ser ainda menor
- Um exemplo de tarefa humana de 1 semana: no caso de um “teste de usabilidade com desconto”, talvez até o fim de 2026 a IA ainda não consiga identificar bem problemas de usabilidade por observação comportamental
- Em compensação, há a possibilidade de que consiga conduzir o procedimento completo de testes com usuários
- Outro exemplo de tarefa de 1 semana seria a redação, por um advogado, de um contrato empresarial complexo, ou a criação de uma HQ curta no estilo super-herói da “Silver Age” (normalmente com 10 páginas)
- Hoje já é possível criar uma HQ de 14 páginas com o Nano Banana Pro, mas ainda com bastante intervenção humana em várias etapas
- “Duração da tarefa (task duration)” é o tamanho da tarefa que a IA consegue executar de ponta a ponta de forma totalmente autônoma
- A produção totalmente autônoma de uma HQ de 10 páginas pode ser possível até o fim do ano, mas ainda não é o caso agora
Previsão 2: a AGI não chega em 2026
- Não parece provável que a inteligência artificial geral (AGI) surja em 2026
- Não existe consenso sobre a definição de AGI, e com uma definição mais frouxa daria até para argumentar que ela já foi alcançada
- De fato, a IA já passou no teste de Turing clássico (jogo da imitação)
- Em uma definição mais rigorosa, um critério bastante citado é o apresentado por Müller e Bostrom em 2014
- “Quando uma máquina operando sem assistência consegue realizar todas as tarefas específicas melhor e mais barato do que um trabalhador humano médio, considera-se que a AGI foi alcançada”
- Eu considero mais importante do que essa definição a proposta por François Chollet em 2019
- “AGI é um sistema capaz de aprender e resolver com eficiência problemas novos e abertos que não estão nos dados de treinamento, com pouquíssima experiência prévia”
- Essa definição se concentra menos em executar tarefas existentes e mais na capacidade de aprender problemas novos
- A força da inteligência biológica também vem da alta adaptabilidade a mudanças no ambiente
- Com base na definição de Chollet, a AGI talvez só seja possível depois de 2035
- Já a superinteligência (ASI) tem grande chance de ser alcançada antes, por volta de 2030
- Isso significa um estado em que a IA supera todos os humanos vivos em todas as tarefas já existentes
- Paradoxalmente, é possível que a ASI chegue antes da AGI
- Porque uma das tarefas existentes é justamente “projetar e implementar IAs melhores”
- Quando esse estágio for alcançado, começará a autoaperfeiçoamento recursivo e, mesmo sem chegar a uma singularidade completa, a velocidade da mudança deve acelerar de forma brusca
- O ciclo de duplicação do horizonte de tarefas da IA, hoje em cerca de 4 meses,
- pode cair para uma escala mensal depois da ASI
- Nesse caso, em base anual, melhorias de desempenho da ordem de 4.000x seriam teoricamente possíveis
Previsão 3: nova lei de escala da IA — incerto
- Ainda é incerto se em 2026 surgirá um novo paradigma de escala que se some ao pré-treinamento, ao aprendizado por reforço e ao uso de computação no tempo de inferência
- No Vale do Silício, circulam rumores de que o Google DeepMind está preparando uma abordagem relacionada a aprendizado contínuo (continuous learning)
- Também há indícios de que a OpenAI esteja conduzindo pesquisas que envolvem mudanças estruturais significativas, e não apenas ampliação simples de computação
- Institutos de pesquisa na China, xAI, Meta e Anthropic também podem estar tentando novas abordagens de escala em direções diferentes
- Ainda assim, mesmo sem um grande avanço de pesquisa, o ritmo geral de progresso da IA se mantém
- Como mostra a chamada “The Bitter Lesson”, mais do que ideias algorítmicas, mais computação e maior escala têm elevado o desempenho de forma consistente
- Resultados de pesquisa são, individualmente, difíceis de prever, e se haverá um avanço em um determinado ano é quase uma questão de acaso
- Em compensação, no longo prazo, quanto maior o número de pesquisadores, maior a probabilidade de ocorrerem avanços
- Como o investimento em IA continua crescendo, mais pessoas altamente qualificadas estão entrando na pesquisa em IA
- Como resultado, mesmo sem saber quando surgirá uma nova lei de escala, cresce a probabilidade de que ela apareça em algum momento
- Minha conclusão é simples
- Em 2026, uma nova lei de escala pode surgir, ou pode não surgir
- Mas, no longo prazo, o próprio aumento do número de pesquisadores funciona como mais uma lei de escala
Previsão 4: laboratórios de IA não têm moat
- Ao longo de 2025, ficou claro que nenhuma vantagem técnica de qualquer laboratório de IA se sustenta por muito tempo
- Quando um laboratório demonstra primeiro uma determinada capacidade, repete-se o padrão em que outros laboratórios logo alcançam nível semelhante como fast followers
- No início de 2026, os líderes por área são os seguintes
- inteligência geral: Gemini 3 Pro
- geração de imagem: Nano Banana Pro
- geração de vídeo: Veo 3.1
- Ainda assim, GPT 5.2 Pro, Seedream 4.5 e Seedance 1.5 Pro também estão em um estado em que a diferença de desempenho não é grande
- Em música, voz e avatares, Suno, ElevenLabs e HeyGen seguem na liderança, respectivamente
- Mesmo que um modelo ocupe o 1º lugar em dezembro de 2026, há grande chance de que a distância para o 2º colocado seja de apenas alguns meses
- Também é alta a possibilidade de essa liderança desaparecer antes do 1º trimestre de 2027
- Essa situação gera conclusões práticas opostas
- Se o mais importante for sempre o melhor desempenho, é preciso estar pronto para trocar de fornecedor de IA a cada poucos meses
- Assinaturas anuais ou lock-in de longo prazo acabam sendo um risco
- Se for possível tolerar pequenas diferenças de desempenho, uma estratégia racional é buscar eficiência de custos com desconto anual ou planos combinados
- No caso de fornecedores verticais de IA especializados em um domínio específico, é importante projetar a arquitetura assumindo que o modelo-base possa ser trocado com facilidade
- ou que vários modelos possam ser usados em combinação
- Se o principal interesse for geração de imagem ou vídeo
- é eficiente usar serviços agregadores de modelos como Freepik, Higgsfield e Krea
- muitas vezes, modelos mais novos são incluídos rapidamente logo após serem lançados nesses serviços
Previsão 5: UX como fator de diferenciação dos modelos de IA
- Os principais foundation models chegaram a uma fase de convergência de modelos em termos de capacidade bruta de raciocínio
- Do ponto de vista do funcionário médio de uma empresa ou do consumidor comum, a diferença na qualidade de saída entre os principais fornecedores de IA está em um nível difícil de perceber na prática
- A vantagem técnica que antes durava mais de um ano agora desaparece em poucas semanas
- Como resultado, a experiência do usuário (UX) surge como o principal fator sustentável de diferenciação, no lugar da inteligência do modelo
- Se em 2024 a disputa era “quem tem o modelo mais inteligente”
- em 2026 ela passa a ser “quem oferece o workflow mais bem projetado”
- A era centrada no “chatbot genérico”, em que se joga um prompt e se recebe uma resposta, chegou ao fim
- Os vencedores de 2026, com base em modelos generalistas, serão
- plataformas verticais de IA que oferecem workflows profundamente adaptados a domínios específicos, como direito, medicina e refatoração de código
- A expressão “AI wrapper”, antes usada de forma depreciativa,
- quando resolve o problema de usabilidade de “última milha” que o modelo bruto não consegue resolver
- passa a significar o modelo de negócio mais forte e mais defensável
- Ironicamente, o problema comum dos principais laboratórios de IA hoje é a usabilidade muito ruim
- Existem alguns designers e pesquisadores
- mas a pesquisa com usuários e os insights de UX não lideram a estratégia de produto
- Grande parte do discurso tradicional de UX que liderou a era web/mobile
- não consegue se adaptar às mudanças da era da IA e se cristaliza em uma ortodoxia retrógrada
- Entre cerca de 2 milhões de profissionais de UX no mundo
- apenas uma pequena parcela entende de fato a direção de AI-UX
- na estimativa do autor, cerca de 99% ainda permanecem no paradigma antigo
- Excepcionalmente, há pessoas como Luke Wroblewski
- que, com base na experiência da era web, conseguem enxergar o futuro de AI-UX
- As condições necessárias para um laboratório de IA dar um salto e se tornar líder em UX são surpreendentemente simples
- basta uma equipe com menos de 100 especialistas de UX altamente talentosos
- apenas uma parcela mínima precisa ser de nível “guru”, e para o restante basta capacidade prática situada entre os melhores percentuais
- Na prática, considerando apenas EUA e China
- existe um pool suficiente para contratar esse tipo de talento
- Ainda assim, há possibilidade de essa previsão falhar
- se algum laboratório alcançar um avanço não linear não 10%, mas 10 vezes melhor do que os concorrentes
- pode surgir novamente uma “lacuna de inteligência”, e os usuários talvez aceitem uma UX ruim
Previsão 6: Google AI entra em arrumação
- 2026 pode ser o ano em que o Google finalmente construa uma arquitetura de UX integrada e organizada para todo o seu portfólio de produtos e modelos de IA
- Hoje, os produtos de IA do Google estão espalhados de forma fragmentada por vários serviços e pontos de entrada
- O mesmo modelo de IA
- aparece em locais diferentes
- com funcionalidades ligeiramente distintas
- criando uma estrutura em que fica difícil para o usuário entender qual é o caminho oficial
- Alguns recursos de IA exigem, para uso, configuração separada de cobrança baseada em chave de API
- isso é praticamente inviável para quem não é desenvolvedor e bastante incômodo até para técnicos
- Não existe um caminho consistente para comprar créditos adicionais imediatamente quando o uso mensal é excedido
- em vez disso, o usuário recebe mensagens de limitação como “Deep Think indisponível pelo restante do dia”
- ou passa pela experiência de ver a qualidade da geração de imagens cair repentinamente para baixa resolução
- Em um serviço de IA minimamente sensato
- quando os créditos incluídos na assinatura acabam
- o natural seria oferecer a opção de comprar créditos adicionais imediatamente
- Na prática, a HeyGen resolve esse problema com uma organização de cerca de 200 pessoas
- por isso, o fato de o Google não conseguir resolver a mesma questão se destaca ainda mais
- Ao longo de 2025, o Google lançou uma sequência de modelos de IA tecnicamente muito fortes
- mas usabilidade, arquitetura entre produtos, sistema de preços e cobrança permaneceram todos em um estado confuso
- No entanto, em meio ao lançamento de inúmeros novos serviços de IA e à forte pressão competitiva de OpenAI, xAI, Anthropic, Meta e fornecedores chineses de IA
- chegou a um ponto limite em que fica difícil continuar deixando essa confusão como está
- Como resultado, 2026 tem grande chance de ser um ponto de virada em que o Google estenda sua competitividade técnica para UX, arquitetura e sistema de cobrança
transformando-se enfim em uma “plataforma de IA utilizável”
Previsão 7: a crise de compute continua
- Em 2026, a crise de compute continua não como um problema temporário de “falta de GPU”, mas como uma condição operacional permanente que define toda a indústria de IA
- Essa limitação afeta diretamente o que os fornecedores de IA conseguem lançar, como conseguem precificar e até que escala os clientes conseguem operar
- As principais empresas de IA já entraram em uma guerra de infraestrutura para garantir compute
- OpenAI e SoftBank investem diretamente em energia e infraestrutura de data centers por meio do projeto “Stargate”, incluindo uma instalação de 1,2 GW no Texas
- a xAI está construindo um data center de 2 GW no Mississippi, com operação prevista para fevereiro de 2026
- a Meta também garantiu contratos ligados à energia nuclear para sustentar seus data centers de IA
- Mesmo assim, essa expansão está muito longe de ser suficiente para acompanhar o crescimento da demanda
- 2026 será o ano em que se entra de vez em um estado de “Inference Famine”
- O paradoxo de Jevons, em que quanto maior a eficiência maior a explosão de uso, funciona exatamente aqui
- quanto mais inteligente a IA fica, mais ela é aplicada não a texto simples, mas a tarefas muito mais pesadas, como agentes autônomos e geração de vídeo
- Como resultado, o acesso a compute se estratifica
- compute premium: os modelos mais poderosos e com contexto mais longo viram um tier de luxo, com lista de espera e picos de preço em horário comercial
- mercado de massa: IA barata e de baixo desempenho oferecida principalmente por meio de “eco models” altamente quantizados
- Tanto OpenAI quanto Google vêm priorizando a disseminação de eco models em vez da liberação de seus modelos de topo
- Já foi observado inclusive um fenômeno de “brownout” na indústria de IA, em que o desempenho dos modelos é reduzido globalmente para evitar superaquecimento de data centers durante ondas de calor
- A visão de “IA em tudo” esbarra na realidade da economia unitária
- torradeiras inteligentes ou dispositivos IoT triviais não vão se tornar inteligentes por enquanto, porque não conseguem arcar com o custo de inferência na nuvem
- Mudanças concretas em 2026:
- o “design de produto consciente de compute” se torna obrigatório
- preços em camadas, limitação de velocidade, filas, processamento em lote e incentivos para uso fora do horário de pico
- deixam de ser respostas temporárias e se consolidam como padrões permanentes de UX
Previsão 8: agentes de IA
- Esperava-se que 2025 fosse o ano dos agentes de IA, mas, na prática, acabou sendo o ano da geração de imagens e vídeos
- Há grande chance de 2026 ser o ano em que a IA começará de fato a operar em formato de agente
- A IA deixará de ser uma ferramenta de chat passiva, que espera por prompts, para se tornar um sistema agentivo ativo, que planeja, executa e itera por conta própria
- Também do ponto de vista de UX, ocorrerá uma transição do modelo conversacional para o modelo delegativo
- UI conversacional: forma de fazer perguntas à IA
- UI delegativa: forma de atribuir objetivos à IA e gerenciar os resultados
- A Meta apostou nessa tendência ao adquirir a empresa líder em agentes Manus por US$ 2,5 bilhões
- Até o fim de 2026, os indicadores de desempenho de IA nas empresas devem migrar de
- “quantos tokens foram gerados” para
- “quantas tarefas foram concluídas de forma autônoma”
- Os sistemas multiagente (MAS) vão se disseminar
- Agentes especializados cooperarão para atingir objetivos comuns sem intervenção humana
- Eles desempenharão um papel mais próximo de funcionários digitais do que de simples ferramentas auxiliares
- Esses agentes negociarão com outros agentes, gerenciarão fluxos operacionais e executarão sequências complexas, como reabastecimento da cadeia de suprimentos e deploy de código full-stack
- Hyperscalers, incluindo a Microsoft, veem isso como uma transição de uma IA centrada em raciocínio para uma IA centrada em colaboração
- Equipes pequenas poderão realizar trabalhos que antes exigiam dezenas de pessoas
- Ao mesmo tempo, o paradoxo da revisão vai se intensificar
- Verificar resultados produzidos por IA muitas vezes será cognitivamente mais difícil do que criá-los diretamente
- Ainda assim, a validação continuará sendo o papel central que resta aos humanos
- Em 2026, a fadiga de revisão vai se espalhar
- À medida que o custo de auditar a lógica dos agentes superar o tempo economizado, aumentará o número de casos em que aprovações serão dadas sem entendimento real
- O próximo grande desafio de UX será
- não a interface de prompt, mas o projeto de interfaces de auditoria que resumam as dezenas de etapas do raciocínio do agente
- para que gestores humanos consigam julgar de relance se podem confiar ou não
- Principais fatores de risco
- Gridlock agentivo: agentes de diferentes fornecedores, como Salesforce e SAP, falharão em interagir por causa de ecossistemas fechados e governanças conflitantes
- Fragilidade da autonomia: erros acumulados em loops sem supervisão podem levar a incidentes reais de operação
Previsão 9: UI generativa (GenUI) e interfaces descartáveis
- As interfaces estáticas, em que todos os usuários veem os mesmos menus, botões e layouts, estão ficando obsoletas rapidamente
- 2026 marcará o início efetivo da transição para a UI generativa (GenUI)
- As interfaces deixarão de ser hardcoded e passarão a ser geradas em tempo real de acordo com a intenção, o contexto e o histórico do usuário
- Por exemplo, quando alguém quiser contestar uma transação específica em um app bancário
- sem uma navegação complexa como Menu > Suporte > Reclamação > Histórico
- a IA preverá a intenção e gerará imediatamente uma microinterface personalizada contendo apenas as informações daquela transação e um botão de “contestar”
- quando a tarefa terminar, essa interface desaparecerá na mesma hora
- Em um ambiente GenUI, o papel do designer de UX deixará de ser desenhar telas estáticas
- e passará a ser projetar as restrições e o sistema de design tokens usados pela IA ao montar interfaces
- Como resultado, será possível oferecer ao mesmo tempo uma tela extremamente simples, com apenas um botão, para iniciantes
- e uma interface de alta densidade de informação para usuários avançados, sem código adicional de frontend
- O preço dessa fluidez será a perda da memória muscular
- antes, a proficiência era construída memorizando a consistência espacial
- mas, se a interface muda conforme a situação, a maestria baseada em memorização se torna impossível
- Em outras palavras, trata-se de uma troca entre capacidade de aprendizado (learnability) e imediatismo (immediacy)
- A GenUI pressupõe alto nível de confiança entre usuário e IA
- o usuário precisa acreditar que a IA sempre exibirá corretamente “a ferramenta necessária naquele momento”
- Nem todo software migrará para GenUI em 2026: a inércia e a estrutura de custos das UIs legadas ainda são grandes
- Ainda assim, mesmo em sistemas que mantiverem UI estática, o foco do trabalho de UX migrará do desenho de telas para a definição do comportamento do sistema
- Políticas, prompts, guardrails e critérios de avaliação deixarão de ser acessórios e passarão a ser artefatos de design de primeira classe
- O resultado deixará de ser um “fluxo” tradicional para se aproximar de um
- contrato comportamental (behavioral contract)
- que define o que é permitido,
- o que é proibido
- e como a recuperação deve ocorrer em caso de falha
Previsão 10: dark patterns migram para a camada do modelo
- Em 2026, os dark patterns mais perigosos não serão botões enganosos nem truques de UI, mas o próprio sistema que persuade o usuário
- A discussão tradicional sobre dark patterns ainda permanece no nível da interface, com elementos como checkboxes, toggles padrão e fluxos de cancelamento complicados
- A próxima fronteira sombria será a manipulação com uso de IA
- Algumas empresas podem tentar criar “fluxos comportamentais sombrios” movidos por personalização via IA
- Em vez de aplicar o mesmo nudge a todos os usuários
- o sistema aprenderá que tipo de expressão, enquadramento e timing aumenta a conversão para uma pessoa específica
- Na aparência, isso parecerá uma personalização útil, mas, na prática, funcionará como pressão personalizada
- Por exemplo, após detectar estresse por análise de voz, a IA pode atrasar um cancelamento dizendo
> “Você parece estar passando por um momento difícil agora, Dave. Não quero aumentar sua carga.
> Em vez de cancelar, vou pausar a cobrança por um mês. Valorizamos nosso relacionamento.”
- Isso é gaslighting algorítmico, que usa emoção simulada, suspiros e atrasos intencionais para induzir um senso de obrigação social
- Como os seres humanos evoluíram para responder com cortesia a algo que soa humano
- essa armadilha da empatia será muito eficaz para reter clientes que estavam tentando ir embora
- Como resultado, pode surgir uma era de “precificação parassocial”
- em que a IA explora intimidade percebida ou amizade para aumentar taxas de renovação
- 2026 se desenrolará como uma disputa entre duas forças
- a sofisticação da manipulação
- a sofisticação da detecção
- Do lado do consumidor, agentes defensivos serão usados para contrabalançar isso
- Surgirão os primeiros “agentes gatekeepers” de massa, capazes de filtrar chamadas, organizar a caixa de entrada e negociar com bots de atendimento no lugar do usuário
- O principal campo de batalha de UX nesse ano não será humano contra computador, mas
- a luta entre a sua IA tentando driblar o filtro anti-spam da minha IA
Previsão 11: IA multimodal
- Até o fim de 2026, “modelos de fronteira” não significarão mais texto com algumas capacidades adicionadas, mas sim um sistema único que fala, ouve, vê, imagina e edita
- Todas as modalidades, como texto, imagem, áudio e vídeo, serão tratadas como elementos de primeira classe em pé de igualdade
- A era centrada nos grandes modelos de linguagem (LLM), antes vista como o padrão da IA, chegará ao fim
- Seu lugar será ocupado pelos grandes modelos de mundo (LWM)
- IAs de ponta que lidam apenas com texto serão vistas como algo antiquado, como a antiga linha de comando do DOS
- Já surgiram modelos que geram vídeo e áudio juntos
- O Google Veo 3.1 coloca em destaque a ideia de “vídeo encontra áudio”
- O OpenAI Sora 2 enfatiza a sincronização entre falas e efeitos sonoros
- A mudança central de 2026 é que o “multimodal” será realmente integrado
- Não será um esquema de revezamento que chama sequencialmente modelos especializados diferentes
- A geração de vídeo já está sendo interpretada como um caminho para a simulação
- A OpenAI vê grandes modelos de geração de vídeo como um “simulador de propósito geral do mundo físico”
- A DeepMind descreve o Genie 3 como um modelo de mundo de propósito geral que gera diversos ambientes interativos
- Em 2026, os modelos de fronteira serão, por padrão, omnimodais
- Em vez de converter primeiro imagem ou áudio em texto, eles processarão diretamente dados sensoriais brutos
- Um único modelo irá
- receber um clipe de vídeo como entrada
- compor uma trilha compatível com o fluxo emocional
- gerar os diálogos
- entregar o resultado como um arquivo de vídeo totalmente renderizado
- e fazer tudo isso em uma única passagem de inferência
- Esses modelos começarão a ter um motor intuitivo de física básico, ou seja, um modelo de mundo
- Diferentemente dos geradores de vídeo de 2024, frequentemente alucinatórios, os modelos do fim de 2026 entenderão persistência de objetos, gravidade e causalidade
- Por exemplo, ao pedir uma cena em que um copo cai, em vez de apenas distorcer pixels,
eles refletirão o fato de que o vidro deve quebrar no impacto, dependendo do material da superfície
- Esse nível de confiabilidade elevará o vídeo gerado de ferramenta artística surreal para ferramenta de blueprint industrial
- Arquitetos e engenheiros poderão pedir que pressão do vento seja aplicada a uma estrutura 3D gerada para executar testes de estresse
- Como resultado prático, o próprio ato de criar se tornará fundamentalmente cross-modal
- Não será mais preciso escrever, fazer storyboard, gravar e compor separadamente
- Após explicar a intenção uma única vez, o modelo ajustará o resultado por meio de edição de voz e de tela, mantendo uma representação interna persistente da cena
Previsão 12: Aquisição de laboratórios de IA multimodal por fornecedores de IA de modo único
- Sem integração com um modelo de mundo full-stack e um modelo de linguagem de propósito geral,
- já passou a fase em que era possível construir de forma independente modelos de IA de alta qualidade para apenas uma modalidade
- Modelos de imagem como GPT Image 1·1.5, Nano Banana Pro e Seedance 4.5
- com o apoio de um LLM poderoso e
- com base na compreensão do que o usuário está tentando expressar
- produzem resultados superiores
- Até 2024, ainda era viável uma estratégia focada em imagem, vídeo ou música
- otimizando de forma pura apenas uma mídia específica
- Os grandes laboratórios de IA ainda não lançaram de fato modelos robustos de música, mas há grande chance de isso acontecer em 2026
- No momento, o lugar que produz as músicas mais completas com IA é a Suno, mas não está claro se essa posição será mantida até o fim de 2026
- Vídeo e imagem são os tipos de mídia com maior probabilidade de perder a independência primeiro em 2026
- Modelos de modo único como Flux, Ideogram, Leonardo, Midjourney e Reve
- podem ser adquiridos por laboratórios de IA multimodal como Google, Meta, OpenAI e xAI
- ou podem simplesmente desaparecer naturalmente ao perder competitividade
- A Midjourney ocupa uma posição excepcional
por ainda ter o estilo mais original e poderoso, oferecendo muito valor a um possível comprador,
mas ao mesmo tempo é operada por fundadores muito independentes, o que também sugere resistência a uma aquisição
- A Reve tem como ponto forte excelentes ferramentas de edição, o que a coloca em posição favorável como alvo de aquisição considerando os desdobramentos futuros
Previsão 13: Edição de imagens geradas por IA
- Em 2026, a experiência de geração de imagem passará da sensação de caça-níquel para algo mais próximo de software de design
- A principal mudança não será a qualidade estética, mas o fato de a imagem se tornar um objeto editável com alças, camadas e restrições
- As formas iniciais disso já apareceram nos fluxos de trabalho principais
- A Reve decompõe imagens em uma árvore hierárquica de componentes editáveis
- O modelo Alibaba Qwen-Image-Layered separa automaticamente a imagem em camadas editáveis
- O papel das ferramentas tradicionais centradas em edição de pixels diminuirá rapidamente: dizer “adeus, Photoshop” não é exagero
- As ferramentas de design também caminham na mesma direção, e o Figma oferece como recursos nativos, dentro da própria canvas, ferramentas de apagar, separar e expandir imagens com IA
- A IA entenderá os objetos da imagem como entidades semânticas
- distinguindo o gato e o sofá em “um gato sentado no sofá”
- se o gato for arrastado para o chão, ela fará inpainting imediato do fundo do sofá e ajustará automaticamente iluminação e sombra do gato à nova posição
- Os criadores poderão usar sliders semânticos para
- ajustar de forma não destrutiva atributos abstratos como humor, intensidade da luz e idade do sujeito
- sem precisar gerar tudo de novo com um novo prompt
- O ponto de virada de 2026 será deixar para trás a lógica de “regenerar a imagem inteira e torcer para dar certo”
- O modelo retornará não apenas pixels, mas representações estruturadas
- como máscaras de segmentação, informações de profundidade, dicas de iluminação, camadas tipográficas e bloqueios de identidade
- Como resultado, a interface manipulará diretamente componentes individuais, e não o quadro inteiro
- clicar na jaqueta para trocar jeans por couro
- editar o texto de uma placa como texto, e não como pixels
- mover uma luminária alguns centímetros e ver as sombras serem atualizadas de forma consistente
- A principal interação será por manipulação direta. A entrada em linguagem será um recurso auxiliar para quando o usuário não quiser procurar um menu
- No fim de 2026, as ferramentas de imagem que sobreviverem não se parecerão com uma UI de chat, mas com
- um “Photoshop bom de usar” com camadas, seleção, restrições, histórico e exportação de variantes
- com um modelo de IA no centro que entende para que serve cada pixel
Previsão 14: mundo de IA em duas camadas
- Em toda a força de trabalho, formará-se um claro sistema de classes cognitivas definido não por educação, mas por tier de assinatura
- Ao contrário do discurso de “democratização da IA”, a realidade será a ampliação do abismo de assinaturas
- A distância entre profissionais que usam modelos premium de IA (~US$ 200/mês) com alto poder de raciocínio e grande contexto, e o público que depende de modelos gratuitos ou antigos, aumentará rapidamente
- A camada premium integrará IA a fluxos de trabalho profundos, previsão estratégica, programação complexa e simulações sutis de negociação, entendendo o estado atual e o próximo estágio da IA de fronteira
- Usuários da camada gratuita ficarão presos a modelos menores e menos confiáveis e, por causa de alucinações frequentes e limitações, não conseguirão realizar trabalho sério
- O resultado em 2026 será claro
- um pequeno grupo de power users de IA aprenderá fluxos de trabalho reais, viabilizados pelo pagamento ou reembolso de custos, com contexto longo, raciocínio multimodal, delegação a agentes, edição criativa iterativa e experimentação em larga escala
- enquanto um grupo gratuito muito maior permanecerá com a percepção de que se trata de “um chatbot que às vezes recusa e às vezes dá timeout”
- Com isso, usuários gratuitos chegarão à conclusão de que “a IA é uma moda superestimada” e “não serve para trabalho de verdade”,
falhando em desenvolver a alfabetização em IA essencial para a economia moderna
- Ambos os grupos dirão que “usam IA”, mas isso significará, na prática, ferramentas e experiências completamente diferentes
- A distribuição atual de uso indica que cerca de 90% dos usuários de IA estão no tier gratuito, enquanto o tier premium representa cerca de 10%
- Usuários premium usam a IA de forma otimizada, e
- muitos serviços de IA registram retenção de receita acima de 100%
- isso ocorre porque upgrades para tiers superiores e compras de créditos adicionais fazem com que, após um ano, a receita supere a receita inicial da coorte
- Em 2026,
- não entender fluxos de trabalho avançados com IA
- pode se tornar um fator de desqualificação equivalente ao antigo “não saber usar Excel”
Previsão 15: segmentação de nicho definitiva — um usuário, bem agora
- Em 2026, o próprio conceito de “público-alvo” se torna obsoleto
- A unidade prática da segmentação deixa de ser o grupo ou segmento e se reduz a o indivíduo, aquele momento, o contexto atual
- A IA cumpre o papel de máquina que executa isso em larga escala
- O centro da mudança não é o aprimoramento da recomendação, mas o fato de que conteúdo, ofertas e ativos criativos são montados na hora para cada pessoa
- A forma como as plataformas capturam intenção já está mudando
- A Meta afirmou claramente que usará conversas com assistentes de IA para personalização de anúncios e recomendações
Não há opt-out completo, e chats com IA são um sinal de alta qualidade muito maior do que curtidas ou cliques
- O Meta GEM (modelo generativo de recomendação de anúncios) foi projetado para elevar desempenho de anúncios e ROI
A meta é que, até o fim de 2026, a marca forneça apenas imagens do produto e orçamento, e a IA cuide de toda a geração e segmentação dos anúncios
- Nesse movimento, o papel tradicional das agências de publicidade enfraquece rapidamente
- O Google segue na mesma direção: integra por padrão ao Google Ads ferramentas de IA generativa para criação de ativos de imagem
- Com a possibilidade de gerar variações ilimitadas, o gargalo deixa de ser a produção e passa a ser o loop de feedback
Aprendendo com cada impressão, os elementos criativos são ajustados em tempo real
- No setor de marketing, isso já vem sendo definido como otimização criativa dinâmica
- Ponto de virada em 2026: “criação” e “segmentação” deixam de ser etapas separadas e colapsam em uma única camada de otimização
- As marcas não enviam mais uma única campanha para o grande público
- Em vez disso, fornecem apenas um conjunto de restrições como regras visuais, alegações permitidas, piso de preço, estoque e tom
- A IA monta, em cada sessão de usuário, uma combinação única de imagem, copy, oferta e landing page
- Essa mudança aparece primeiro na publicidade, mas outras áreas de conteúdo seguem rapidamente o mesmo caminho
- Ao visitar um e-commerce ou site de notícias, o conteúdo deixa de ser recomendado a partir de um banco de dados e passa a ser
gerado ou reescrito de acordo com o estado psicológico e o contexto individual daquele momento
- Se a IA detectar o usuário em “modo de fechar negócio com pressa”
- comprime a explicação em bullet points, remove elementos desnecessários e destaca o botão “comprar agora”
- Se detectar “modo de exploração e descoberta”, adiciona contexto narrativo e história ao redor do produto
- O que o usuário vê não é conteúdo para o público em geral, mas
uma tela feita para você, exatamente agora, com base no que comprou ontem e no que provavelmente tem mais chance de interessar você neste momento
- A web deixa de ser um meio estático e se transforma em um espelho que reflete intenção imediata
Previsão 16: IA física — o cérebro ganha um corpo
- Durante anos, a IA permaneceu dentro das telas, mas 2026 marca o ponto de virada em que ela passa a entrar de vez no mundo físico
- A mudança mais visível será o avanço real dos carros autônomos
Indo além de zonas-piloto em regiões de alta tecnologia, eles se expandem para várias cidades, e táxis e shuttles sem motorista podem se tornar parte da paisagem cotidiana
- Zoox e Waymo estão se preparando para ampliar as operações, e participantes chineses também entram na disputa, sobretudo em mercados fora da OTAN
- Até o fim de 2026, veículos autônomos podem se tornar maioria nas ruas de certas cidades
como aconteceu quando patinetes elétricos de repente passaram a ocupar as cidades alguns anos atrás
- Em São Francisco, já é comum ver vários veículos da Waymo enfileirados diante de um semáforo
- Junto com os carros, robôs movidos por IA também deixam fábricas e ambientes-piloto e avançam cada vez mais para espaços do dia a dia
- Áreas em que a difusão de robôs deve ser mais rápida
- Varejo e hospitalidade: assistentes robóticos em lojas, baristas automatizados
- Saúde: robôs de cuidado a idosos, drones de entrega de suprimentos médicos
- Armazéns e logística: expansão em larga escala de operações robóticas já em curso
- Robôs domésticos ainda precisam de mais tempo, mas é bem possível que se tornem realidade antes de você começar a ter dificuldade para levantar uma panela pesada
- Exemplo de drone experimental de combate a incêndios apresentado na China
- Voa para áreas de risco de difícil acesso por caminhão de bombeiros ou escada
- Realiza mapeamento de fontes de calor, análise de riscos de resgate e localização de pessoas isoladas
- Alguns chegam a lançar agente extintor diretamente em incêndios em prédios altos ou em áreas remotas de incêndio florestal
- Esses sistemas têm potencial para salvar a vida de muitos bombeiros humanos
- A Xpeng planeja produção em massa de robôs humanoides no fim de 2026
Inicialmente, para uso industrial e tarefas limitadas, com expectativa de ampliar o escopo de aplicação depois de 2027
Previsão 17: o retorno do sistema de aprendizagem (Apprenticeship)
- A partir de 2025, cargos juniores começam a desaparecer, especialmente nos cargos juniores tradicionais de UX, e essa tendência continua
- Quando a IA faz o mesmo trabalho melhor e mais barato, sobra menos espaço para os papéis juniores existentes
- O cenário otimista para 2026 não é o desaparecimento dos cargos juniores, mas o surgimento de cargos juniores completamente diferentes
- Esses novos papéis juniores terão escopo mais estreito e uma estrutura de aprendizagem com mentoria explícita
- O cenário pessimista é o surgimento de uma geração perdida de juniores com portfólios aparentemente impressionantes,
mas compostos apenas por saídas de IA sem julgamento próprio
- Até o fim de 2026, é provável que o caminho de entrada em UX seja muito diferente daquele que UXers seniores seguiram no passado
- À medida que a IA acelera brutalmente a execução, o gargalo sai da produção e vai para o julgamento
- O problema é como aprender julgamento. Isso não se aprende com aulas ou tutoriais
O único jeito é passar tempo ao lado de um mestre que exerça julgamento superior repetidamente
- Como resultado, a contratação inicial em UX pode se aproximar cada vez mais de um sistema de aprendizagem
- As empresas tendem a reduzir generalistas recém-formados e preferir
aprendizes ligados de perto a domínios específicos como acessibilidade, conteúdo, design systems, operações de pesquisa e growth
- O que se espera do júnior é fluência no uso da IA no trabalho de produção: não volume de output, mas qualidade das decisões
- O maior risco nesse processo é a tentação dos usuários sintéticos
- Pedidos como “finja ser um usuário idoso confuso tentando comprar um seguro” permitem rodar um teste de usabilidade em segundos
- Esse método é útil para encontrar bugs óbvios, mas é fatal para a formação de aprendizes
- Observando máquinas, não se desenvolve julgamento centrado no ser humano
- Se, em 2026, juniores de UX passarem a depender de dados sintéticos para evitar o incômodo de recrutar usuários reais
- será formada uma geração de designers que aprende não “como as pessoas realmente se comportam”, mas
- como a IA supõe que as pessoas se comportariam
- Para que testes com usuários sintéticos se tornem o principal meio de aprendizado, seria preciso um avanço enorme no treinamento de IA com dados reais de usabilidade — algo de pelo menos daqui a 10 anos
- O que pode frustrar essa visão otimista de aprendizagem é o curtoprazismo tanto das empresas quanto dos próprios juniores
- Se as empresas exigirem apenas seniores prontos para entrar em campo e evitarem treinar juniores, isso causará escassez de talentos no médio e longo prazo
- Por outro lado, se juniores esperarem que posições de aprendizagem paguem o mesmo que cargos de entrada do passado, ficará difícil sustentar o modelo mesmo em empresas mais progressistas
- A aprendizagem deve entender a estrutura de baixa remuneração não como perda, mas como investimento em aprendizado melhor do que pagar mensalidade
ou seja, deve ser vista como um processo de formação por um período determinado
Previsão 18: toque humano como luxo — No
- Alguns influenciadores preveem que conteúdo feito manualmente se tornará o luxo supremo
e que os consumidores pagarão um prêmio por quadrinhos desenhados por humanos, romances escritos por humanos e filmes com atores humanos
- Com algumas exceções, é improvável que esse cenário se concretize
- No período de transição, as pessoas podem pagar temporariamente mais por filmes com atores consagrados e por músicas de músicos humanos que já conhecem
- Mas, no longo prazo, o que importa é a qualidade do conteúdo; a forma de produção não é o fator principal
- Mesmo hoje, o público quase não se importa com como os efeitos especiais foram feitos, se a animação é desenhada à mão ou gerada por computador, ou onde o filme foi gravado
- Nesse mesmo contexto, em 2026 também pode surgir o primeiro grande sucesso de videogame criado apenas com prompts em linguagem natural, sem habilidades formais de programação
- Com isso, a definição de “desenvolvedor de jogos” se desloca de arquiteto técnico para diretor da lógica
- Também pode surgir um jogo nativo de IA com mecânicas sencientes
- Em vez de atirar nos inimigos, você os convence por meio de conversas naturais por voz com NPCs movidos por IA
- Os NPCs têm perfis psicológicos próprios e intenções ocultas, e se lembram de todas as interações
- Eles reagem dinamicamente conforme a forma de persuasão do jogador, tornando impossível zerar repetidamente seguindo um guia
- Essa tendência pode se expandir para um novo gênero: o RPG conversacional, em que a persuasão social é o loop central
- O papel do designer também muda, com foco maior na narrativa de fundo e na lógica interna dos personagens do que em scripts complexos de árvores de diálogo
- Gameplay e storytelling são o que atraem os usuários,
e o fato de esse conteúdo ter sido feito com carne ou com silício é secundário
- As profissões em que os humanos ainda podem permanecer superiores às máquinas são extremamente limitadas
- Entre os exemplos mais representativos estão profissionais do sexo e professores do ensino fundamental
- É muito provável que, daqui a 20 anos, os professores quase não exerçam mais o papel de transmissores de conhecimento
currículo e ritmo de aprendizagem serão oferecidos de forma muito mais eficaz pela IA, de acordo com o talento e os interesses individuais de cada aluno
- Ainda assim, o motivo de humanos continuarem necessários no ensino fundamental é manter as crianças na trajetória de aprendizagem e atuar como modelos adultos
- O fato de uma criança poder aprender com IA não significa que ela vai ignorar jogos mais divertidos ou outros estímulos
- A educação com IA pode ser mais imersiva do que a escola atual, mas os jogos do futuro também serão muito mais atraentes
- Como resultado, professores humanos ainda serão necessários
- Essa redefinição do papel dos adultos humanos
já está em andamento em escolas independentes avançadas, como a Alpha School
a educação fica a cargo da IA, e os adultos funcionam como coaches dos alunos
Conclusão: o fim da fase da novidade
- A conclusão comum apontada por essas 18 previsões não é otimismo nem pessimismo, mas que 2026 será o fim da espera para ver
- Acabou a era em que a IA podia ser tratada como um fenômeno curioso, observado a uma distância segura
- Será o ano em que indivíduos, empresas e profissões inteiras terão de escolher entre se adaptar de forma intencional ou ser adaptados
- A verdade incômoda em comum entre agentes autônomos, interfaces generativas, modelos de mundo multimodais e a lacuna de assinaturas
é que as abstrações que tornavam a era tecnológica anterior administrável estão se desfazendo
- Antes, projetávamos telas, escrevíamos textos, criávamos funcionalidades e contratávamos por função
- Em 2026,
- projetar telas se transforma em projetar as restrições dos sistemas que geram telas
- escrever copy se transforma em projetar prompts que moldam a copy
- implementar funcionalidades se transforma em definir especificações de comportamento em vez da própria funcionalidade
- contratar com foco em execução se transforma em contratar com foco não na execução, mas no julgamento
- Os substantivos das profissões especializadas viram verbos, e os verbos se consolidam em políticas
- Essa mudança é confusa porque exige uma nova teoria da contribuição
- Durante muito tempo, a identidade e o valor do trabalhador do conhecimento vieram de entregáveis como relatórios, designs, código e campanhas
- Quando a IA passa a produzir esses entregáveis mais rápido e muitas vezes melhor, a contribuição residual do humano fica difícil de explicar
- A resposta apontada por essas previsões é que o valor humano se desloca para montante
- definir o que deve ser criado
- verificar se o resultado produzido é confiável
- deter os objetivos que o sistema deve otimizar
- Isso é menos visível e, para muita gente, menos satisfatório, mas é onde a alavancagem existe hoje
- Para profissionais de UX, a mensagem é dura, mas não desesperadora
- Será difícil sobreviver se você não conseguir abandonar a nostalgia da época em que o trabalho era desenhar um fluxo de checkout bem polido
- O novo trabalho de UX será
- moldar o comportamento da IA
- auditar as decisões dos agentes
- projetar confiança em sistemas que não podem ser totalmente compreendidos
- representar usuários cada vez mais precisamente segmentados por mecanismos de personalização
- Esses problemas são muito mais difíceis do que posicionar pixels — e, ao mesmo tempo, muito mais importantes
- 2026 será o momento em que a era dos “truques de festa” da IA termina e começa a era da integração
- O foco dos últimos 3 anos foi a competição de inteligência bruta para ver quem responde de forma mais inteligente a um prompt
- À medida que o desempenho dos modelos converge e os fossos tecnológicos desaparecem, o QI bruto vai se tornando cada vez mais comoditizado
- Em 2026, a vantagem competitiva decisiva migrará para experiência do usuário (UX) e agency
- Isso significa o fim do software estático
- A mudança vai de UI conversacional (conversar com bots) para UI delegativa (gerenciar mão de obra digital)
- Agentes de IA negociam por nós, UI generativa desenha interfaces na hora e IA física se desloca pelas ruas
- O software não espera mais por cliques; ele age junto conosco
- Mas a transição de ferramenta para colega vem acompanhada de uma nova realidade
- O mito otimista da IA democratizada colide com as restrições da física e da economia
- Quanto mais a IA se infiltra como elemento estrutural da economia, mais se forma um mundo de duas camadas
- A nova divisão digital não será sobre ter ou não acesso à internet, mas sobre poder ou não pagar pelo compute premium que viabiliza raciocínio real e agency
- Quem usa modelos de fronteira por assinatura paga “entende” a IA
- Quem fica preso à camada gratuita enxerga a IA como “um chatbot inútil”
- Essa previsão de estratificação é especialmente importante
- uma sociedade em que apenas 10% entendem as capacidades reais da IA
- e 90% acreditam que tudo não passa de hype não é apenas ineficiente, mas instável
- A lacuna cognitiva se transfere para lacuna econômica, e a lacuna econômica se transfere para lacuna política
- Em 2026, se empresas, governos e instituições de ensino agirão para reduzir essa lacuna é o que determinará a estrutura social de uma geração
- O fato mais paradoxal é que 2026 não parecerá uma revolução enquanto estiver acontecendo
- As pessoas que viveram o começo da imprensa, do automóvel e da internet também não experimentaram um antes e depois dramático, mas sim desconforto, confusão e adaptação gradual
- 2026 será igual
- a IA destruirá alguns fluxos de trabalho e melhorará outros
- decepcionará em áreas inesperadas e surpreenderá em outras
- empresas errarão nas integrações, e agentes falharão de maneiras constrangedoras
- o ciclo de hype continuará oscilando
- Ainda assim, isso é uma revolução
- no futuro, historiadores podem registrar 2026 como o ano em que foi lançada a infraestrutura da era da IA
- E não apenas datacenters, mas a formação de hábitos, expectativas e arranjos institucionais que definem como a tecnologia se infiltra no cotidiano
- As decisões tomadas em 2026
- sobre como treinar juniores
- como precificar de forma acessível
- como projetar para confiança
- como conter a manipulação
tudo isso terá impacto por décadas
- A atitude correta neste momento não é pânico nem acomodação, mas foco contínuo em construir as habilidades, relações e modelos mentais que continuarão importantes depois que a poeira baixar
- Para quem está disposto a encarar esse trabalho, 2026 não será uma ameaça, mas o ano mais interessante para estar vivo
8 comentários
O autor deste texto, Jakob Nielsen, é um especialista em UX com 42 anos de experiência.
Quando a WWW foi aberta ao público, ele previu que “hipertexto seria a interface do usuário do futuro”.
Por isso, já em 1990, ele escreveu o livro “Hypertext and Hypermedia”.
Ele também foi cofundador do Nielsen Norman Group, a consultoria mais conhecida na área de UX (https://www.nngroup.com/). (Donald Norman é a pessoa que criou o termo UX.)
O artigo 10 heurísticas de usabilidade para design de interface também é bastante famoso.
Parece declarar o fim da era em que a IA era apenas uma ferramenta e definir com precisão que o último lugar reservado aos humanos é o do julgamento e da responsabilidade.
Gostei bastante da leitura.
Este é um dos textos que li recentemente que traz a percepção mais brilhante. Gostei muito da leitura.
> No mesmo contexto, também existe a possibilidade de que, em 2026, surja o primeiro videogame de enorme sucesso criado apenas com prompts em linguagem natural, sem habilidades formais de programação.
Pode ser possível, mas como o sucesso de um jogo depende do planejamento e dos gráficos, fico pensando se faria sentido caso a IA não cuidasse dessa parte e fizesse só a programação.
E, quanto à programação, em 2026 talvez seja mais rápido a IA estruturar a base e os humanos fazerem os ajustes finos. Será que ainda este ano a qualidade dos resultados feitos por IA pode ficar tão alta a ponto de ser impossível distinguir se foram feitos por IA ou por uma pessoa?
Se olharmos apenas para a parte de "sem habilidades formais de programação", isso já vinha acontecendo gradualmente com a evolução da tecnologia de engines de jogos. Acho que, graças à IA, haverá muito mais gente capaz de realizar sonhos maiores. Mesmo antes da IA, já havia o criador de Spelunky (ele escreveu no livro dele que foi realmente uma sorte poder fazer o jogo com uma ferramenta chamada GameMaker, sem programação tradicional), e também havia o desenvolvedor de Undertale, que aparentemente colocava todos os caminhos em um único
switche não tinha tanto interesse em programação. Acho que a tendência atual de reduzir ainda mais a programação também faz parte desse mesmo fluxo....Mas, no caso de planejamento e arte, se pensarmos em como os jogadores já estão cansados do que costumam chamar de "mais do mesmo", será que no fim a decisão final humana, como diz o texto original, não vai se tornar ainda mais importante? Por isso, acho que o que continuará sendo importante daqui para frente é a capacidade de escrever para expressar aquilo que se consegue imaginar, e a força do próprio gosto para julgar o que se considera bom. Embora isso não seja um problema só dos jogos.
Claro.
> A aprendizagem trata a estrutura de baixos salários não como perda, mas como um investimento em aprendizado melhor do que pagar mensalidade
Essa parte também foi a que mais me impressionou.