- As interfaces baseadas em texto que surgiram depois do ChatGPT são poderosas, mas menos intuitivas do que o modelo tradicional de GUI
- A UI do futuro está evoluindo para um formato que oferece, em vez de chat, ações contextualizadas, busca inteligente, organização automática e feedback imediato
- Ex.: menu de clique direito com IA, campo de busca em linguagem natural, barra de comandos, organização de camadas por IA do Figma, sugestões em tempo real do Grammarly etc.
- Já estão em andamento tentativas de prever “a próxima ação do usuário” para fazer sugestões automáticas ou até mesmo gerar a própria UI em tempo real com um LLM
- O software tradicional vai aos poucos parecer ultrapassado, e cresce a possibilidade de que produtos baseados nesses novos padrões substituam os atuais
Chat é um retorno ao terminal
- O chat com LLM é poderoso e flexível, além de fácil de programar
- Mas também é pouco intuitivo e desconfortável de operar, sendo intimidador para iniciantes, de forma semelhante aos terminais antigos
> O chat é útil como interface de depuração, mas não deve se tornar a UX padrão
UI centrada em documentos + chat auxiliar
- Estão se espalhando UIs em que documentos ou código ficam no centro, e o chat é posicionado como recurso auxiliar, como no ChatGPT Canvas
- É possível ver experiências semelhantes no Copilot no Excel, no Cursor IDE e em outros produtos
Menu de clique direito generativo
- Recursos de IA podem ser posicionados de forma natural no menu de contexto
- Ex.: o navegador Dia sugere comandos de IA diretamente de acordo com a posição do cursor
- No início, o menu pode ficar complexo demais, e vai precisar de refinamento no futuro
Busca intuitiva em linguagem natural
- Em vez de buscar por “air canada confirmation”, será possível pesquisar “quando é meu voo da viagem de trabalho?”
- Ex.: busca de e-mails em linguagem natural da Superhuman, busca de design base do Figma
- A UX que exigia lembrar palavras-chave exatas está desaparecendo aos poucos
Digitar em vez de selecionar: uma forma de controle mais humana
- Filtros, datas, estilos e outras UIs tradicionais eram baseadas em seleção por dropdown
- Agora, o natural é digitar em linguagem natural algo como “próxima quarta-feira”
- Estão se espalhando a barra de comandos (Command-K) e as interfaces de execução imediata baseadas em autocomplete
Feedback inline
- Além de ortografia, também é possível ter feedback inline com IA sobre estilo, argumentação, necessidade de fontes etc.
- O conceito de “demônio da escrita” de Maggie Appleton: personagens de feedback com personalidades diferentes oferecendo conselhos em tempo real
Recursos de organização automática
- Assim como a renomeação de camadas com IA do Figma, até arquivos bagunçados podem ser estruturados automaticamente
- Organizações mais complexas também podem ser implementadas de forma natural sem recorrer ao chat
Resumo e extração de informações
- O Apple Intelligence oferece resumos das informações centrais em meio à conversa fiada (“compromisso de hoje cancelado, movido para a próxima semana” etc.)
- Na era do excesso de informação, recursos de resumo com IA fora do modelo de chat, que filtram apenas o sinal importante, estão se tornando essenciais
Voz + multimodal
- Interfaces de voz também não devem ficar presas a conversas lineares, como acontece com o chat
- Ex.: apontar para um botão com o mouse e dizer “onde está este código?”, para que o LLM abra a localização do código
- Passa a ser possível uma interface multimodal mais humana que usa apontar + falar ao mesmo tempo
Sugestão do “próximo passo”: tão natural quanto a tecla Tab
- Sugestão da próxima ação com base nos padrões do usuário
- Ex.: sugestões de digitação do Grammarly, padrão de autocompletar com a tecla Tab do Cursor
- Em tarefas repetitivas, isso reduz o esforço do usuário e ajuda a focar no pensamento criativo
Etapa final: o LLM gera a UI em tempo real
- A geração de código de UI, como no bolt.new, já é realidade
- Além disso, começa a surgir a tendência de gerar a própria UI em tempo real de acordo com o objetivo específico de cada usuário
- Desvantagens: é difícil de aprender, e o estado da UI pode variar de usuário para usuário
- Os menus adaptativos do Office XP (IntelliMenus) são um exemplo histórico de fracasso
- Ainda assim, se os LLMs se tornarem poderosos o suficiente, isso também pode se firmar como um novo padrão de UI
Agora é hora de construir
- Esses padrões de UI baseados em IA estão reconfigurando gradualmente o software como um todo
- A UX tradicional vai parecer datada, e os produtos que adotarem isso primeiro definirão as novas expectativas dos usuários
- Assim como a GUI substituiu o terminal, estamos novamente em um momento em que a lógica da UX de software está sendo virada do avesso
4 comentários
Penso de forma parecida.
Recentemente procurei um programa para renomear arquivos em lote, mas os programas com todas as funções possíveis tinham realmente uma quantidade absurda de menus e o modo de usar era extremamente complexo. Para fazer uma tarefa simples como "acrescente '_' ao final do nome do arquivo", eu precisava aprender a usar o programa... quanto mais poderoso ele é, mais estranho acaba ficando.
Então refiz isso usando um LLM. A parte do código que realmente altera os nomes dos arquivos é gerada pelo LLM. Dessa forma, dá para eliminar completamente a UI complexa.
O ponto central é que, no fim, o LLM precisa gerar código internamente e executá-lo em tempo real,
e esse é um ponto fundamentalmente diferente do software e do conceito de UX tradicionais.
Antes, toda a lógica já estava preparada, e o núcleo da UI era conectar essa lógica ao usuário, mas agora até a lógica se tornou dinâmica, então a UI também precisa cumprir o papel de viabilizar essa geração dinâmica de código.
Mas acho que não vai substituir tudo. Em alguns casos, a UI tradicional é mais conveniente.
(Estou adicionando porque não houve edição.)
https://www.bulkrenameutility.co.uk/#mainscreen
Softwares existentes como o acima podem mudar para algo como abaixo quando LLMs forem introduzidos.
https://localfile.io/ko/run/rename/
Para mudar o jogo de UI/UX, a plataforma também precisaria tentar se desprender do form factor de celular ou monitor.
https://x.com/karpathy/status/1917920257257459899
Acho que também vale comparar com a opinião do Andrej Karpathy.
A experiência de "conversar" com um LLM lembra usar um terminal de computador dos anos 80. A GUI (interface gráfica do usuário) ainda não foi inventada, mas acho que algumas de suas características já são previsíveis.
Ela será visual (como as GUIs do passado). Isso porque informação visual (fotos, gráficos, animações etc. — ver, mais do que ler) é como uma autoestrada de 10 faixas entrando no cérebro. A visão tem a maior largura de banda de entrada de informação, e cerca de 1/3 do processamento cerebral é dedicado ao processamento visual.
Ela será generativa e mudará conforme as condições de entrada. Ou seja, a GUI será gerada em tempo real de acordo com o prompt do usuário, e todos os elementos existirão e serão organizados para aquele objetivo imediato.
Uma questão um pouco mais em aberto é o grau de sua natureza "procedural". Em um extremo, dá para imaginar um único modelo de difusão gigante criando toda a tela de saída de uma vez; no outro, há uma página cheia de componentes React gerados proceduralmente (por exemplo: imagens, gráficos, animações, diagramas etc.). Acho que será uma mistura dos dois, mas o segundo formará a estrutura básica.
Mas, se eu tivesse que apostar agora, diria que, à medida que a capacidade se aproxima do infinito, uma GUI em canvas 2D interativa, fluida, quase mágica e efêmera será sua forma final. E acho que isso já está começando lentamente (por exemplo: blocos de código/destaque, blocos LaTeX, negrito/itálico/listas/tabelas em Markdown, emoji, e de forma mais ambiciosa a aba Artifacts, gráficos Mermaid ou apps mais completos). Claro, por enquanto tudo isso ainda está em um estágio muito inicial e primitivo.
Iron Man e, em certa medida, Star Trek/Minority Report podem ser considerados bons exemplos na cultura pop de AI/UI apontando nessa direção.