No momento, estou refatorando um app React antigo para Astro.
No texto, enfatiza-se o "contexto unificado". É preciso saber que o "contexto unificado" ajuda a construir serviços rapidamente, mas um dia pode se tornar dívida técnica.
Do ponto de vista da manutenção de longo prazo do serviço, "acoplamento forte integrado" é pior do que o "acoplamento frouxo entre módulos independentes".
E o Astro é o framework mais flexível para isso.
A experiência de "conversar" com um LLM lembra usar um terminal de computador dos anos 80. A GUI (interface gráfica do usuário) ainda não foi inventada, mas acho que algumas de suas características já são previsíveis.
Ela será visual (como as GUIs do passado). Isso porque informação visual (fotos, gráficos, animações etc. — ver, mais do que ler) é como uma autoestrada de 10 faixas entrando no cérebro. A visão tem a maior largura de banda de entrada de informação, e cerca de 1/3 do processamento cerebral é dedicado ao processamento visual.
Ela será generativa e mudará conforme as condições de entrada. Ou seja, a GUI será gerada em tempo real de acordo com o prompt do usuário, e todos os elementos existirão e serão organizados para aquele objetivo imediato.
Uma questão um pouco mais em aberto é o grau de sua natureza "procedural". Em um extremo, dá para imaginar um único modelo de difusão gigante criando toda a tela de saída de uma vez; no outro, há uma página cheia de componentes React gerados proceduralmente (por exemplo: imagens, gráficos, animações, diagramas etc.). Acho que será uma mistura dos dois, mas o segundo formará a estrutura básica.
Mas, se eu tivesse que apostar agora, diria que, à medida que a capacidade se aproxima do infinito, uma GUI em canvas 2D interativa, fluida, quase mágica e efêmera será sua forma final. E acho que isso já está começando lentamente (por exemplo: blocos de código/destaque, blocos LaTeX, negrito/itálico/listas/tabelas em Markdown, emoji, e de forma mais ambiciosa a aba Artifacts, gráficos Mermaid ou apps mais completos). Claro, por enquanto tudo isso ainda está em um estágio muito inicial e primitivo.
Iron Man e, em certa medida, Star Trek/Minority Report podem ser considerados bons exemplos na cultura pop de AI/UI apontando nessa direção.
Se o próprio LLM puder alterar o prompt de sistema, então os humanos também teriam que definir as regras dessa política; no fim, talvez só sobrem coisas como as Três Leis da Robótica.
Também dá para anexar links de páginas da web e links do YouTube, e o resumo também sai em texto. Dê uma olhada na parte de adicionar fontes.
Também é possível fazer pedidos por prompt.
LaTeX: se for executado como Docker Image, não consegue atingir uma velocidade no nível do typst.
Google Docs: surpreendentemente, não oferece tanta liberdade de edição
Considerando esses dois pontos, é uma nova opção interessante.
Eu tinha procurado bastante por algum plugin que ajudasse com autocompletar no nível do Cursor no neovim, mas então era algo possível graças a um modelo próprio...
Uso diariamente o Cline com Anthropic (ou QWEN) e o Github Copilot Code Completion. Se só a funcionalidade de Code Completion (completar com Tab) funcionar direito no Cline, acho que não haverá motivo para usar o Copilot. Como me adaptei ao Plan&Act antes do Agent do Copilot, não uso muito o Agent, mas estou comparando os dois ao usá-lo de propósito. Outra vantagem do Cline é poder usar LLMs diferentes.
Além disso, se for desligado uma vez por dia, existe o CloudType; se for para montar um servidor realmente leve com Node, tem a Cafe24 (500 won por mês); para deploy de site estático, há Netlify, Cloudflare etc. 🙇♂️
No momento, estou refatorando um app React antigo para Astro.
No texto, enfatiza-se o "contexto unificado". É preciso saber que o "contexto unificado" ajuda a construir serviços rapidamente, mas um dia pode se tornar dívida técnica.
Do ponto de vista da manutenção de longo prazo do serviço, "acoplamento forte integrado" é pior do que o "acoplamento frouxo entre módulos independentes".
E o Astro é o framework mais flexível para isso.
Pois é kkk
https://x.com/karpathy/status/1917920257257459899
Acho que também vale comparar com a opinião do Andrej Karpathy.
A experiência de "conversar" com um LLM lembra usar um terminal de computador dos anos 80. A GUI (interface gráfica do usuário) ainda não foi inventada, mas acho que algumas de suas características já são previsíveis.
Ela será visual (como as GUIs do passado). Isso porque informação visual (fotos, gráficos, animações etc. — ver, mais do que ler) é como uma autoestrada de 10 faixas entrando no cérebro. A visão tem a maior largura de banda de entrada de informação, e cerca de 1/3 do processamento cerebral é dedicado ao processamento visual.
Ela será generativa e mudará conforme as condições de entrada. Ou seja, a GUI será gerada em tempo real de acordo com o prompt do usuário, e todos os elementos existirão e serão organizados para aquele objetivo imediato.
Uma questão um pouco mais em aberto é o grau de sua natureza "procedural". Em um extremo, dá para imaginar um único modelo de difusão gigante criando toda a tela de saída de uma vez; no outro, há uma página cheia de componentes React gerados proceduralmente (por exemplo: imagens, gráficos, animações, diagramas etc.). Acho que será uma mistura dos dois, mas o segundo formará a estrutura básica.
Mas, se eu tivesse que apostar agora, diria que, à medida que a capacidade se aproxima do infinito, uma GUI em canvas 2D interativa, fluida, quase mágica e efêmera será sua forma final. E acho que isso já está começando lentamente (por exemplo: blocos de código/destaque, blocos LaTeX, negrito/itálico/listas/tabelas em Markdown, emoji, e de forma mais ambiciosa a aba Artifacts, gráficos Mermaid ou apps mais completos). Claro, por enquanto tudo isso ainda está em um estágio muito inicial e primitivo.
Iron Man e, em certa medida, Star Trek/Minority Report podem ser considerados bons exemplos na cultura pop de AI/UI apontando nessa direção.
O Cline era pago? Não é gratuito?
Veículos definidos por software com foco em hardware
Concordo.
De qualquer forma, mesmo fazendo um MBA, no fim só estudam casos, né?
Tudo tem limite quando fica só na mesa.
"Botox" kkk, fiquei um tempão lendo para entender o que queria dizer kkk
Muito divertido
Tomara que a era sem fronteiras chegue logo
Se o próprio LLM puder alterar o prompt de sistema, então os humanos também teriam que definir as regras dessa política; no fim, talvez só sobrem coisas como as Três Leis da Robótica.
Anthropic divulga o "prompt de sistema" que faz o Claude funcionar
O prompt de sistema divulgado diretamente é pequeno. Parece que a parte relacionada a ferramentas ficou de fora.
Uau, então vai dar para ter uma vida nômade na Mongólia!
Também dá para anexar links de páginas da web e links do YouTube, e o resumo também sai em texto. Dê uma olhada na parte de adicionar fontes.
Também é possível fazer pedidos por prompt.
Uau...
Pensando bem, até entro no HackerNews de vez em quando, mas já faz muito tempo mesmo que não entro diretamente no TechCrunch.
typsté um software que já foi apresentado várias vezes, mas eu não imaginava que daria para usá-lo para esse tipo de finalidade.LaTeX: se for executado como Docker Image, não consegue atingir uma velocidade no nível do
typst.Google Docs: surpreendentemente, não oferece tanta liberdade de edição
Considerando esses dois pontos, é uma nova opção interessante.
Eu tinha procurado bastante por algum plugin que ajudasse com autocompletar no nível do Cursor no neovim, mas então era algo possível graças a um modelo próprio...
Uso diariamente o Cline com Anthropic (ou QWEN) e o Github Copilot Code Completion. Se só a funcionalidade de Code Completion (completar com Tab) funcionar direito no Cline, acho que não haverá motivo para usar o Copilot. Como me adaptei ao Plan&Act antes do Agent do Copilot, não uso muito o Agent, mas estou comparando os dois ao usá-lo de propósito. Outra vantagem do Cline é poder usar LLMs diferentes.
Referência: https://x.com/addyosmani/status/1886316192136310838
Além disso, se for desligado uma vez por dia, existe o CloudType; se for para montar um servidor realmente leve com Node, tem a Cafe24 (500 won por mês); para deploy de site estático, há Netlify, Cloudflare etc. 🙇♂️
Obrigado 👏
Uau, eu também estou usando um servidor rodando em Raspberry Pi e Orange Pi 👍
Obrigado pelas boas informações 👍👍