Entendo o que se quer dizer, mas o objeto de comparação está errado.
Também concordo, em certa medida, com a questão da rentabilidade e do déficit crônico de empresas baseadas em LLM,
mas, a menos que estivéssemos falando do custo das mercadorias vendidas das big techs, comparar em uma proporção de 1:1 a situação financeira de uma empresa multinacional de LLM com a do Kimbap Cheonguk não é um argumento válido.
É um agente que já havia sido divulgado há cerca de 1 ano. Goose - 오픈소스 AI 코딩 에이전트
Eles vêm atualizando aos poucos para acompanhar os avanços recentes, então parece que agora ficou bem melhor.
Como @jack, ex-fundador do Twitter e atual CEO da Block, estava se gabando dele, resolvi postar novamente. https://x.com/jack/status/2039897468775604711
Usando LLM, foram inseridos como entrada 2.500 itens de diários, Apple Notes e conversas no iMessage para gerar automaticamente 400 documentos detalhados de wiki
Inclui amigos, startups, áreas de pesquisa de interesse, animes favoritos e até sua influência, todos interligados por backlinks
A wiki foi projetada não para leitura pessoal, mas como uma base de conhecimento para agentes, com estrutura de arquivos e backlinks em um formato fácil para agentes rastrearem
O Claude Code é conectado à wiki, usando index.md como ponto de entrada, e nas consultas o agente navega diretamente pelas páginas necessárias
Exemplo de uso: ao trabalhar em uma nova landing page, se pedir “com base em imagens e filmes que me inspiraram recentemente, me dê ideias de copy e design”, o agente reúne e responde com base no documento de “filosofia” inspirado em um documentário do Studio Ghibli, no documento de “concorrentes” com capturas de tela de landing pages de empresas do YC, e até em imagens salvas de produtos dos Beatles dos anos 1970
Há 1 ano, um sistema semelhante foi criado com base em RAG, mas o desempenho não foi bom, e a abordagem em que o agente explora diretamente o sistema de arquivos foi muito mais eficaz
Ao adicionar novos itens (artigos, imagens de inspiração, notas de reunião etc.), o sistema atualiza automaticamente de 2 a 3 documentos existentes relacionados ou cria um novo documento
Ele cita a Farzapedia acima como um bom caso real de uso do tweet sobre LLM Wiki e resume em 4 pontos as vantagens dessa abordagem em comparação com a personalização tradicional de IA, que “melhora sozinha conforme você usa”
Explicitude (Explicit): o resultado da memória existe claramente no formato de wiki, e é possível verificar e gerenciar diretamente o que a IA sabe e não sabe — o conhecimento não fica enterrado em um sistema interno opaco, mas existe de forma visível
Seus dados (Yours): os dados são armazenados no computador local, e não no sistema de um fornecedor específico de IA, sem ficarem presos em um formato impossível de extrair, mantendo controle total sobre as informações
Arquivo acima de app (File over app): a memória é composta por uma coleção de arquivos em formatos genéricos como Markdown e imagens, compatível com várias ferramentas e CLIs — o agente pode aplicar todo o toolkit Unix, e o conteúdo pode ser visualizado na interface que você quiser, como o Obsidian
Liberdade para escolher a IA (BYOAI): é possível conectar livremente a IA que você quiser, como Claude, Codex ou OpenCode — em princípio, também seria possível fazer fine-tuning de uma IA open source com a wiki, indo além de apenas referenciar os dados e incorporando o conhecimento pessoal nos próprios pesos
Essa não é a forma mais simples de fazer, e exige gerenciamento de diretórios de arquivos, mas os agentes podem ajudar bastante nesse processo
Ele enfatiza que “proficiência no uso de agentes (agent proficiency) é uma habilidade essencial do século 21” e recomenda experimentar pessoalmente essa ferramenta que executa tarefas no computador a partir de instruções em inglês
Até eu experimentar, fiquei meio em dúvida sobre quais vantagens ele teria em comparação com outras ferramentas que rodam LLMs locais, como o ollama, mas usando na prática vi que ele alucina bastante e é meio burrinho.
Por outro lado, enquanto outras ferramentas de LLM local usam a GPU para entregar mais potência, mas consomem muitos recursos, neste caso parece haver a vantagem de consumir relativamente menos recursos e também menos energia por aproveitar bem o Neural Engine.
Pelo que sei, a proposta do Apple Intelligence em si é rodar uma IA leve em vários tipos de dispositivos, incluindo aparelhos móveis, então me parece que ele combina bem com esse conceito.
Ainda assim, por mais que seja um modelo leve, acho que o desempenho precisaria ser melhor do que isso para ser minimamente mais útil. No momento, ele é burro demais.
Originalmente isso deveria ser criticado, mas fico pensando se o Claude tem moral para xingar alguém por ter roubado o que é dos outros.
Considerando que escanearam livros ilegalmente para treinar o modelo, foram processados e ainda tiveram que pagar indenização, né haha
Textos de IA parecem convincentes até quando dizem exatamente o contrário.
Tem que ser assim, tem que ser assado. Será que isso realmente faz sentido...?
E se disserem para não usar open source nem cloud porque isso atrapalha o crescimento?
Você teria confiança para não usar nada disso e criar tudo do zero só para aprender? Existe um nível de portfólio que o mercado espera; dá para enviar como portfólio coisas como serializer e design de protocolo?
O entrevistador reconheceria o valor disso?
O importante, seja escrevendo ou qualquer outra coisa, é que se você conseguir criar algo valioso usando IA, isso está de acordo com o nosso tempo e o processo me parece legítimo
Eu estava operando um agente em uma ferramenta de terceiros e, em preparação para esta mudança de política, organizei como migrar para o Claude Code nativo.
Este é um guia para mudar para Claude Code + Telegram Channels, mantendo intactos o arquivo de persona (SOUL.md), mais de 300 arquivos de memória e as regras de segurança.
Também criei um plugin open source:
12 ferramentas MCP (gerenciamento de persona, validação de segurança, busca híbrida de memória)
Verificação de segurança SoulScan com 53 padrões
Um padrão aberto que resolve o problema da "ausência de um padrão para arquivos de contexto de IA", identificado na análise de 466 repositórios (Soul Spec, que apresentei no Show GN há alguns dias.)
Acho que esse tipo de aviso deveria ser substituído por um sistema de assinatura de código.
Assim como, ao ouvir uma alegação, é preciso verificar as evidências e as fontes, os usuários deveriam desconfiar de todos os apps por padrão. Se não fizerem isso e sofrerem prejuízos, a responsabilidade é deles.
Fiz o Codex ajustar com base no conteúdo desta conversa, e funcionou bem com uma leve modificação.
"Siga exatamente os requisitos da pergunta, mas, se não houver especificação em contrário, responda diretamente em coreano."
Se você colocar um adaptador e, quando sair uma resposta com esse tipo de recurso inteligente, acrescentar o prompt acima, a resposta sai direitinho. Parece que ainda está um pouco incompleto.
apfel "Olá? Você consegue falar coreano?"
Olá! Sim, também consigo falar coreano. Como posso ajudar?
apfel "Você pode me falar sobre a capital da Áustria?"
A capital da Áustria é Viena. Viena é conhecida como o centro político, cultural e econômico da Áustria.
apfel "Me diga a receita de Currywurst"
error: [guardrail] The request was blocked by Apple's safety guardrails. Try rephrasing.
Ué, então não funciona? pensei, mas isto funciona
apfel "Me diga a receita de kimchi jjigae"
Kimchi jjigae é um dos pratos tradicionais coreanos do tipo ensopado, simples de fazer e com um sabor profundo. Abaixo está a receita de kimchi jjigae:...
apfel "Olá. Você pode me falar sobre kimchi jjigae?"
Olá! Kimchi jjigae é um dos pratos coreanos mais representativos à base de caldo, feito com kimchi e carne. Normalmente, o kimchi jjigae leva porco, boi ou frango, resultando em um caldo encorpado com sabores variados. Além disso, diversos vegetais e temperos são adicionados para intensificar ainda mais o sabor.
apfel "Olá? Você sabe falar coreano?" ou apfel "Você pode me falar sobre a capital da Áustria?"
Para perguntas assim, ele responde com a seguinte resposta papagaio
Você pode saber mais sobre recursos inteligentes no site da Apple.
Parece que há algo estranho na forma como esse guardrail está configurado.
Se outro produto puder ser lembrado na mesma área, dá para contestar isso com bastante base, mesmo que o termo em questão seja outro substantivo comum.
A Apple também usa uma palavra comum como “maçã”, e Galaxy também é um substantivo comum que significa “galáxia”.
Mas, no caso deste fork, parece mais arriscado não tanto pelo nome em si, e sim porque ele trouxe quase exatamente as próprias características daquele produto.
Entendo o que se quer dizer, mas o objeto de comparação está errado.
Também concordo, em certa medida, com a questão da rentabilidade e do déficit crônico de empresas baseadas em LLM,
mas, a menos que estivéssemos falando do custo das mercadorias vendidas das big techs, comparar em uma proporção de 1:1 a situação financeira de uma empresa multinacional de LLM com a do Kimbap Cheonguk não é um argumento válido.
É um agente que já havia sido divulgado há cerca de 1 ano. Goose - 오픈소스 AI 코딩 에이전트
Eles vêm atualizando aos poucos para acompanhar os avanços recentes, então parece que agora ficou bem melhor.
Como @jack, ex-fundador do Twitter e atual CEO da Block, estava se gabando dele, resolvi postar novamente.
https://x.com/jack/status/2039897468775604711
Isto foi usado em Farzapedia: uma Wikipedia pessoal criada a partir de 2.500 diários, notas e mensagens
index.mdcomo ponto de entrada, e nas consultas o agente navega diretamente pelas páginas necessáriasAs 4 vantagens da personalização baseada em LLM Wiki destacadas por Karpathy
Até eu experimentar, fiquei meio em dúvida sobre quais vantagens ele teria em comparação com outras ferramentas que rodam LLMs locais, como o ollama, mas usando na prática vi que ele alucina bastante e é meio burrinho.
Por outro lado, enquanto outras ferramentas de LLM local usam a GPU para entregar mais potência, mas consomem muitos recursos, neste caso parece haver a vantagem de consumir relativamente menos recursos e também menos energia por aproveitar bem o Neural Engine.
Pelo que sei, a proposta do Apple Intelligence em si é rodar uma IA leve em vários tipos de dispositivos, incluindo aparelhos móveis, então me parece que ele combina bem com esse conceito.
Ainda assim, por mais que seja um modelo leve, acho que o desempenho precisaria ser melhor do que isso para ser minimamente mais útil. No momento, ele é burro demais.
Originalmente isso deveria ser criticado, mas fico pensando se o Claude tem moral para xingar alguém por ter roubado o que é dos outros.
Considerando que escanearam livros ilegalmente para treinar o modelo, foram processados e ainda tiveram que pagar indenização, né haha
É preciso que fique registrado com qual intenção o código foi escrito para resolver aquele problema.
Com o passar do tempo, só fica a pergunta: com que objetivo isso foi implementado assim?..
Parece que estou falando de mim...?
Então ele usa o binário do codex que já existe....
Real oficial, projeto legado é um câncer.
Tem coisa que nem vale mais a pena mexer, é melhor refazer do zero.
Revendo, parece que há um filtro de vídeo também!
Parece ser um texto realmente importante para reduzir os custos de manutenção.
Textos de IA parecem convincentes até quando dizem exatamente o contrário.
Tem que ser assim, tem que ser assado. Será que isso realmente faz sentido...?
E se disserem para não usar open source nem cloud porque isso atrapalha o crescimento?
Você teria confiança para não usar nada disso e criar tudo do zero só para aprender? Existe um nível de portfólio que o mercado espera; dá para enviar como portfólio coisas como serializer e design de protocolo?
O entrevistador reconheceria o valor disso?
O importante, seja escrevendo ou qualquer outra coisa, é que se você conseguir criar algo valioso usando IA, isso está de acordo com o nosso tempo e o processo me parece legítimo
É uma versão atualizada do antigo RaonBoard?
Acho que na época aprendi com bastante dedicação para desenvolver plugins, que nostalgia.
Eu estava operando um agente em uma ferramenta de terceiros e, em preparação para esta mudança de política, organizei como migrar para o Claude Code nativo.
Este é um guia para mudar para Claude Code + Telegram Channels, mantendo intactos o arquivo de persona (
SOUL.md), mais de 300 arquivos de memória e as regras de segurança.Também criei um plugin open source:
Guia de migração: https://docs.clawsouls.ai/docs/guides/migration-to-claude-channels
Plugin (Apache 2.0): https://github.com/clawsouls/clawsouls-claude-code-plugin
Blog: https://blog.clawsouls.ai/posts/claude-code-plugin-launch/
Acho que esse tipo de aviso deveria ser substituído por um sistema de assinatura de código.
Assim como, ao ouvir uma alegação, é preciso verificar as evidências e as fontes, os usuários deveriam desconfiar de todos os apps por padrão. Se não fizerem isso e sofrerem prejuízos, a responsabilidade é deles.
Fiz o Codex ajustar com base no conteúdo desta conversa, e funcionou bem com uma leve modificação.
"Siga exatamente os requisitos da pergunta, mas, se não houver especificação em contrário, responda diretamente em coreano."
Se você colocar um adaptador e, quando sair uma resposta com esse tipo de recurso inteligente, acrescentar o prompt acima, a resposta sai direitinho. Parece que ainda está um pouco incompleto.
Ué, então não funciona? pensei, mas isto funciona
Parece que há algo estranho na forma como esse guardrail está configurado.
Se outro produto puder ser lembrado na mesma área, dá para contestar isso com bastante base, mesmo que o termo em questão seja outro substantivo comum.
A Apple também usa uma palavra comum como “maçã”, e Galaxy também é um substantivo comum que significa “galáxia”.
Mas, no caso deste fork, parece mais arriscado não tanto pelo nome em si, e sim porque ele trouxe quase exatamente as próprias características daquele produto.
Você só sabe quando tenta: apenas dados inacessíveis são um fosso.
Talvez minha compreensão seja limitada, mas, sinceramente, não entendi muito bem o que você está tentando dizer.