- App para iOS/Android especializado em executar IA generativa on-device, rodando LLMs em um ambiente totalmente offline e privado, sem conexão com a internet
- Adicionado suporte oficial à família Gemma 4 - é possível testar recursos avançados de raciocínio, lógica e criação sem enviar nada para servidores
- Agent Skills: vai além da conversa com o LLM para transformá-lo em um assistente proativo
- Expande as capacidades do LLM com ferramentas como busca de fatos na Wikipedia, mapas interativos e cartões de resumo visual
- Suporte para carregar skills modulares por URL e explorar skills da comunidade no GitHub Discussions
- Thinking Mode: permite visualizar o processo de raciocínio passo a passo do modelo durante o chat com IA (atualmente limitado a modelos compatíveis, como a família Gemma 4)
- Ask Image: reconhecimento multimodal de objetos, quebra-cabeças visuais e geração de descrições detalhadas usando a câmera e a galeria de fotos
- Audio Scribe: transcrição e tradução de voz em tempo real com modelo on-device
- Prompt Lab: workspace dedicado para testar prompts ajustando finamente parâmetros como temperature e top-k
- Mobile Actions : automação de controle offline do dispositivo com base no modelo ajustado FunctionGemma 270m
- Tiny Garden : minigame em linguagem natural
- Model Management & Benchmark: suporte para baixar modelos open source, carregar modelos personalizados e executar testes de benchmark por hardware
- LiteRT runtime leve + integração com Hugging Face para explorar modelos e executar otimizações
- Suporta Android 12+ e iOS 17+ / instalação disponível em Google Play e App Store / em ambientes sem acesso ao Google Play, também é possível instalar o APK diretamente pelos releases do GitHub
- Licença: Apache-2.0 / Linguagem de desenvolvimento: Kotlin
2 comentários
https://github.com/google-ai-edge/gallery/issues/437
Parece que a compatibilidade com Exynos não é muito boa. Há um problema no Galaxy Quantum 5 (A55) em que ele responde repetindo infinitamente caracteres chineses.
Comentários no Hacker News
Um modelo realmente impressionante. Estou rodando no Mac agora, mas poder executar localmente no iPhone significa que preciso testar também
Tentei fazer dealignment (remoção de censura) deste modelo com o script heretic, e funcionou muito bem. Até organizei tudo num repositório próprio, o gemma4-heretical
Também dá para fazer uma versão em MLX; no Mac é um pouco mais rápido, mas não roda no Ollama (talvez funcione no LM Studio)
Roda muito bem num M4 Macbook Pro com 128GB, e provavelmente fica tranquilo com 64GB também. Com menos memória, é preciso baixar o nível de quantização
Eu gosto desses modelos locais desalinhados. Em vez de ser censurado por uma plataforma externa, posso experimentar livremente no meu próprio dispositivo. Isso permite conversas “sensíveis, mas produtivas”
Tentei conectar ao OpenClaw, mas tive problemas. Claro, esse tipo de abordagem pode ser abusada, mas acho que há muito mais usuários bem-intencionados
O app é legal, mas não mostra todo o potencial do modelo E2B
No meu M3 Pro, criei uma IA de áudio e vídeo em tempo real com Gemma E2B e publiquei no /r/LocalLLaMA com o nome Parlor. Teve uma recepção bem boa
Estou rodando no Macbook, mas segundo este benchmark, também parece perfeitamente viável no iPhone 17 Pro
Testei rodar o modelo no iPhone e tive resultados bem decentes. Não chega ao Gemini na nuvem, mas é suficientemente utilizável
A função de “ações móveis” é interessante porque permite controlar o dispositivo, como ligar a lanterna ou abrir o mapa. Seria muito bom se integrasse com o Siri Shortcuts
Como alguém que cria apps para professores, fico muito feliz com a popularização dos modelos locais. Por causa das leis de privacidade, executar do lado do cliente é importante. iOS e Chrome também têm APIs de modelos on-device, mas a qualidade ainda é baixa
Acho que o futuro realista da IA tem apenas dois caminhos — execução local gratuita no dispositivo ou serviços caros na nuvem
O segundo só será usado para trabalhos em que humanos sejam ainda mais caros ou mais lentos. Os modelos Gemma 4 mostram a possibilidade de uma Siri do futuro integrada ao iPhone e ao macOS, algo como a assistente do filme “Her”
Compartilhando os links da versão em inglês do app
Google AI Edge Gallery para iOS
Versão para Android
É um app de demonstração do projeto Edge do Google
A maioria dos modelos ainda aparece como indisponível para download. Espero que sejam liberados em breve
Levantaram a dúvida de que a página da App Store parece falsa. O texto do cabeçalho está pixelado, o fundo pisca e a qualidade do ícone também é baixa
Testei o modelo Gemma-4-E2B-it num iPhone 16 Pro e consegui algo em torno de 30 tokens por segundo. O celular esquentou bastante, mas o desempenho foi impressionante. Pretendo aplicar isso também no meu app
Meu filho começou a usar o modelo 2B no Android. Roda bem até num Motorola barato, e ele está usando para praticar leitura e escrita em idiomas estrangeiros. A leveza do modelo é realmente impressionante
Os novos modelos são muito impressionantes. O AI Edge Gallery roda na GPU, mas a NPU dos chips mais recentes é muito mais rápida
Por exemplo, o chip A16 tem um Neural Engine de 35 TOPS, enquanto a GPU fica na faixa de 7 TFLOPS. A Qualcomm está numa situação parecida