- As principais empresas de IA estão migrando para um modelo de negócios baseado em receita publicitária e desenvolvendo assistentes de IA centrados em hardware que coletam todas as informações visuais e auditivas ao redor do usuário
- Essa IA sempre ligada (Always-on) é projetada para reconhecer conversas cotidianas do usuário sem palavra de ativação por voz, acumular contexto de longo prazo e oferecer ajuda proativa
- Porém, em uma estrutura na qual esses dados são enviados aos servidores de empresas de publicidade, o risco pode surgir a qualquer momento se a política de privacidade mudar
- Em contrapartida, em uma arquitetura de inferência local no dispositivo (edge inference), os dados fisicamente não saem para fora, permitindo garantias de segurança no nível da arquitetura, e não da política
- Como a IA mais útil ao mesmo tempo será a tecnologia mais íntima, é essencial migrar para uma IA local que não envie dados para fora
O setor de assistentes de IA transformado por uma estrutura baseada em publicidade
- A OpenAI introduziu anúncios no ChatGPT, o que é apresentado como uma mudança estrutural em todo o setor
- Em 2025, a OpenAI adquiriu a startup de hardware de Jony Ive, io, por US$ 6,5 bilhões e está desenvolvendo um pequeno dispositivo de IA sem tela
- Todas as principais empresas de assistentes de IA estão operando com receita publicitária e produzindo hardware que observa continuamente o ambiente ao redor
- Quando esses dois elementos entram em choque, apenas a inferência local no dispositivo (local inference) é apresentada como a única solução para impedir o uso indevido dos dados
A inevitabilidade da IA sempre ligada
- Os assistentes de voz tradicionais funcionavam apenas após uma palavra de ativação (wake word) como “Hey Siri” ou “OK Google”
- Porém, nas conversas da vida real, muitas vezes não há espaço para usar uma palavra de ativação, então é necessária uma IA de reconhecimento contextual natural
- Os assistentes de próxima geração reconhecem continuamente o ambiente do usuário por meio de diversos sensores, como áudio, visão, detecção de presença e wearables
- Portanto, a questão não é “vai surgir uma IA sempre ligada?”, mas sim quem controla esses dados
- Atualmente, esse controle está nas mãos de empresas de publicidade
Política é promessa, arquitetura é garantia
- As empresas falam em “criptografia de dados”, “anonimização” e “não relacionado à publicidade”, mas em uma estrutura de processamento em nuvem é impossível confiar totalmente
- O usuário precisa confiar nas políticas atuais e futuras da empresa, em funcionários internos, fornecedores externos, solicitações governamentais e até parceiros publicitários não divulgados
- A OpenAI afirmou explicitamente que “não vende dados a anunciantes”, mas há o precedente do Google ter usado o Gmail por 13 anos para segmentação publicitária
- Políticas podem mudar, mas a arquitetura não muda
- Em uma estrutura de processamento local, os dados fisicamente não podem sair para fora
- Chamadas de API, telemetria remota e envio de dados de uso anonimizados tornam-se impossíveis
- Fluxos de áudio e vídeo dentro de casa, muito mais sensíveis do que e-mails, incluem toda a vida privada da pessoa
- Como mostram casos da Amazon, como a remoção do processamento local de voz, planos de integração com publicidade e a permissão de acesso da Ring por órgãos de segurança pública, os riscos da estrutura centralizada ficam evidentes
A maturidade da tecnologia de inferência na borda
- No passado, havia a objeção de que “modelos locais não têm desempenho suficiente”, mas agora eles chegaram a um nível adequado
- É possível executar em dispositivos domésticos um pipeline completo de IA, incluindo reconhecimento de voz em tempo real, memória semântica, inferência conversacional e síntese de voz
- Funcionando sem ruído de ventoinha, com uma única compra de hardware e sem transmissão externa de dados
- Isso se tornou possível graças aos avanços em compressão de modelos, motores de inferência open source e silício eficiente, e a eficiência energética em relação ao desempenho melhora a cada ano
- Mesmo em testes reais em residências, o problema é a dificuldade de compreender contexto, não o tamanho do modelo nem a falta de desempenho
- Portanto, é necessário um modelo de negócios centrado na venda de hardware e software, e
- o fabricante deve projetar uma estrutura na qual seja fisicamente impossível acessar os dados
A necessidade da IA local e conclusão
- A IA mais útil será a tecnologia que lida com as informações mais privadas
- A única forma de manter isso seguro é uma arquitetura estrutural em que os dados não possam ser enviados para fora
- Não é possível proteger isso com políticas, promessas ou mudanças de configuração; é necessário um bloqueio no nível da arquitetura
- Com a frase “Choose local. Choose edge.”, o texto pede a construção de uma IA que não envie dados para fora
1 comentários
Comentários do Hacker News
A promoção parece engraçada considerando que o produto que essa empresa está divulgando é um dispositivo de IA sempre ligado e sempre ouvindo
Mesmo que funcione apenas em hardware local, não há necessidade de que todos os momentos da nossa vida sejam gravados e analisados
Fico me perguntando se tudo bem armazenar até conversas privadas da família e momentos envolvendo menores de idade
Também preocupa se os visitantes deram consentimento e se a garantia de privacidade pode ser mantida em caso de roubo, mandado judicial do governo ou aquisição da empresa
Se um tribunal ordenar, a informação inevitavelmente terá de ser entregue de alguma forma
Para proteger a privacidade real, a informação simplesmente não deve existir
Seria bom se houvesse legislação no sentido de proteger isso como as informações dentro do cérebro de uma pessoa, mas a realidade está indo na direção oposta
Mas jamais se informação puder sair para fora sem minha permissão, ser extraída fisicamente com facilidade ou acessada por alguém se passando por mim
Se essas condições forem atendidas, acho que a privacidade de outras pessoas também não seria violada
O alvo são pessoas que valorizam a privacidade, mas justamente elas seriam as primeiras a apontar esses problemas
No fim, quem não liga para privacidade simplesmente vai usar algo como o Google
Eu também queria fazer um dispositivo de IA totalmente local, mas fui adiando por preguiça
Ainda assim, acho que esse tipo de aparelho pode ser transformador para pessoas neurodivergentes
Parece ser uma estrutura que processa em tempo real e toma apenas ações que ajudem o usuário a atingir seus objetivos
Concordo que as grandes empresas de IA estão se movendo com foco em receita de publicidade
Uma IA presente o tempo todo dentro de casa dificilmente consegue evitar questões de privacidade
Como em The Entire History of You, de Black Mirror, ou The Truth of Fact, the Truth of Feeling, de Ted Chiang, parece que até os espaços privados acabarão preenchidos por vigilância
Nesse fluxo, quem rejeita a tecnologia parece cada vez mais destinado à marginalização social
Não concordo com a ideia de que “um futuro sempre ligado é inevitável”
Basta usar software de código aberto, pagar por serviços que não mineram dados e apoiar startups éticas
Acho que precisamos de um Mobile Linux para substituir o Android
O controle total do dispositivo e do software deve ficar com o indivíduo, não com a empresa
Em vez de cair na conveniência dos serviços gratuitos, é preciso votar com o bolso
No fim, as pessoas escolhem manter o status quo
“Consciência de contexto” é, no fim das contas, outra forma de dizer vigilância
As pessoas vão gradualmente passar a achar normal carregar um pequeno Big Brother no bolso
Mas a maioria simplesmente se resigna e se satisfaz com pequenas soluções individuais
Eu também participei de iniciativas de legislação sobre privacidade, mas nada aconteceu por causa da falta de interesse do público
Mesmo sem automação por LLM, a vigilância já é uma realidade
Mesmo funcionando localmente, um assistente sempre ouvindo continua sendo uma invasão de privacidade
Quando amigos visitarem sua casa, eles vão se sentir desconfortáveis com a possibilidade de suas conversas serem gravadas
Sem uma separação de falantes (speaker diarization) perfeita, um sistema desses nunca será realmente confiável
Todos os membros da família compartilham o mesmo conjunto de memória, o que continua sendo um problema de privacidade sem solução
No futuro, planejam tentar etiquetar memórias por pessoa usando modelos STT baseados em identificação do falante
Dizem que o produto será lançado no fim do ano, mas não existe nem foto do aparelho real
O design do site também parece improvisado, e a empresa dá a impressão de ter poucos recursos
No fim, preocupa que esse tipo de dispositivo acabe sendo explorado por hackers como uma máquina de propaganda anti-privacidade
Eles mostraram fotos reais no processo de prototipagem
Mais perigoso do que anúncios explícitos é o viés implícito de recomendação dentro do modelo
Mesmo fazendo a mesma pergunta ao ChatGPT, Claude e Perplexity, a taxa de coincidência entre as 5 principais recomendações fica em torno de 40%
Quase não há correlação com o ranking de busca do Google
No fim, o produto que você recebe como recomendação depende de decisões internas opacas do modelo
Eu não entendo o apelo de um assistente de IA sempre ligado
Independentemente da privacidade, parece que esse tipo de dispositivo enfraqueceria meu controle sobre a própria vida
Um assistente sob demanda que só funciona quando necessário seria ótimo, mas automação excessiva pode acabar atrofiando o pensamento humano
Isso pode virar um mar de drones de vigilância embalados como “IA amiga”
Em vez de avançarmos juntos, ficamos presos numa corrida de hamster para cada um pegar seu próprio queijo
O cenário satírico de interação com IA em que “você pergunta se tem ovo e o vizinho aparece segurando ovos” é interessante
É marcante a cena em que uma IA treinada com dados de conversa vai gradualmente completando a fala humana, até que tudo muda para um modo de narração silenciosa
Foi uma pena o artigo não mencionar a Anthropic
Ela está produzindo atualmente os melhores agentes voltados para programação e foi a base do assistente OpenClaw
Smart speakers sempre ouvindo representam um risco de privacidade muito maior do que o uso intencional do OpenClaw