16 pontos por GN⁺ 2025-07-07 | 4 comentários | Compartilhar no WhatsApp
  • Recursos de AI estão sendo incluídos automaticamente em softwares e serviços principais sem o consentimento do público
  • A maioria dos usuários não quer ou desconfia da AI, mas grandes empresas de TI como Microsoft e Google estão acelerando sua adoção por meio de empacotamento e imposição
  • Os consumidores acabam arcando até com os custos sem ter opção de escolha, e pesquisas mostram que, na prática, quanto mais um produto recebe recursos de AI, menor ficam sua preferência e confiabilidade
  • As empresas escondem os custos e prejuízos relacionados à AI ao amarrá-la a serviços já existentes, mascarando as perdas nos balanços
  • Enfatiza-se a necessidade de regulação legal e institucional (transparência, opt-in, responsabilidade, propriedade intelectual etc.) e pede-se uma resposta social ao abuso da AI

O fenômeno de enfiar AI goela abaixo de um público que não a quer

  • Ao abrir o Microsoft Outlook recentemente, apareceu uma mensagem recomendando o uso do companheiro de AI Copilot
  • Apesar do nome companheiro de AI (Companion), trata-se, na prática, de um recurso indesejado
  • Quem recebe a mensagem também espera um e-mail escrito pela própria pessoa, e não um texto redigido por AI
  • A desativação do Copilot foi deixada propositalmente difícil; depois de encontrar com muito custo como desligá-lo, logo em seguida outros programas como o Excel passaram a exigir concordância com os termos de uso da AI
  • A assinatura do MS 365 também subiu US$ 3 por mês, passando a incluir em pacote 60 usos do Copilot, mesmo sem querer
  • Mesmo sem usar de fato, o usuário paga por isso, e os recursos de AI passam a vir embutidos em todos os softwares, como Word e Excel

Razões econômicas e estratégicas para empacotar AI e forçar seu uso

  • Na maioria dos casos, os usuários não pagariam voluntariamente pela AI (apenas 8% dos americanos aceitariam pagar a mais)
  • Por isso, ela só consegue se firmar no mercado quando é forçada em pacote com serviços essenciais
  • Se a AI fosse um produto pago independente, suas perdas ficariam evidentes, e a insatisfação de investidores e acionistas explodiria
  • Ao esconder a AI dentro de serviços já existentes, as empresas ocultam as perdas contábeis e fazem parecer que o negócio é lucrativo
  • Um exemplo: se um restaurante vendesse uma pedra de granito como sobremesa, ninguém compraria; mas, se adicionasse US$ 1 ao preço da refeição inteira e a entregasse à força para todos, poderia alegar que “todos os clientes compram a pedra”

Perda da liberdade de escolha e insatisfação dos usuários

  • Na prática, os usuários não têm escolha sobre adotar ou não AI
  • Não é só a Microsoft: o Google também insere AI automaticamente nos resultados de busca
  • As plataformas adicionam recursos de AI unilateralmente sem consentimento do usuário, e o cliente é tratado basicamente como alguém que deve “ficar quieto e aceitar”
  • Todos os recursos de AI abaixo estão sendo impostos independentemente da vontade do usuário
    • atendimento ao cliente com AI, resultados de busca com AI, AI embutida em software, e-mails enviados por AI, música de AI no Spotify, livros de AI na Amazon etc.
  • Quanto mais recursos de AI um produto recebe, menor tende a ser a preferência por ele (pesquisa com 4.000 pessoas, com apenas 18% de preferência por AI)
  • Especialistas e a mídia também alertam que a adoção acelerada de AI pode prejudicar a confiança do cliente e as vendas

O movimento de imposição ainda mais agressiva da AI pelas big techs

  • No passado, as empresas respondiam com sensibilidade à opinião do cliente, mas agora as big techs exercem influência monopolista
  • A vontade e o poder de escolha do usuário são completamente excluídos, e a adição unilateral de recursos continua
  • A Meta (Facebook) está preparando até uma função em que chatbots de AI enviam mensagens primeiro, mesmo quando o usuário não quer (desativar totalmente o Messenger também é, na prática, impossível)
  • Esse tipo de abordagem se aproxima do spam clássico, e a rejeição dos usuários está crescendo

A realidade em que boicotar a AI é impossível

  • Mesmo que alguém queira rejeitar a adoção de AI, na prática teria de abrir mão de e-mail, busca, Word/Excel, Amazon, Spotify e outros serviços essenciais
  • No futuro, até serviços básicos da sociedade, como saúde, aconselhamento, direito, contratação e resgate de emergência, devem ser substituídos por estruturas centradas em AI
  • As grandes empresas de TI já estão apagando rapidamente os vestígios de atendimento humano, independentemente do consentimento ou da escolha do usuário

A contradição de uma AI pouco confiável se espalhando à força

  • O mais surpreendente é que essa imposição está se acelerando mesmo numa fase em que a AI ainda nem opera de forma suficientemente confiável
  • Na prática, ainda há muitas respostas absurdas e imprecisas geradas por AI, mas as empresas nem parecem dispostas a corrigi-las adequadamente

Necessidade de resposta social e jurídica

  • São indispensáveis regulações para a adoção de AI, como leis de transparência, leis de opt-in (consentimento prévio), leis de responsabilidade e leis de proteção da propriedade intelectual
  • Se a classe política não reagir, serão necessárias ações sociais, como iniciativas cidadãs ou ações coletivas
  • Os consumidores (jurados) acabarão reconhecendo a realidade de que a AI está sendo enfiada goela abaixo deles

Dúvidas sobre a lógica da disputa entre EUA e China

  • O texto se opõe à lógica de que os EUA precisam superar a China na corrida pela adoção de AI
  • Defende que o destino para onde a AI caminha (there) provavelmente deixará resultados infelizes e arrependimento, e enfatiza que preferiria observar essas consequências apenas num futuro distante

Conclusão

  • A AI está se espalhando amplamente pelo cotidiano e pela sociedade sem o consentimento do público e sob a liderança das big techs
  • A causa fundamental não é uma demanda ativa dos usuários, mas sim a busca por lucro de empresas monopolistas e a distorção dos mecanismos de mercado
  • A adoção de AI sem liberdade de escolha tende a se intensificar, com grande possibilidade de arrependimento social no futuro

4 comentários

 
secwind 2025-07-07

Colocaram uma tradução automática porca pra estragar a tradução em coreano, e pelo visto isso evoluiu ainda mais. Não conseguiram nem barrar a tradução automática, então agora vamos todos provar também essa IA porca enfiada goela abaixo!

 
regentag 2025-07-07

Odeio muito recursos de IA, especialmente serviços que ficam em espera em segundo plano dizendo que vão me ajudar.
Se eles rodam remotamente, há o problema de meus dados serem fornecidos; se rodam localmente, há o problema de consumirem os recursos do meu computador (CPU, memória, bateria, ...).

 
beoks 2025-07-07

Que tal um serviço instalado em um servidor remoto privado?

 
GN⁺ 2025-07-07
Opinião no Hacker News
  • Eu também acho esses recursos de integração com IA irritantes e desnecessários, e não porque LLMs sejam inúteis, mas porque a integração com os produtos existentes não foi pensada a fundo; é parecido com grandes empresas adotando software às cegas só para seguir tendência. Como apontou criativamente petekoomen recentemente, estamos vendo a volta do fenômeno da "carruagem sem cavalos na era da IA"

    • Já vi de perto a ansiedade e o medo de donos de produto obcecados em enfiar IA no produto a qualquer custo. Em um ambiente confuso, agem primeiro sem ter uma visão clara; parece mais um espetáculo montado por medo de perder a confiança dos investidores e de ficar para trás. Muitos executivos só querem “alguma IA”, sem ideia concreta, e em vários lugares nem aceitam oposição. Tenho a impressão de que, quando essa fase passar, muita gente vai ficar bem constrangida
    • Aqui dentro chamamos essa tendência de "Clippification": como o Clippy, uma ajudinha sem sentido aparecendo sem a permissão do usuário. Quando pop-ups de chatbot com IA surgem em sequência nos momentos em que você não quer, só atrapalham o trabalho; é como lutar contra um exército de Clippys
    • Eu sou um grande entusiasta de IA e a uso ativamente para programação, escrita e tomada de decisão, mas os recursos de IA adicionados a apps que não são baseados em IA geralmente parecem remendos mal feitos, com cara de modelo barato usado só para cortar custo. Se eu quiser usar isso direito, os modelos frontier de chatgtp/claude/gemini precisam ter acesso adequado aos dados e APIs dos meus apps
    • Um problema ainda mais sério do que a tecnologia em si são as pessoas: os fãs fervorosos que negam os problemas, o discurso de vendas quase fraudulento de startups ruins e a reação hostil da comunidade de IA contra quem levanta críticas, num ciclo que acaba corroendo a confiança na própria tecnologia. Não acho que muita gente vá querer colaborar num ambiente assim
    • A forma como a IA realmente se encaixa bem em projetos é uma realidade sutil, que na prática rende menos dinheiro e não entrega o “hype” que as empresas querem
  • Estou observando que produtos como Cursor e Windsurf operam com LLMs fortemente subsidiados em larga escala. Essas ferramentas são, na prática, meios de marketing para LLMs, e isso fica ainda mais claro ao olhar quem são os investidores. Eu não tinha parado para pensar que esses serviços têm custos operacionais bem altos e, por isso, precisam desesperadamente de adoção em massa rápida; fico curioso sobre o quão depressa querem absorver usuários

  • Os principais gatekeepers de IA já enfrentam gargalos e problemas de escalabilidade para operar modelos grandes, e sem uma inovação técnica fundamental a situação não deve mudar. Quanto mais o mundo migrar para uma lógica centrada em IA, maior será a dependência desses gatekeepers e dos recursos computacionais deles. Preocupa a possibilidade de aumento de preços por acesso prioritário ou prioridade de recursos. E nem chegamos ainda à fase de wearables
    Todos os dados dos usuários precisam ser enviados a esses gatekeepers, e embora a migração de dados para a nuvem tenha aumentado, antes havia menos incentivo econômico para ler e reaproveitar esses dados, então meu conhecimento e minhas informações pessoais ficavam menos expostos. Mas com a adoção forçada de IA, ficou ainda mais opaco quem está rodando o modelo e para onde meus dados vão. Há o problema da precisão insuficiente dos LLMs, claro, mas a concentração de poder nos gatekeepers e a centralização dos dados me preocupam tanto quanto. Dá medo que, por conveniência, acabemos aceitando uma estrutura operacional barata em troca de piora de qualidade

    • No escritório, como experimento de privacidade e segurança da informação, estamos operando nosso próprio servidor de LLM há um mês. Uma única GPU RTX 5090 cobre tranquilamente o uso intermitente de cerca de 50 pessoas. O modelo Qwen3 32b tem benchmarks comparáveis ao GPT 4.1-mini ou ao Gemini 2.5 Flash. Estamos em um ambiente com 2 solicitações simultâneas e contexto de 32k; achei que uma GPU só não daria conta, mas na prática a maioria das pessoas não usa LLM 24 horas por dia
    • O consumidor comum no fim é o produto, então em vez de pagar com dinheiro paga com dados. Para criadores (conteúdo/desenvolvedores de apps), isso vai depender de quanto tempo a concorrência de mercado durar, mas se por barreiras regulatórias e afins sobrarem só alguns poucos grandes players, preocupa a possibilidade de explosão de custos
    • O limite realista de escala não é tanto o provedor de modelos, mas a rede elétrica. A humanidade usa cerca de 250W por pessoa; o corpo humano usa 100W e, considerando até os períodos de descanso, o tempo efetivo de trabalho é bem menor. Para que a IA substitua trabalhadores humanos hoje, ela precisaria ser muito mais eficiente em energia do que humanos. Com a eficiência energética atual da IA e o ritmo de difusão de PV no Japão, eu diria que uma substituição um a um da humanidade antes de 2032 é difícil. Os modelos open-weight atuais ainda não chegam ao SOTA, mas já são úteis. E embora estruturas de consentimento de compartilhamento de dados como as do GDPR já ameacem a privacidade, o risco de sistemas de confiança centralizados em dados continua válido
  • Concordo com a linha geral do texto, mas o jeito meio estranho como o autor escreve até faz pensar se não foi a IA que escreveu por ele. Há alternativas open source ou pagas baratas para todas as funções que ele menciona. Ainda assim, em áreas específicas como seguradoras, parece inevitável usar IA por pressão popular ou lock-in de serviço. Dá para argumentar que os usuários realmente querem isso, citando o ChatGPT como um dos sites mais acessados do mundo, mas eu vejo duas objeções válidas. Primeiro, há incontáveis casos de coisas populares que nunca se converteram em disposição real de pagar (será que rede social paga teria mesmo tanta popularidade?). Segundo, poucos usuários querem que sites populares invadam outros domínios e passem a dominar toda a vida cotidiana

  • Acabei de ver agora há pouco, pela primeira vez, o Gmail resumindo um email que recebi. Pensei: por favor, não façam isso. Eu vou ler meu email sozinho, e um resumo desnecessário só aumenta a quantidade de texto que preciso ler. Claro, pode ser útil para quem recebe grandes volumes de emails com importância ambígua de colegas, mas na minha conta pessoal tudo que chega é de amigos e o resto não precisa de resumo, precisa ir direto para a lixeira. Dito isso, sou realmente grato pelo filtro de spam do Gmail

    • Se no futuro a filtragem de spam também passar a ser feita por LLM, imagino que não vai demorar para spammers ou hackers colocarem nos emails instruções feitas para explorar vulnerabilidades da IA
  • Concordo completamente com este texto. “IA” pode criar um pequeno mercado para trapaceiros medianos, mas para a maioria dos usuários é spam, algo como o Clippy que ninguém queria. Espero que um dia a IA também desapareça como o Clippy desapareceu

  • Não concordo com a afirmação de que “todo mundo queria a internet”. Muita gente não tinha o menor interesse até a era anterior ao smartphone, e o smartphone se popularizou porque, embora pior que um desktop em vários aspectos, era muito mais conveniente. Esse marketing de “ficou pior, mas ficou mais conveniente” é exatamente a mesma lógica usada para IA. Então imagino que o público também vá aceitar a IA

    • Por volta de 1997, em entrevistas de rua na Holanda, quando perguntavam se as pessoas queriam celular (não smartphone), a resposta esmagadora era “não preciso disso”. Ou seja, resistência à mudança de dispositivo é um fenômeno comum
    • A pergunta fundamental em si talvez esteja errada. Ninguém sabia as consequências de longo prazo da internet ou do mobile, então o que predominava era o otimismo em relação ao futuro. Folha de coca também já foi vista como algo milagroso no começo. A mudança trazida pelo mobile transformou muito a sociedade, e é triste saber que não dá para voltar ao passado. Imagino que esse sentimento não seja só meu
    • Eu uso internet desde criança, no começo dos anos 90. Quando uma tecnologia realmente aparece, as pessoas olham com fascínio e a veem como algo distante da vida cotidiana, um mundo de nerds, e por um tempo mergulham nisso
    • A internet foi uma transformação que todos queriam. Houve hype e adoção rápida; claro, dizer “todos” é exagero, assim como houve luditas e céticos na época da eletricidade e do telefone. Ainda assim, o boom das pontocom é exatamente o tipo de fenômeno que toda nova indústria gostaria de ter
  • Parece como falar ao vento. Os problemas da IA são sutis demais, então a maioria se satisfaz só em obter “respostas plausíveis” e nem percebe o quanto isso é uma ferramenta criativa nova, quase uma linguagem de programação em linguagem natural. Para ter sucesso repetidamente, é indispensável escrever prompts eficazes, mas quase ninguém faz esse esforço. Até a discussão sobre prompt engineering é menosprezada com perguntas do tipo “escrever prompt é engenharia?”. Mas isso é justamente um processo técnico sofisticado que a indústria deveria levar a sério. Quase ninguém entende de verdade o poder sutil dos LLMs, e no meio institucional a tendência é tratá-los como fraude

    • A essência de “engenharia” é previsibilidade e repetibilidade. LLMs são imprevisíveis; cada vez que o modelo muda, muda também a forma como ele interpreta a entrada, então a profissão de engenheiro de prompt perde o sentido. Para o usuário, há fatores demais de causa obscura: método de treinamento, conjunto de treino, vieses etc. Um prompt excelente feito para Gemini 2.5 Pro pode virar inútil na próxima versão. Se for um modelo dinâmico com “autoaperfeiçoamento”, é ainda pior. Esse tal “Vibe coding” não acaba sendo “Vibe prompting”?
    • Se usar IA para resolver um problema exige mais esforço e energia, então é mais eficiente eu mesmo resolver. Se uma engenharia de prompt trabalhosa é indispensável, isso significa que ela falhou em elevar o nível da engenharia de software. Não preciso de autocomplete nem de ajuda para digitar; se exige mais trabalho mental, o valor diminui
    • Se esse tipo de engenharia de software não determinística tivesse aparecido primeiro, depois teriam erguido uma estátua ao desenvolvedor da linguagem C — esse é o nível da piada
  • Por que CEOs são obcecados por IA? Porque investidores em ações investem imediatamente só de ouvir “tem IA”. A demanda dos investidores é justamente o elemento central que impede o colapso do “modelo de negócios de IA”. No fim, é uma bolha. Mas uma bolha que inevitavelmente pode durar um bom tempo

    • E não é só isso: plataformas que já têm bases gigantescas de usuários, como Microsoft, Google, Meta e Apple, também querem capturar mais dados de interação com IA para extrair dados de treino próprios, insights, fazer testes A/B etc. E não querem que outros levem esses dados e concorram com elas (Anthropic, Deepseek etc.)
    • A IA já está melhorando a produtividade em várias áreas e, no curto prazo, de fato é uma bolha, mas a realidade é que toda tecnologia teve bolha até chegar ao ponto de saturação de mercado ou monopolização
  • O ChatGPT está entre os 5 sites mais populares do mundo e continua crescendo rápido. Um produto tão popular assim não pode ser explicado apenas como resistência do mercado. Usuários do Instagram também têm pouquíssima disposição real de pagar (algo como 8%?), mas isso faz do Instagram um produto forçado que o público não quer?

    • Se você perguntar se as pessoas querem Facebook, Twitter ou até o feed do Hacker News inseridos aleatoriamente em shoppings ou em emails de trabalho, provavelmente a maioria diria que não. Mesmo sites grandes não servem para ser enfiados à força em qualquer contexto
    • Meu pai, de 75 anos, praticamente usa Claude para todas as buscas em vez do Google. Ao meu redor, só pessoas na faixa dos 30 tendem a rejeitar ativamente a IA; talvez essa faixa etária tenha se acostumado por tanto tempo a um ambiente sem grandes mudanças que o padrão acabou se cristalizando
    • Posso ir usar ChatGPT diretamente quando eu quiser; não preciso que toda app e toda web venham com uma interface de chat lenta e mal feita enfiada à força. Não preciso de um novo chat lento, difícil de descobrir e impreciso, que só me faz perder tempo
    • Ontem baixei o jogo Quordle, e um dos principais benefícios da opção paga era “chatbot com IA no jogo”. IA já basta poder usar quando eu quiser e no contexto que eu quiser. Usar em uma área específica não significa querer implantação indiscriminada em todos os lugares
    • De fato, Facebook e Instagram me passam a sensação de serem produtos ‘impostos’ ao público. Como viraram plataformas praticamente obrigatórias para interação social com pessoas ao redor, eu não participo do Facebook Marketplace nem dos Reels do Instagram. Injeção forçada de anúncios e integração forçada de IA são problemas parecidos