- Recursos de AI estão sendo incluídos automaticamente em softwares e serviços principais sem o consentimento do público
- A maioria dos usuários não quer ou desconfia da AI, mas grandes empresas de TI como Microsoft e Google estão acelerando sua adoção por meio de empacotamento e imposição
- Os consumidores acabam arcando até com os custos sem ter opção de escolha, e pesquisas mostram que, na prática, quanto mais um produto recebe recursos de AI, menor ficam sua preferência e confiabilidade
- As empresas escondem os custos e prejuízos relacionados à AI ao amarrá-la a serviços já existentes, mascarando as perdas nos balanços
- Enfatiza-se a necessidade de regulação legal e institucional (transparência, opt-in, responsabilidade, propriedade intelectual etc.) e pede-se uma resposta social ao abuso da AI
O fenômeno de enfiar AI goela abaixo de um público que não a quer
- Ao abrir o Microsoft Outlook recentemente, apareceu uma mensagem recomendando o uso do companheiro de AI Copilot
- Apesar do nome companheiro de AI (Companion), trata-se, na prática, de um recurso indesejado
- Quem recebe a mensagem também espera um e-mail escrito pela própria pessoa, e não um texto redigido por AI
- A desativação do Copilot foi deixada propositalmente difícil; depois de encontrar com muito custo como desligá-lo, logo em seguida outros programas como o Excel passaram a exigir concordância com os termos de uso da AI
- A assinatura do MS 365 também subiu US$ 3 por mês, passando a incluir em pacote 60 usos do Copilot, mesmo sem querer
- Mesmo sem usar de fato, o usuário paga por isso, e os recursos de AI passam a vir embutidos em todos os softwares, como Word e Excel
Razões econômicas e estratégicas para empacotar AI e forçar seu uso
- Na maioria dos casos, os usuários não pagariam voluntariamente pela AI (apenas 8% dos americanos aceitariam pagar a mais)
- Por isso, ela só consegue se firmar no mercado quando é forçada em pacote com serviços essenciais
- Se a AI fosse um produto pago independente, suas perdas ficariam evidentes, e a insatisfação de investidores e acionistas explodiria
- Ao esconder a AI dentro de serviços já existentes, as empresas ocultam as perdas contábeis e fazem parecer que o negócio é lucrativo
- Um exemplo: se um restaurante vendesse uma pedra de granito como sobremesa, ninguém compraria; mas, se adicionasse US$ 1 ao preço da refeição inteira e a entregasse à força para todos, poderia alegar que “todos os clientes compram a pedra”
Perda da liberdade de escolha e insatisfação dos usuários
- Na prática, os usuários não têm escolha sobre adotar ou não AI
- Não é só a Microsoft: o Google também insere AI automaticamente nos resultados de busca
- As plataformas adicionam recursos de AI unilateralmente sem consentimento do usuário, e o cliente é tratado basicamente como alguém que deve “ficar quieto e aceitar”
- Todos os recursos de AI abaixo estão sendo impostos independentemente da vontade do usuário
- atendimento ao cliente com AI, resultados de busca com AI, AI embutida em software, e-mails enviados por AI, música de AI no Spotify, livros de AI na Amazon etc.
- Quanto mais recursos de AI um produto recebe, menor tende a ser a preferência por ele (pesquisa com 4.000 pessoas, com apenas 18% de preferência por AI)
- Especialistas e a mídia também alertam que a adoção acelerada de AI pode prejudicar a confiança do cliente e as vendas
O movimento de imposição ainda mais agressiva da AI pelas big techs
- No passado, as empresas respondiam com sensibilidade à opinião do cliente, mas agora as big techs exercem influência monopolista
- A vontade e o poder de escolha do usuário são completamente excluídos, e a adição unilateral de recursos continua
- A Meta (Facebook) está preparando até uma função em que chatbots de AI enviam mensagens primeiro, mesmo quando o usuário não quer (desativar totalmente o Messenger também é, na prática, impossível)
- Esse tipo de abordagem se aproxima do spam clássico, e a rejeição dos usuários está crescendo
A realidade em que boicotar a AI é impossível
- Mesmo que alguém queira rejeitar a adoção de AI, na prática teria de abrir mão de e-mail, busca, Word/Excel, Amazon, Spotify e outros serviços essenciais
- No futuro, até serviços básicos da sociedade, como saúde, aconselhamento, direito, contratação e resgate de emergência, devem ser substituídos por estruturas centradas em AI
- As grandes empresas de TI já estão apagando rapidamente os vestígios de atendimento humano, independentemente do consentimento ou da escolha do usuário
A contradição de uma AI pouco confiável se espalhando à força
- O mais surpreendente é que essa imposição está se acelerando mesmo numa fase em que a AI ainda nem opera de forma suficientemente confiável
- Na prática, ainda há muitas respostas absurdas e imprecisas geradas por AI, mas as empresas nem parecem dispostas a corrigi-las adequadamente
Necessidade de resposta social e jurídica
- São indispensáveis regulações para a adoção de AI, como leis de transparência, leis de opt-in (consentimento prévio), leis de responsabilidade e leis de proteção da propriedade intelectual
- Se a classe política não reagir, serão necessárias ações sociais, como iniciativas cidadãs ou ações coletivas
- Os consumidores (jurados) acabarão reconhecendo a realidade de que a AI está sendo enfiada goela abaixo deles
Dúvidas sobre a lógica da disputa entre EUA e China
- O texto se opõe à lógica de que os EUA precisam superar a China na corrida pela adoção de AI
- Defende que o destino para onde a AI caminha (there) provavelmente deixará resultados infelizes e arrependimento, e enfatiza que preferiria observar essas consequências apenas num futuro distante
Conclusão
- A AI está se espalhando amplamente pelo cotidiano e pela sociedade sem o consentimento do público e sob a liderança das big techs
- A causa fundamental não é uma demanda ativa dos usuários, mas sim a busca por lucro de empresas monopolistas e a distorção dos mecanismos de mercado
- A adoção de AI sem liberdade de escolha tende a se intensificar, com grande possibilidade de arrependimento social no futuro
4 comentários
Colocaram uma tradução automática porca pra estragar a tradução em coreano, e pelo visto isso evoluiu ainda mais. Não conseguiram nem barrar a tradução automática, então agora vamos todos provar também essa IA porca enfiada goela abaixo!
Odeio muito recursos de IA, especialmente serviços que ficam em espera em segundo plano dizendo que vão me ajudar.
Se eles rodam remotamente, há o problema de meus dados serem fornecidos; se rodam localmente, há o problema de consumirem os recursos do meu computador (CPU, memória, bateria, ...).
Que tal um serviço instalado em um servidor remoto privado?
Opinião no Hacker News
Eu também acho esses recursos de integração com IA irritantes e desnecessários, e não porque LLMs sejam inúteis, mas porque a integração com os produtos existentes não foi pensada a fundo; é parecido com grandes empresas adotando software às cegas só para seguir tendência. Como apontou criativamente petekoomen recentemente, estamos vendo a volta do fenômeno da "carruagem sem cavalos na era da IA"
Estou observando que produtos como Cursor e Windsurf operam com LLMs fortemente subsidiados em larga escala. Essas ferramentas são, na prática, meios de marketing para LLMs, e isso fica ainda mais claro ao olhar quem são os investidores. Eu não tinha parado para pensar que esses serviços têm custos operacionais bem altos e, por isso, precisam desesperadamente de adoção em massa rápida; fico curioso sobre o quão depressa querem absorver usuários
Os principais gatekeepers de IA já enfrentam gargalos e problemas de escalabilidade para operar modelos grandes, e sem uma inovação técnica fundamental a situação não deve mudar. Quanto mais o mundo migrar para uma lógica centrada em IA, maior será a dependência desses gatekeepers e dos recursos computacionais deles. Preocupa a possibilidade de aumento de preços por acesso prioritário ou prioridade de recursos. E nem chegamos ainda à fase de wearables
Todos os dados dos usuários precisam ser enviados a esses gatekeepers, e embora a migração de dados para a nuvem tenha aumentado, antes havia menos incentivo econômico para ler e reaproveitar esses dados, então meu conhecimento e minhas informações pessoais ficavam menos expostos. Mas com a adoção forçada de IA, ficou ainda mais opaco quem está rodando o modelo e para onde meus dados vão. Há o problema da precisão insuficiente dos LLMs, claro, mas a concentração de poder nos gatekeepers e a centralização dos dados me preocupam tanto quanto. Dá medo que, por conveniência, acabemos aceitando uma estrutura operacional barata em troca de piora de qualidade
Concordo com a linha geral do texto, mas o jeito meio estranho como o autor escreve até faz pensar se não foi a IA que escreveu por ele. Há alternativas open source ou pagas baratas para todas as funções que ele menciona. Ainda assim, em áreas específicas como seguradoras, parece inevitável usar IA por pressão popular ou lock-in de serviço. Dá para argumentar que os usuários realmente querem isso, citando o ChatGPT como um dos sites mais acessados do mundo, mas eu vejo duas objeções válidas. Primeiro, há incontáveis casos de coisas populares que nunca se converteram em disposição real de pagar (será que rede social paga teria mesmo tanta popularidade?). Segundo, poucos usuários querem que sites populares invadam outros domínios e passem a dominar toda a vida cotidiana
Acabei de ver agora há pouco, pela primeira vez, o Gmail resumindo um email que recebi. Pensei: por favor, não façam isso. Eu vou ler meu email sozinho, e um resumo desnecessário só aumenta a quantidade de texto que preciso ler. Claro, pode ser útil para quem recebe grandes volumes de emails com importância ambígua de colegas, mas na minha conta pessoal tudo que chega é de amigos e o resto não precisa de resumo, precisa ir direto para a lixeira. Dito isso, sou realmente grato pelo filtro de spam do Gmail
Concordo completamente com este texto. “IA” pode criar um pequeno mercado para trapaceiros medianos, mas para a maioria dos usuários é spam, algo como o Clippy que ninguém queria. Espero que um dia a IA também desapareça como o Clippy desapareceu
Não concordo com a afirmação de que “todo mundo queria a internet”. Muita gente não tinha o menor interesse até a era anterior ao smartphone, e o smartphone se popularizou porque, embora pior que um desktop em vários aspectos, era muito mais conveniente. Esse marketing de “ficou pior, mas ficou mais conveniente” é exatamente a mesma lógica usada para IA. Então imagino que o público também vá aceitar a IA
Parece como falar ao vento. Os problemas da IA são sutis demais, então a maioria se satisfaz só em obter “respostas plausíveis” e nem percebe o quanto isso é uma ferramenta criativa nova, quase uma linguagem de programação em linguagem natural. Para ter sucesso repetidamente, é indispensável escrever prompts eficazes, mas quase ninguém faz esse esforço. Até a discussão sobre prompt engineering é menosprezada com perguntas do tipo “escrever prompt é engenharia?”. Mas isso é justamente um processo técnico sofisticado que a indústria deveria levar a sério. Quase ninguém entende de verdade o poder sutil dos LLMs, e no meio institucional a tendência é tratá-los como fraude
Por que CEOs são obcecados por IA? Porque investidores em ações investem imediatamente só de ouvir “tem IA”. A demanda dos investidores é justamente o elemento central que impede o colapso do “modelo de negócios de IA”. No fim, é uma bolha. Mas uma bolha que inevitavelmente pode durar um bom tempo
O ChatGPT está entre os 5 sites mais populares do mundo e continua crescendo rápido. Um produto tão popular assim não pode ser explicado apenas como resistência do mercado. Usuários do Instagram também têm pouquíssima disposição real de pagar (algo como 8%?), mas isso faz do Instagram um produto forçado que o público não quer?