13 pontos por GN⁺ 2026-02-05 | 1 comentários | Compartilhar no WhatsApp
  • A Anthropic reconhece que anúncios contribuem para a concorrência e a descoberta de produtos, mas considera inadequados os anúncios dentro das conversas do Claude
  • O Claude foi projetado como um assistente de IA sem anúncios para ajudar no pensamento e no trabalho dos usuários,
    e um modelo baseado em anúncios pode entrar em conflito com o interesse do usuário, por isso a Anthropic decidiu excluir anúncios por completo
  • Como uma parte significativa das conversas com o Claude envolve temas pessoais e sensíveis, inserir anúncios é inadequado
  • A Anthropic gera receita por meio de assinaturas pagas e contratos corporativos e reinveste isso na melhoria do Claude
  • Para manter o Claude como uma ferramenta de pensamento confiável, toda interação se baseia no princípio de ser conduzida pelo usuário

Princípios de um Claude sem anúncios

  • A Anthropic reconhece que anúncios contribuem para a concorrência e a descoberta de produtos, mas afirma explicitamente que anúncios dentro das conversas do Claude são inadequados
    • O Claude é uma ferramenta para pensamento profundo e apoio ao trabalho, e inserir anúncios entra em conflito com esse objetivo
    • Durante as conversas com o Claude, os usuários não são expostos a links patrocinados nem à influência de anúncios
  • O Claude coloca o interesse do usuário em primeiro lugar e não é influenciado por anunciantes nem pela promoção de produtos de terceiros

Características e riscos das conversas com IA

  • Em mecanismos de busca ou redes sociais, é comum haver uma mistura de conteúdo orgânico e patrocinado, mas conversas com IA são abertas e pessoais
    • Os usuários compartilham mais contexto e informação do que em uma busca
  • Segundo a análise da Anthropic, uma parte significativa das conversas com o Claude trata de temas sensíveis ou pessoais
    • Algumas estão relacionadas a engenharia de software, trabalho profundo e resolução de problemas complexos
    • Nessas situações, anúncios podem ser percebidos como inadequados ou destoantes
  • Pesquisas iniciais indicam que conversas com IA podem oferecer apoio psicológico, mas também existe o risco de reforçar crenças nocivas em usuários vulneráveis
    • Acrescentar incentivos publicitários pode levar a resultados imprevisíveis

Estrutura de incentivos e princípios constitucionais

  • A Constituição do Claude define como princípio central ser “algo genuinamente útil”
    • Um modelo baseado em anúncios cria incentivos que entram em conflito com esse princípio
  • Por exemplo, quando um usuário menciona insônia, uma IA sem anúncios se concentra em explorar as causas, enquanto uma IA baseada em anúncios poderia buscar oportunidades de transação
    • Nesses casos, é difícil para o usuário distinguir se a recomendação tem ou não motivação comercial
  • Mesmo anúncios separados dentro da janela de conversa prejudicam a clareza do espaço de pensamento e induzem metas não essenciais, como otimizar o tempo de engajamento
    • As interações mais úteis com IA podem ser curtas, claras e focadas na solução
  • Anúncios transparentes ou escolhidos pelo usuário até poderiam ser possíveis, mas historicamente os incentivos publicitários tendem a se expandir gradualmente, por isso não serão introduzidos no Claude

Modelo de receita e abordagem da Anthropic

  • A Anthropic gera receita por meio de contratos corporativos e assinaturas pagas e reinveste isso na melhoria do Claude
    • A empresa reconhece que outras companhias de IA podem tomar decisões diferentes
  • Para ampliar a acessibilidade do Claude, busca o interesse público sem anúncios nem venda de dados
    • Oferece ferramentas e educação em IA a educadores em mais de 60 países
    • Conduz projetos-piloto nacionais de educação em IA com vários governos
    • Oferece descontos para organizações sem fins lucrativos e continua investindo em modelos gratuitos
    • No futuro, pode considerar planos de baixo custo e preços regionais, mantendo transparência em caso de mudanças

Comércio e recursos de integração

  • A Anthropic pretende oferecer suporte comercial centrado no usuário
    • Explora a possibilidade de agentic commerce, em que o Claude realiza compras e reservas em nome do usuário
    • Recursos de comparação de produtos, compra e conexão com empresas só seriam oferecidos quando o usuário quiser
  • O Claude já oferece suporte à integração com ferramentas de trabalho como Figma, Asana e Canva
    • No futuro, pretende ampliar ainda mais os recursos de integração voltados à produtividade
  • Toda interação com terceiros se baseia no princípio de ser conduzida pelo usuário
    • O Claude responde apenas a solicitações do usuário e não opera em benefício de anunciantes
    • Ex.: ao buscar tênis, comparar empréstimos ou pedir recomendações de restaurantes, o objetivo continua sendo apenas ajudar

Claude como ferramenta de pensamento confiável

  • O Claude foi projetado como uma ferramenta para ajudar os usuários a refletir profundamente sobre trabalho, tarefas e ideias
  • No ambiente da internet, anúncios são comuns, mas espaços limpos para pensar, como um caderno ou um quadro, não têm anúncios
  • A Anthropic quer que o Claude funcione como um espaço de pensamento desse tipo

1 comentários

 
GN⁺ 2026-02-05
Comentários do Hacker News
  • Este texto parece aquele tipo de declaração de "don't be evil" que empresas apagam quando entram em dificuldade
    Ainda assim, acho bom que a Anthropic ainda tenha fôlego para publicar um blog desses
    Hoje em dia, os mecanismos de busca não conseguem filtrar sinal de ruído, então viraram um ambiente realmente hostil para o usuário
    Estão cheios de banners de cookies, anúncios com reprodução automática e conteúdo gerado por IA
    Nesse cenário, perguntar ao Perplexity, ChatGPT ou Claude é uma experiência muito mais humana
    Se colocarem anúncios nisso, estarão ignorando completamente a dignidade do usuário
    Pelo menos os AIs de hoje ainda parecem um espaço em que posso pensar sem ser manipulado

    • Os chatbots atuais baseados em LLM ainda têm aquela vibe da “internet boa de antigamente”
      Parecem uma fronteira ainda não contaminada, e as pessoas que lidam com a tecnologia passam uma atmosfera de aprendizes de feiticeiro apaixonados
      Mas não sei quanto tempo essa pureza vai durar
      Fico curioso se já houve algum caso em que uma empresa como PBC ou B-Corp foi responsabilizada legalmente por trair seus valores
    • Como diz a frase “mostre-me os incentivos — e eu mostrarei o resultado”, no fim o dinheiro define a direção
      Ainda assim, é bom poder aproveitar por mais um tempo esse período sem anúncios
    • Agradecer porque a Anthropic está indo bem? Não tenho essa vontade
    • Hoje, LLMs muitas vezes entregam resultados muito piores do que uma busca manual
      Servem para montar uma visão geral de um tema desconhecido, mas, além disso, é melhor ir de Kagi ou Google
      Como as respostas não são consistentes, é difícil confiar — se você fizer a mesma pergunta cinco vezes, a temperatura pode variar 10°C entre elas
      Em resumo, não dá para confiar nas respostas de LLMs
  • Dizer que “não há anúncios na IA” é uma promessa barata
    Anúncios já são uma relíquia de uma era passada, e a IA consegue influenciar o comportamento das pessoas de forma muito mais sofisticada mesmo sem anúncios

  • Espero que a Anthropic realmente se torne uma “boa empresa”
    Até agora, a direção parece razoável

    • Não participa de lobby contra regulação
    • Rejeita o negócio de publicidade
    • Já recusou contrato com o Departamento de Defesa por questões éticas (artigo 1, artigo 2)
      Mas a parceria com a Palantir (link) e a tentativa de atrair investidores autoritários (link) preocupam
      No fim, quanto mais a concorrência apertar, mais inevitável parece o compromisso entre valores e realidade
    • A imagem de “boa empresa” no fim é só uma estratégia de marketing
      Até o nome passa essa impressão, e isso é mantido enquanto for lucrativo
      Ainda assim, Claude é uma ferramenta que eu uso com frequência
    • A Anthropic é uma das empresas de IA mais fechadas que existem
      Rejeita open source com firmeza e impede a divulgação de modelos sob o pretexto de segurança
      Isso também aparece em suas recomendações oficiais
      No fim, o dinheiro é o critério, e a ética muda conforme a situação
    • Eu penso justamente o contrário
      A Anthropic bloqueia o acesso de concorrentes, pede mais regulação de hardware e coopera com a Palantir e o DoD
      Não acredito em “boa empresa” nesse porte
      A esperança está só nos modelos abertos, e, nesse aspecto, os laboratórios chineses ao menos estão indo nessa direção
    • A única empresa mais fechada que a OpenAI é a Anthropic
      Uma empresa realmente “boa” é aquela que deixa o usuário rodar o modelo por conta própria
    • Não acho que exista “boa empresa”
      A Anthropic está mais para uma das piores
      O CEO intimida funcionários e a empresa coopera com a Palantir e o ICE
      Em termos éticos, eu diria que as empresas chinesas são até melhores
  • A Anthropic parece ter definido uma direção clara
    O ChatGPT está se posicionando como chatbot substituto de busca, enquanto o Claude se firma como cavalo de batalha para desenvolvimento e automação
    A OpenAI apresenta sua política de publicidade, mas “manter a independência” é algo impossível de medir
    Já a Anthropic parece abrir mão de anúncios e seguir por um modelo baseado em assinatura
    As duas empresas estão operando no prejuízo

    • No passado, o Google também dizia que iria “identificar claramente” anúncios, mas hoje eles encobrem os resultados de busca
      Ex.: pesquisei por 39dollarglasses.com e no topo apareceu o anúncio de uma empresa completamente diferente
    • Eu uso mais o ChatGPT
      O limite de sessões do Claude Pro é incômodo
      Acho mais eficiente usar os dois em paralelo
    • As duas empresas ganham dinheiro com inferência (inference)
  • Este parece o tipo de post que vai ficar engraçado de reler depois que introduzirem anúncios
    No fim, os investidores vão exigir receita

    • Historicamente, há muitos casos de empresas que diziam “nunca vamos fazer nada ruim” e voltaram atrás em menos de um ano
    • Plataformas gratuitas acabam se sustentando com receita de anúncios
    • Isso é só sinalização de virtude; na prática, o modelo deles é B2B, então anúncio nem combina
      O número de usuários pode ser menor, mas a proporção de clientes pagantes deve ser maior
    • O Perplexity já está testando anúncios para busca de produtos
      No futuro, é bem provável que Amazon, eBay e outras fechem parcerias via API com IAs
    • A receita publicitária no fim vai vir do comércio
      O comunicado da Anthropic também diz que há interesse em ‘agentic commerce’
  • O principal obstáculo que a IA precisa superar é construir confiança
    Os usuários não confiam em grandes empresas, e os investidores também ficam inseguros
    Claude vende “sem anúncios” como marketing de confiança, mas confiança de verdade envolve questões mais amplas, como privacidade, transparência e precisão
    Nessa escala, conquistar confiança é quase impossível

    • Mas, olhando o número de usuários do Google ou do ChatGPT, as pessoas já estão demonstrando confiança com o comportamento
    • Confiança de verdade só existe quando posso rodar o código diretamente na minha infraestrutura
  • O problema do modelo baseado em anúncios não é apenas viés, mas o limite da estrutura de receita
    Para cobrir o custo computacional com anúncios, é preciso simplificar o modelo
    O ChatGPT 5 é um exemplo disso: para reduzir custos, sacrificou inteligência e curiosidade
    Por isso deixei a OpenAI e migrei para o Claude
    O modelo de anúncios é fundamentalmente inadequado para criar “a melhor ferramenta intelectual”

    • Mas a maioria das pessoas não quer um modelo mais inteligente
      Subsidiar usuários gratuitos com anúncios pode aumentar muito a receita
      Vai ser difícil para a Anthropic competir com essa estrutura
  • Esse texto pode ser apenas uma sinalização de valores, mas a Anthropic vem mantendo projetos de transparência e explicação do processo de raciocínio de forma consistente
    Até aqui, a trajetória parece séria e respeitosa
    Espero que continuem nessa linha

  • A Anthropic parece querer vender assinatura mensal, não anúncios
    A mensagem “venha aqui para pensar” é, no fim, posicionamento de marca
    Eu prefiro pensar na Wikipedia

    • Eu uso IA principalmente como ferramenta de brainstorming
      Converso muito mais sobre ideias do que gero código
      É especialmente útil em problemas abertos, como planejar viagens
      Lida bem com pedidos como “quero viajar para um lugar quente e com praia, não importa a data”
    • A Wikipedia é útil, mas é difícil descobrir conceitos novos por lá
      Conversando com o Claude, encontro ideias inesperadas com mais frequência
    • Vai ser difícil ter sucesso sem anúncios, mas anúncios são incompatíveis com uma boa experiência de usuário
      Isso pode ser ruim para captar investimento ou para a taxa de crescimento, mas acho que a escolha da Anthropic é a correta
  • A Anthropic sempre enfatizou uma “imagem de boazinha”
    Se o ChatGPT colocar anúncios, fico curioso para saber se a Anthropic conseguiria se sustentar com receita enterprise
    A estratégia da OpenAI talvez seja levar acessibilidade a mais pessoas
    O Claude é mais fraco que o ChatGPT em capacidade de busca

    • O serviço gratuito do ChatGPT é uma venda com prejuízo para ganhar market share
      Em algum momento, esse custo vai ter que ser recuperado
    • O Claude, desde o início, não tem como objetivo disputar a corrida dos chatbots para consumidor