- A Anthropic reconhece que anúncios contribuem para a concorrência e a descoberta de produtos, mas considera inadequados os anúncios dentro das conversas do Claude
- O Claude foi projetado como um assistente de IA sem anúncios para ajudar no pensamento e no trabalho dos usuários,
e um modelo baseado em anúncios pode entrar em conflito com o interesse do usuário, por isso a Anthropic decidiu excluir anúncios por completo
- Como uma parte significativa das conversas com o Claude envolve temas pessoais e sensíveis, inserir anúncios é inadequado
- A Anthropic gera receita por meio de assinaturas pagas e contratos corporativos e reinveste isso na melhoria do Claude
- Para manter o Claude como uma ferramenta de pensamento confiável, toda interação se baseia no princípio de ser conduzida pelo usuário
Princípios de um Claude sem anúncios
- A Anthropic reconhece que anúncios contribuem para a concorrência e a descoberta de produtos, mas afirma explicitamente que anúncios dentro das conversas do Claude são inadequados
- O Claude é uma ferramenta para pensamento profundo e apoio ao trabalho, e inserir anúncios entra em conflito com esse objetivo
- Durante as conversas com o Claude, os usuários não são expostos a links patrocinados nem à influência de anúncios
- O Claude coloca o interesse do usuário em primeiro lugar e não é influenciado por anunciantes nem pela promoção de produtos de terceiros
Características e riscos das conversas com IA
- Em mecanismos de busca ou redes sociais, é comum haver uma mistura de conteúdo orgânico e patrocinado, mas conversas com IA são abertas e pessoais
- Os usuários compartilham mais contexto e informação do que em uma busca
- Segundo a análise da Anthropic, uma parte significativa das conversas com o Claude trata de temas sensíveis ou pessoais
- Algumas estão relacionadas a engenharia de software, trabalho profundo e resolução de problemas complexos
- Nessas situações, anúncios podem ser percebidos como inadequados ou destoantes
- Pesquisas iniciais indicam que conversas com IA podem oferecer apoio psicológico, mas também existe o risco de reforçar crenças nocivas em usuários vulneráveis
- Acrescentar incentivos publicitários pode levar a resultados imprevisíveis
Estrutura de incentivos e princípios constitucionais
- A Constituição do Claude define como princípio central ser “algo genuinamente útil”
- Um modelo baseado em anúncios cria incentivos que entram em conflito com esse princípio
- Por exemplo, quando um usuário menciona insônia, uma IA sem anúncios se concentra em explorar as causas, enquanto uma IA baseada em anúncios poderia buscar oportunidades de transação
- Nesses casos, é difícil para o usuário distinguir se a recomendação tem ou não motivação comercial
- Mesmo anúncios separados dentro da janela de conversa prejudicam a clareza do espaço de pensamento e induzem metas não essenciais, como otimizar o tempo de engajamento
- As interações mais úteis com IA podem ser curtas, claras e focadas na solução
- Anúncios transparentes ou escolhidos pelo usuário até poderiam ser possíveis, mas historicamente os incentivos publicitários tendem a se expandir gradualmente, por isso não serão introduzidos no Claude
Modelo de receita e abordagem da Anthropic
- A Anthropic gera receita por meio de contratos corporativos e assinaturas pagas e reinveste isso na melhoria do Claude
- A empresa reconhece que outras companhias de IA podem tomar decisões diferentes
- Para ampliar a acessibilidade do Claude, busca o interesse público sem anúncios nem venda de dados
- Oferece ferramentas e educação em IA a educadores em mais de 60 países
- Conduz projetos-piloto nacionais de educação em IA com vários governos
- Oferece descontos para organizações sem fins lucrativos e continua investindo em modelos gratuitos
- No futuro, pode considerar planos de baixo custo e preços regionais, mantendo transparência em caso de mudanças
Comércio e recursos de integração
- A Anthropic pretende oferecer suporte comercial centrado no usuário
- Explora a possibilidade de agentic commerce, em que o Claude realiza compras e reservas em nome do usuário
- Recursos de comparação de produtos, compra e conexão com empresas só seriam oferecidos quando o usuário quiser
- O Claude já oferece suporte à integração com ferramentas de trabalho como Figma, Asana e Canva
- No futuro, pretende ampliar ainda mais os recursos de integração voltados à produtividade
- Toda interação com terceiros se baseia no princípio de ser conduzida pelo usuário
- O Claude responde apenas a solicitações do usuário e não opera em benefício de anunciantes
- Ex.: ao buscar tênis, comparar empréstimos ou pedir recomendações de restaurantes, o objetivo continua sendo apenas ajudar
Claude como ferramenta de pensamento confiável
- O Claude foi projetado como uma ferramenta para ajudar os usuários a refletir profundamente sobre trabalho, tarefas e ideias
- No ambiente da internet, anúncios são comuns, mas espaços limpos para pensar, como um caderno ou um quadro, não têm anúncios
- A Anthropic quer que o Claude funcione como um espaço de pensamento desse tipo
1 comentários
Comentários do Hacker News
Este texto parece aquele tipo de declaração de "don't be evil" que empresas apagam quando entram em dificuldade
Ainda assim, acho bom que a Anthropic ainda tenha fôlego para publicar um blog desses
Hoje em dia, os mecanismos de busca não conseguem filtrar sinal de ruído, então viraram um ambiente realmente hostil para o usuário
Estão cheios de banners de cookies, anúncios com reprodução automática e conteúdo gerado por IA
Nesse cenário, perguntar ao Perplexity, ChatGPT ou Claude é uma experiência muito mais humana
Se colocarem anúncios nisso, estarão ignorando completamente a dignidade do usuário
Pelo menos os AIs de hoje ainda parecem um espaço em que posso pensar sem ser manipulado
Parecem uma fronteira ainda não contaminada, e as pessoas que lidam com a tecnologia passam uma atmosfera de aprendizes de feiticeiro apaixonados
Mas não sei quanto tempo essa pureza vai durar
Fico curioso se já houve algum caso em que uma empresa como PBC ou B-Corp foi responsabilizada legalmente por trair seus valores
Ainda assim, é bom poder aproveitar por mais um tempo esse período sem anúncios
Servem para montar uma visão geral de um tema desconhecido, mas, além disso, é melhor ir de Kagi ou Google
Como as respostas não são consistentes, é difícil confiar — se você fizer a mesma pergunta cinco vezes, a temperatura pode variar 10°C entre elas
Em resumo, não dá para confiar nas respostas de LLMs
Dizer que “não há anúncios na IA” é uma promessa barata
Anúncios já são uma relíquia de uma era passada, e a IA consegue influenciar o comportamento das pessoas de forma muito mais sofisticada mesmo sem anúncios
Espero que a Anthropic realmente se torne uma “boa empresa”
Até agora, a direção parece razoável
Mas a parceria com a Palantir (link) e a tentativa de atrair investidores autoritários (link) preocupam
No fim, quanto mais a concorrência apertar, mais inevitável parece o compromisso entre valores e realidade
Até o nome passa essa impressão, e isso é mantido enquanto for lucrativo
Ainda assim, Claude é uma ferramenta que eu uso com frequência
Rejeita open source com firmeza e impede a divulgação de modelos sob o pretexto de segurança
Isso também aparece em suas recomendações oficiais
No fim, o dinheiro é o critério, e a ética muda conforme a situação
A Anthropic bloqueia o acesso de concorrentes, pede mais regulação de hardware e coopera com a Palantir e o DoD
Não acredito em “boa empresa” nesse porte
A esperança está só nos modelos abertos, e, nesse aspecto, os laboratórios chineses ao menos estão indo nessa direção
Uma empresa realmente “boa” é aquela que deixa o usuário rodar o modelo por conta própria
A Anthropic está mais para uma das piores
O CEO intimida funcionários e a empresa coopera com a Palantir e o ICE
Em termos éticos, eu diria que as empresas chinesas são até melhores
A Anthropic parece ter definido uma direção clara
O ChatGPT está se posicionando como chatbot substituto de busca, enquanto o Claude se firma como cavalo de batalha para desenvolvimento e automação
A OpenAI apresenta sua política de publicidade, mas “manter a independência” é algo impossível de medir
Já a Anthropic parece abrir mão de anúncios e seguir por um modelo baseado em assinatura
As duas empresas estão operando no prejuízo
Ex.: pesquisei por 39dollarglasses.com e no topo apareceu o anúncio de uma empresa completamente diferente
O limite de sessões do Claude Pro é incômodo
Acho mais eficiente usar os dois em paralelo
Este parece o tipo de post que vai ficar engraçado de reler depois que introduzirem anúncios
No fim, os investidores vão exigir receita
O número de usuários pode ser menor, mas a proporção de clientes pagantes deve ser maior
No futuro, é bem provável que Amazon, eBay e outras fechem parcerias via API com IAs
O comunicado da Anthropic também diz que há interesse em ‘agentic commerce’
O principal obstáculo que a IA precisa superar é construir confiança
Os usuários não confiam em grandes empresas, e os investidores também ficam inseguros
Claude vende “sem anúncios” como marketing de confiança, mas confiança de verdade envolve questões mais amplas, como privacidade, transparência e precisão
Nessa escala, conquistar confiança é quase impossível
O problema do modelo baseado em anúncios não é apenas viés, mas o limite da estrutura de receita
Para cobrir o custo computacional com anúncios, é preciso simplificar o modelo
O ChatGPT 5 é um exemplo disso: para reduzir custos, sacrificou inteligência e curiosidade
Por isso deixei a OpenAI e migrei para o Claude
O modelo de anúncios é fundamentalmente inadequado para criar “a melhor ferramenta intelectual”
Subsidiar usuários gratuitos com anúncios pode aumentar muito a receita
Vai ser difícil para a Anthropic competir com essa estrutura
Esse texto pode ser apenas uma sinalização de valores, mas a Anthropic vem mantendo projetos de transparência e explicação do processo de raciocínio de forma consistente
Até aqui, a trajetória parece séria e respeitosa
Espero que continuem nessa linha
A Anthropic parece querer vender assinatura mensal, não anúncios
A mensagem “venha aqui para pensar” é, no fim, posicionamento de marca
Eu prefiro pensar na Wikipedia
Converso muito mais sobre ideias do que gero código
É especialmente útil em problemas abertos, como planejar viagens
Lida bem com pedidos como “quero viajar para um lugar quente e com praia, não importa a data”
Conversando com o Claude, encontro ideias inesperadas com mais frequência
Isso pode ser ruim para captar investimento ou para a taxa de crescimento, mas acho que a escolha da Anthropic é a correta
A Anthropic sempre enfatizou uma “imagem de boazinha”
Se o ChatGPT colocar anúncios, fico curioso para saber se a Anthropic conseguiria se sustentar com receita enterprise
A estratégia da OpenAI talvez seja levar acessibilidade a mais pessoas
O Claude é mais fraco que o ChatGPT em capacidade de busca
Em algum momento, esse custo vai ter que ser recuperado