1 pontos por GN⁺ 3 시간 전 | 1 comentários | Compartilhar no WhatsApp
  • Uma suíte de plugins que cobre toda a prática jurídica, incluindo contratos comerciais internos, privacidade, emprego, M&A, litígios, regulação, governança de IA, propriedade intelectual e educação jurídica, podendo ser distribuída de três formas: Claude Cowork, Claude Code e Managed Agents API
  • Inclui mais de 70 Named Agents — Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder e outros, executáveis com um único comando de barra para cada fluxo de trabalho
  • Cada plugin aprende o playbook da equipe, regras de escalonamento e estilo interno por meio de uma cold-start interview, registrando isso no perfil de prática CLAUDE.md, para que todas as skills gerem resultados personalizados
  • Oferece mais de 20 conectores MCP: ferramentas gerais como Slack, Google Drive e Box, além de integrações com sistemas jurídicos especializados como Ironclad, DocuSign, iManage, Everlaw, CourtListener e Trellis
  • O plugin CoCounsel Legal da Thomson Reuters integra o Westlaw Deep Research, permitindo gerar relatórios com citações completas de precedentes, leis e regulamentos em até 3 jurisdições dos EUA
  • Citações feitas por conectores de pesquisa exibem tags de fonte, enquanto citações baseadas apenas no conhecimento do modelo recebem a flag [verify], distinguindo explicitamente a confiabilidade das citações
  • As skills relacionadas a contratos funcionam na barra lateral do Claude for Word em modo tracked changes, preservando numeração, cláusulas de definição, referências cruzadas e estilo. As skills voltadas para Excel geram saída em workbooks .xlsx com múltiplas planilhas
  • O legal-builder-hub fornece a camada de confiança para skills da comunidade — varredura de conteúdo oculto, detecção de injeção, allowlist, gate de licença, gate de atualização, revarredura em atualizações e logs de auditoria de instalação
  • Inclui plugins educacionais para estudantes de direito, como Socratic Drill (modo de estudo sem fornecer respostas), correção IRAC, preparação para o exame da ordem, flashcards e previsão de prova, além do plugin legal-clinic (projetado com base na ABA Formal Op. 512)
  • Todo o conteúdo gerado é um rascunho para revisão por advogado e não representa a posição jurídica da Anthropic. Tudo é composto em Markdown e JSON, sem necessidade de etapa de build
  • Licença Apache-2.0

1 comentários

 
GN⁺ 3 시간 전
Comentários no Hacker News
  • Do ponto de vista de um advogado, isso é interessante, mas há dois obstáculos que não sei como a Anthropic pretende superar
    (1) Se um não advogado usar essas skills/conectores para obter aconselhamento jurídico, essa conversa não será protegida pelo sigilo advogado-cliente. Isso claramente vai acabar sendo um grande problema para alguém
    (2) Se um advogado inserir informações confidenciais do cliente e esquecer de desativar “Help improve Claude” nas configurações, pode ter cometido negligência profissional. E, nesse contexto, informação confidencial não significa apenas CPF ou número de conta, mas “toda informação relacionada à representação do cliente”
    https://www.americanbar.org/content/dam/aba/administrative/p...

    • Como base para o ponto 1, há https://harvardlawreview.org/blog/2026/03/united-states-v-he...
      O juiz Rakoff, do Tribunal Distrital do Sul de Nova York, tratando de uma “questão inédita no país”, decidiu que conversas escritas entre um réu criminal e a plataforma de IA generativa Claude não são protegidas pelo sigilo advogado-cliente nem pela doutrina do work product
      Há muito mais complexidade do que essa frase sugere, mas pelo menos parece prudente assumir que, se você colocar sua defesa legal ou elementos dela em uma IA, isso pode acabar sujeito a discovery
    • O ponto 1 parece muito estranho. Se eu pagar um advogado, e ele colocar a mesma consulta numa ferramenta dessas, isso fica protegido pelo sigilo advogado-cliente; mas se eu fizer exatamente a mesma consulta por conta própria para preparar minha defesa, ela pode ser alvo de intimação ou discovery
      Fico me perguntando se existe algum procedimento operacional de segurança que permita usar ferramentas terceiras para questões jurídicas sensíveis de forma ética e, ao mesmo tempo, com confiança de que a interação não vai parar em documentos de discovery
    • O ponto 1 é um pouco mais complicado. Conversas com IA podem, em alguns casos, ser protegidas pela doutrina do work product, mas apenas quando se trata de parte pro se conduzindo o próprio litígio, e de forma estritamente limitada ao que se enquadra como impressões mentais e opiniões do advogado como work product. Nesse caso, essa proteção é estendida à parte pro se. Ver Warner v. Gilbarco, Inc.
      Um bom panorama da situação atual está aqui: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
      Ainda assim, nada disso constitui precedente vinculante, então essa área vai continuar mudando com o tempo
    • O ponto 2, basicamente, deve acabar sendo resolvido com o uso por meio de contas organizacionais/empresariais com retenção de dados desativada
    • Não daria para resolver o ponto 1 com uma linha na lei? Algo como: “Consultas jurídicas feitas a LLMs estão igualmente cobertas pelo sigilo advogado-cliente”
  • Quem responde quando isso faz algo errado? A Anthropic Inc. certamente não vai assumir a responsabilidade. Não há seguro de erros e omissões, nem responsabilidade legal, nem sigilo advogado-cliente, nem ordem dos advogados para lidar com sanções
    Na prática, isso parece mais uma versão sofisticada de um “kit de testamento” que cospe PDFs. Até que algo mude de forma fundamental, o sistema jurídico não vai ver isso com bons olhos
    Seria ótimo não precisar gastar milhares de dólares para se defender numa cultura tão litigiosa, mas eu não apostaria minha vida e meu bem-estar nisso

    • Há uma cláusula de isenção de responsabilidade bem forte no repositório dizendo que eles não assumem responsabilidade alguma. Parece mais uma categoria de caso de uso de marketing do que algo realmente útil
    • O usuário deve ser responsável. Não muda nada se ele obteve a informação de um LLM, de uma máquina ou de um post na web; faz sentido que a responsabilidade recaia sobre quem apresenta o documento
    • A responsabilidade recai sobre os advogados. O uso de IA não é uma decisão binária. Advogados podem usar IA para trabalhar com mais eficiência, e clientes podem usar IA para entender melhor sua situação atual ou a explicação do advogado, ou para aprender que perguntas fazer. Ou podem usá-la em situações de baixo risco em que ninguém pagaria honorários advocatícios
      Sou cautelosamente otimista com IA no trabalho jurídico. Boa parte do trabalho jurídico é vasculhar pilhas de documentos em tarefas repetitivas, então já há muito espaço de aplicação só com aquilo em que LLMs já são bons. Mas, no trabalho jurídico, acho que a abordagem certa é no estilo agentic, como o Claude
      A janela de contexto dos LLMs é pequena demais até para os documentos de um caso pequeno. Por isso, é preciso trabalhar sobre uma estrutura de arquivos, como programadores fazem, e salvar o estado em arquivos .md. Isso evoluiu bem na programação, mas as empresas de IA jurídica ainda mal arranharam a superfície. E, sinceramente, os produtos que escondem o LLM atrás de alguma interface também não são grande coisa
      Infelizmente, no caso de pessoas físicas tentando se defender em litígios com baixo custo, a IA provavelmente não vai ajudar muito. Grande parte desse trabalho é lidar com pessoas: descobrir o que aconteceu, conversar com os envolvidos, organizar versões conflitantes dos fatos, tentar um acordo se possível ou, caso contrário, convencer um juiz no tribunal. A IA parece muito mais adequada para ajudar grandes empresas, em grandes litígios, a controlar custos jurídicos enquanto trocam ainda mais papelada entre si
    • O sistema jurídico também não viu com bons olhos, de início, a descriminalização da travessia fora da faixa. Nos EUA, isso levou cerca de 20 anos
    • Segundo o texto original, o advogado que usa o plugin — e não o plugin nem a Anthropic — é quem responde pela posição jurídica adotada em seu produto de trabalho
  • Registros de chat com IA não são protegidos como pelo sigilo advogado-cliente e podem ser usados contra você como prova em tribunal. Se você falar com um advogado e esse advogado usar IA, aí a conversa passa a estar coberta pelo sigilo

    • Não. Se você falar com um advogado e ele adotar medidas preventivas razoáveis para preservar a integridade da relação confidencial advogado-cliente, o sigilo é mantido. Caso contrário, não é
  • Parece que deixaram de fora a Lexis, provavelmente uma das ferramentas mais importantes para advogados: https://github.com/anthropics/claude-for-legal/pull/5

    • “A pedido do parceiro”? Fico pensando se a Thomson Reuters (Westlaw) se sentiu tão ameaçada assim a ponto de reclamar nesse nível. Na verdade, isso me faz ficar mais curioso sobre o quão bem essas skills funcionariam junto com a Lexis
    • Não daria para simplesmente usar a versão do codebase anterior a essa mudança?
  • Então, acho que boa parte das avaliações atuais de startups de IA na camada de aplicação é meio instável. Se grandes empresas de IA como a Anthropic começarem a expandir para produtos verticais, a conta muda
    Dito isso, fico me perguntando o quanto vão levar isso a sério no longo prazo. Talvez uma vantagem que ainda reste para algumas startups seja o medo de que esses pacotes de produtos da OpenAI/Anthropic acabem indo para o cemitério em 1 ou 2 anos, como acontece com produtos do Google

    • É parecido com perguntar o que acontece se a AWS resolver fazer isso. A infraestrutura eles já têm. O LLM é só uma engrenagem; ainda há muita coisa no lado de aplicação que eles simplesmente não fazem
    • Todas as avaliações no setor de IA são instáveis. Na prática, ninguém tem um plano de negócios realmente sólido, só existe clima de mercado, e ainda assim o dinheiro continua entrando
  • A expressão “os fluxos de trabalho jurídicos que vemos com mais frequência” me incomoda um pouco. Isso quer dizer que foi baseado em sessões de clientes? Eles têm o direito de usar dados de clientes para construir uma base de conhecimento sobre todas as profissões, temas e fluxos de trabalho do mundo?

    • Acho que sim. Eles estão treinando IA com os dados da sua empresa para, no futuro, poder substituir o seu negócio. Se parece difícil de acreditar, basta tentar apontar uma única coisa com a qual eles não tenham treinado
    • Sim, é baseado em sessões de clientes
      Eles acreditam que têm esse direito e falam disso de forma bastante aberta
      Isso até tem nome: Clio, que, segundo a página, é um “sistema para insights preservadores de privacidade sobre uso real de IA”
      A página relevante está aqui: https://www.anthropic.com/research/clio
    • A referência legal depende até do país. Você sabe que as leis variam de um país para outro, certo?
    • “Ter o direito legal e moral” e “agir como se tivesse esse direito” são coisas diferentes. Essa é a grande questão
  • Em algum momento, advogados, procuradores e juízes provavelmente vão usar esse tipo de coisa. Aí os advogados podem acabar virando algo parecido com especialistas em SEO/copywriting para enganar melhor o LLM do outro lado

    • Esse ponto já ficou para trás faz tempo. Basta ver quantos casos já houve, no mundo todo, de advogados apresentando em juízo documentos com citações de precedentes alucinados
    • A lei está escrita em algum lugar, de qualquer forma. Uma pessoa consegue olhar a lei real e julgar se a IA está falando bobagem
  • Como alguém que já se representou diretamente em tribunal no passado, isso certamente me parece interessante
    Mas, em algumas jurisdições, como o Reino Unido, você não pode simplesmente oferecer aconselhamento jurídico a alguém sem autorização da SRA ou regulação da FCA. Ou seja, isso pode efetivamente transformar a Anthropic em uma claims management company sob o direito britânico
    Segundo o artigo 89I da Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, aconselhar um reclamante ou potencial reclamante em demandas relacionadas a serviços financeiros ou produtos financeiros, investigar uma demanda ou representar o reclamante constitui uma atividade regulada definida
    https://www.fca.org.uk/freedom-information/dual-regulation-c...

  • A esta altura, era de se imaginar que empresas de IA já tivessem aprendido que o setor jurídico não é algo com que se deva mexer levianamente. O histórico já deveria bastar. Mas esses otimistas específicos de IA parecem não ter capacidade de aprendizado

    • Não acho que a brincadeira nesse setor vá parar. Advogados são caros, então o ganho potencial em substituí-los por IA é enorme. Mas há gente que acha que empresas de IA vão competir com advogados e oferecer aconselhamento jurídico direto, e isso eu acho que jamais farão, porque é um campo minado de responsabilidade
      Em vez disso, elas vão fornecer serviços de IA para escritórios de advocacia, para que os escritórios os usem na prestação de seus próprios serviços jurídicos. Isso já está acontecendo, para o bem ou para o mal, e praticamente todos os grandes escritórios empresariais já usam IA de alguma forma. Os clientes também exigem isso. Problemas decorrentes do uso de IA no direito vão continuar surgindo, mas a responsabilidade vai recair sobre os advogados
    • Se não forem forçadas a assumir responsabilidade, a publicidade que isso gera por si só já vale a pena. Não é uma situação boa
  • O nome da organização no GitHub ser “Anthropics” parece bastante propenso a causar confusão