Claude for Legal - Coleção de plugins de IA da Anthropic para trabalho jurídico
(github.com/anthropics)- Uma suíte de plugins que cobre toda a prática jurídica, incluindo contratos comerciais internos, privacidade, emprego, M&A, litígios, regulação, governança de IA, propriedade intelectual e educação jurídica, podendo ser distribuída de três formas: Claude Cowork, Claude Code e Managed Agents API
- Inclui mais de 70 Named Agents — Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder e outros, executáveis com um único comando de barra para cada fluxo de trabalho
- Cada plugin aprende o playbook da equipe, regras de escalonamento e estilo interno por meio de uma cold-start interview, registrando isso no perfil de prática
CLAUDE.md, para que todas as skills gerem resultados personalizados - Oferece mais de 20 conectores MCP: ferramentas gerais como Slack, Google Drive e Box, além de integrações com sistemas jurídicos especializados como Ironclad, DocuSign, iManage, Everlaw, CourtListener e Trellis
- O plugin CoCounsel Legal da Thomson Reuters integra o Westlaw Deep Research, permitindo gerar relatórios com citações completas de precedentes, leis e regulamentos em até 3 jurisdições dos EUA
- Citações feitas por conectores de pesquisa exibem tags de fonte, enquanto citações baseadas apenas no conhecimento do modelo recebem a flag
[verify], distinguindo explicitamente a confiabilidade das citações - As skills relacionadas a contratos funcionam na barra lateral do Claude for Word em modo tracked changes, preservando numeração, cláusulas de definição, referências cruzadas e estilo. As skills voltadas para Excel geram saída em workbooks
.xlsxcom múltiplas planilhas - O legal-builder-hub fornece a camada de confiança para skills da comunidade — varredura de conteúdo oculto, detecção de injeção, allowlist, gate de licença, gate de atualização, revarredura em atualizações e logs de auditoria de instalação
- Inclui plugins educacionais para estudantes de direito, como Socratic Drill (modo de estudo sem fornecer respostas), correção IRAC, preparação para o exame da ordem, flashcards e previsão de prova, além do plugin legal-clinic (projetado com base na ABA Formal Op. 512)
- Todo o conteúdo gerado é um rascunho para revisão por advogado e não representa a posição jurídica da Anthropic. Tudo é composto em Markdown e JSON, sem necessidade de etapa de build
- Licença Apache-2.0
1 comentários
Comentários no Hacker News
Do ponto de vista de um advogado, isso é interessante, mas há dois obstáculos que não sei como a Anthropic pretende superar
(1) Se um não advogado usar essas skills/conectores para obter aconselhamento jurídico, essa conversa não será protegida pelo sigilo advogado-cliente. Isso claramente vai acabar sendo um grande problema para alguém
(2) Se um advogado inserir informações confidenciais do cliente e esquecer de desativar “Help improve Claude” nas configurações, pode ter cometido negligência profissional. E, nesse contexto, informação confidencial não significa apenas CPF ou número de conta, mas “toda informação relacionada à representação do cliente”
https://www.americanbar.org/content/dam/aba/administrative/p...
O juiz Rakoff, do Tribunal Distrital do Sul de Nova York, tratando de uma “questão inédita no país”, decidiu que conversas escritas entre um réu criminal e a plataforma de IA generativa Claude não são protegidas pelo sigilo advogado-cliente nem pela doutrina do work product
Há muito mais complexidade do que essa frase sugere, mas pelo menos parece prudente assumir que, se você colocar sua defesa legal ou elementos dela em uma IA, isso pode acabar sujeito a discovery
Fico me perguntando se existe algum procedimento operacional de segurança que permita usar ferramentas terceiras para questões jurídicas sensíveis de forma ética e, ao mesmo tempo, com confiança de que a interação não vai parar em documentos de discovery
Um bom panorama da situação atual está aqui: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
Ainda assim, nada disso constitui precedente vinculante, então essa área vai continuar mudando com o tempo
Quem responde quando isso faz algo errado? A Anthropic Inc. certamente não vai assumir a responsabilidade. Não há seguro de erros e omissões, nem responsabilidade legal, nem sigilo advogado-cliente, nem ordem dos advogados para lidar com sanções
Na prática, isso parece mais uma versão sofisticada de um “kit de testamento” que cospe PDFs. Até que algo mude de forma fundamental, o sistema jurídico não vai ver isso com bons olhos
Seria ótimo não precisar gastar milhares de dólares para se defender numa cultura tão litigiosa, mas eu não apostaria minha vida e meu bem-estar nisso
Sou cautelosamente otimista com IA no trabalho jurídico. Boa parte do trabalho jurídico é vasculhar pilhas de documentos em tarefas repetitivas, então já há muito espaço de aplicação só com aquilo em que LLMs já são bons. Mas, no trabalho jurídico, acho que a abordagem certa é no estilo agentic, como o Claude
A janela de contexto dos LLMs é pequena demais até para os documentos de um caso pequeno. Por isso, é preciso trabalhar sobre uma estrutura de arquivos, como programadores fazem, e salvar o estado em arquivos
.md. Isso evoluiu bem na programação, mas as empresas de IA jurídica ainda mal arranharam a superfície. E, sinceramente, os produtos que escondem o LLM atrás de alguma interface também não são grande coisaInfelizmente, no caso de pessoas físicas tentando se defender em litígios com baixo custo, a IA provavelmente não vai ajudar muito. Grande parte desse trabalho é lidar com pessoas: descobrir o que aconteceu, conversar com os envolvidos, organizar versões conflitantes dos fatos, tentar um acordo se possível ou, caso contrário, convencer um juiz no tribunal. A IA parece muito mais adequada para ajudar grandes empresas, em grandes litígios, a controlar custos jurídicos enquanto trocam ainda mais papelada entre si
Registros de chat com IA não são protegidos como pelo sigilo advogado-cliente e podem ser usados contra você como prova em tribunal. Se você falar com um advogado e esse advogado usar IA, aí a conversa passa a estar coberta pelo sigilo
Parece que deixaram de fora a Lexis, provavelmente uma das ferramentas mais importantes para advogados: https://github.com/anthropics/claude-for-legal/pull/5
Então, acho que boa parte das avaliações atuais de startups de IA na camada de aplicação é meio instável. Se grandes empresas de IA como a Anthropic começarem a expandir para produtos verticais, a conta muda
Dito isso, fico me perguntando o quanto vão levar isso a sério no longo prazo. Talvez uma vantagem que ainda reste para algumas startups seja o medo de que esses pacotes de produtos da OpenAI/Anthropic acabem indo para o cemitério em 1 ou 2 anos, como acontece com produtos do Google
A expressão “os fluxos de trabalho jurídicos que vemos com mais frequência” me incomoda um pouco. Isso quer dizer que foi baseado em sessões de clientes? Eles têm o direito de usar dados de clientes para construir uma base de conhecimento sobre todas as profissões, temas e fluxos de trabalho do mundo?
Eles acreditam que têm esse direito e falam disso de forma bastante aberta
Isso até tem nome: Clio, que, segundo a página, é um “sistema para insights preservadores de privacidade sobre uso real de IA”
A página relevante está aqui: https://www.anthropic.com/research/clio
Em algum momento, advogados, procuradores e juízes provavelmente vão usar esse tipo de coisa. Aí os advogados podem acabar virando algo parecido com especialistas em SEO/copywriting para enganar melhor o LLM do outro lado
Como alguém que já se representou diretamente em tribunal no passado, isso certamente me parece interessante
Mas, em algumas jurisdições, como o Reino Unido, você não pode simplesmente oferecer aconselhamento jurídico a alguém sem autorização da SRA ou regulação da FCA. Ou seja, isso pode efetivamente transformar a Anthropic em uma claims management company sob o direito britânico
Segundo o artigo 89I da Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, aconselhar um reclamante ou potencial reclamante em demandas relacionadas a serviços financeiros ou produtos financeiros, investigar uma demanda ou representar o reclamante constitui uma atividade regulada definida
https://www.fca.org.uk/freedom-information/dual-regulation-c...
A esta altura, era de se imaginar que empresas de IA já tivessem aprendido que o setor jurídico não é algo com que se deva mexer levianamente. O histórico já deveria bastar. Mas esses otimistas específicos de IA parecem não ter capacidade de aprendizado
Em vez disso, elas vão fornecer serviços de IA para escritórios de advocacia, para que os escritórios os usem na prestação de seus próprios serviços jurídicos. Isso já está acontecendo, para o bem ou para o mal, e praticamente todos os grandes escritórios empresariais já usam IA de alguma forma. Os clientes também exigem isso. Problemas decorrentes do uso de IA no direito vão continuar surgindo, mas a responsabilidade vai recair sobre os advogados
O nome da organização no GitHub ser “Anthropics” parece bastante propenso a causar confusão