Claude for Legal - Anthropic의 법률 업무용 AI 플러그인 모음
(github.com/anthropics)- 사내 상업계약, 프라이버시, 고용, M&A, 소송, 규제, AI 거버넌스, 지식재산, 법학 교육까지 법률 실무 전 영역을 커버하는 플러그인 스위트로, Claude Cowork·Claude Code·Managed Agents API 세 가지 방식으로 배포 가능
- 70개 이상의 Named Agent 포함 — Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder 등 워크플로별로 슬래시 명령어 하나로 실행
- 각 플러그인은 cold-start interview를 통해 팀의 플레이북·에스컬레이션 규칙·하우스 스타일을 학습하고,
CLAUDE.md프랙티스 프로파일에 기록하여 모든 스킬이 맞춤형 결과 생성 - 20개 이상의 MCP 커넥터 제공: Slack, Google Drive, Box 등 범용 도구와 Ironclad, DocuSign, iManage, Everlaw, CourtListener, Trellis 등 법률 특화 시스템 연동
- Thomson Reuters의 CoCounsel Legal 플러그인으로 Westlaw Deep Research 연동, 판례·법령·규정을 최대 3개 미국 관할권에서 완전 인용 보고서 생성 가능
- 리서치 커넥터를 통한 인용에는 소스 태그가, 모델 지식만의 인용에는
[verify]플래그가 표시되어 인용 신뢰도를 명시적으로 구분 - 계약 관련 스킬은 Claude for Word 사이드바에서 tracked changes 모드로 작동하며, 번호 매기기·정의 조항·교차 참조·스타일 보존. Excel 대상 스킬은 멀티시트
.xlsx워크북으로 출력 - legal-builder-hub가 커뮤니티 스킬의 신뢰 레이어 제공 — 숨겨진 콘텐츠 스캔, 인젝션 탐지, allowlist, 라이선스 게이트, freshness 게이트, 업데이트 시 재스캔, 설치 감사 로그
- 법학생용 Socratic Drill(정답 미제공 학습 모드), IRAC 채점, 바 시험 대비, 플래시카드, 시험 예측 등 교육 플러그인과 legal-clinic 플러그인(ABA Formal Op. 512 기준 설계) 포함
- 모든 출력물은 변호사 검토를 위한 초안이며, Anthropic의 법적 입장을 대변하지 않음. 전체가 Markdown과 JSON으로 구성되어 빌드 단계 불필요
- Apache-2.0 라이선스
Hacker News 의견들
-
변호사 입장에서는 흥미롭지만, Anthropic이 어떻게 넘을지 모르겠는 장애물이 두 가지 있음
(1) 비변호사가 이런 스킬/커넥터 같은 것을 써서 법률 조언을 받으려 하면, 그 대화는 변호사-의뢰인 비밀특권으로 보호되지 않음. 이건 분명 누군가에게 큰 문제로 돌아올 것임
(2) 변호사가 의뢰인의 비밀 정보를 넣고, 설정에서 “Help improve Claude”를 끄는 걸 잊으면, 변호사 과오를 저질렀을 가능성이 있음. 여기서 비밀 정보는 주민번호나 계좌번호만이 아니라 “의뢰인 대리와 관련된 모든 정보”를 뜻함
https://www.americanbar.org/content/dam/aba/administrative/p...- 1번에 대한 근거로 https://harvardlawreview.org/blog/2026/03/united-states-v-he...가 있음
뉴욕 남부지방법원의 Rakoff 판사는 “전국 최초의 쟁점”을 다루며, 형사 피고인과 생성형 AI 플랫폼 Claude 사이의 서면 대화는 변호사-의뢰인 비밀특권이나 업무 산출물 원칙으로 보호되지 않는다고 판결함
이 한 줄보다 훨씬 복잡한 내용이 있지만, 적어도 법적 방어나 그 요소를 AI에 넣으면 증거개시 대상이 될 수 있다고 보는 게 안전함 - 1번은 정말 이상하게 느껴짐. 내가 변호사에게 돈을 내면 변호사가 같은 질의를 이런 도구에 넣어도 변호사-의뢰인 비밀특권으로 보호되는데, 내가 직접 방어를 준비하려고 똑같이 질의하면 소환장이나 증거개시 대상이 됨
이런 제3자 도구를 민감한 법률 질문에 쓸 때, 윤리적이면서도 상호작용이 증거개시 문서에 들어가지 않는다고 확신할 수 있는 운영상 보안 절차가 있는지 궁금함 - 1번은 조금 복잡함. AI와의 대화가 경우에 따라 업무 산출물 원칙으로 보호될 수도 있지만, 본인이 직접 소송을 수행하는 pro se 당사자인 경우에 한정되고, 변호사의 정신적 인상과 의견 업무 산출물에 해당하는 범위로 엄격히 제한됨. 이 경우 그 보호가 pro se 당사자에게 확장되는 구조임. Warner v. Gilbarco, Inc. 참고
현재 상황 정리는 여기 잘 되어 있음: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
다만 이 중 어느 것도 구속력 있는 선례는 아니어서, 이 분야는 시간이 지나며 계속 변할 것임 - 2번은 기본적으로 데이터 보존이 꺼진 조직/비즈니스 계정을 통해 쓰는 방식이 될 거라고 봄
- 1번은 법 한 줄로 해결할 수 없나? “LLM에 대한 법률 질의는 동일하게 변호사-의뢰인 비밀특권의 대상이 된다”처럼
- 1번에 대한 근거로 https://harvardlawreview.org/blog/2026/03/united-states-v-he...가 있음
-
이게 잘못된 일을 했을 때 누가 책임지나? Anthropic Inc가 대신 책임져 주지는 않을 것임. 오류·누락 보험도 없고, 법적 책임도 없고, 변호사-의뢰인 비밀특권도 없고, 징계를 처리할 변호사협회도 없음
현실적으로 보면 PDF를 뱉어내는 “유언장 키트”의 더 고급 버전에 가깝다고 봄. 근본적으로 뭔가 바뀌기 전까지 법률 시스템은 이런 것을 좋게 보지 않을 것임
소송이 흔한 문화에서 스스로를 방어하는 데 수천 달러를 쓰지 않아도 된다면 좋겠지만, 내 삶과 안녕을 여기에 걸지는 않겠음- 저장소에 자기들은 전혀 책임지지 않는다는 강한 면책 문구가 있음. 유용한 것이라기보다는 마케팅용 사용 사례 범주에 더 가까워 보임
- 사용자가 책임져야 함. 사용자가 LLM이든 기계든 웹 게시물이든 정보를 얻는다고 달라질 건 없고, 문서를 제출하는 사람이 책임지는 구조가 맞다고 봄
- 책임은 변호사들이 짐. AI 사용은 이분법적 결정이 아님. 변호사는 더 효율적으로 일하기 위해 AI를 쓸 수 있고, 의뢰인은 현재 상황이나 변호사의 설명을 더 잘 이해하거나 어떤 질문을 해야 할지 배우는 데 AI를 쓸 수 있음. 또는 아무도 변호사 비용을 내지 않을 낮은 위험 상황에서 쓸 수도 있음
법률 업무에서 AI는 조심스럽게 낙관하고 있음. 법률 업무 상당수는 문서 더미를 뒤지는 반복 노동이라, LLM이 이미 잘하는 작업만으로도 적용 여지가 큼. 다만 법률 업무에는 Claude처럼 에이전트 방식으로 접근하는 게 맞다고 봄
LLM의 문맥 창은 작은 사건의 문서도 담기에 너무 작음. 그래서 프로그래머가 쓰듯 파일 구조 위에서 작업하고,.md파일에 상태를 저장하는 식으로 써야 함. 이 방식은 프로그래밍에서는 잘 발전했지만, 법률 AI 회사들은 아직 표면도 제대로 못 긁었음. LLM을 어떤 인터페이스 뒤에 숨긴 제품들도 솔직히 별로 좋지 않음
안타깝게도 개인이 낮은 비용으로 소송 방어를 하는 예시에서는 AI가 별로 도움이 안 될 것 같음. 그 일의 상당 부분은 사람을 다루는 일임. 무슨 일이 벌어졌고, 관련자들과 이야기하고, 서로 충돌하는 이야기를 정리하고, 가능하면 합의하고, 아니면 법정에서 판사를 설득해야 함. AI는 오히려 큰 회사들이 대형 소송에서 법률 비용을 통제하면서 서로 더 많은 서류를 던지게 하는 데 더 잘 맞아 보임 - 법률 시스템이 무단횡단 금지 폐지도 처음부터 좋게 본 건 아니었음. 미국에서는 약 20년이 걸렸음
- 원문에 따르면, 플러그인을 쓰는 변호사, 즉 플러그인도 Anthropic도 아닌 해당 변호사가 자신의 업무 산출물에서 취한 법적 입장에 책임을 짐
-
AI 채팅 기록은 변호사-의뢰인 비밀특권처럼 보호되지 않고, 법정에서 당신에게 불리한 증거로 쓰일 수 있음. 변호사와 이야기하고 그 변호사가 AI를 쓰면 그 대화는 비밀특권 대상이 됨
- 아님. 변호사와 이야기하고 그 변호사가 비밀 변호사-의뢰인 관계의 무결성을 유지하기 위해 합리적인 예방 조치를 취하면 비밀특권이 유지됨. 그렇지 않으면 유지되지 않음
-
변호사에게 가장 중요한 도구 중 하나일 가능성이 큰 Lexis를 빼낸 것 같음: https://github.com/anthropics/claude-for-legal/pull/5
- “파트너 요청에 따라”라니, Thomson Reuters(Westlaw)가 위협을 느껴서 이렇게까지 불평할 필요가 있었던 건지 궁금함. 오히려 Lexis와 함께 쓰면 이 스킬들이 얼마나 잘 작동할지 궁금해짐
- 그 변경 전 코드베이스 버전을 그냥 쓰면 안 되나?
-
그래서 현재 응용 계층 AI 스타트업들의 가치평가 상당수가 좀 불안하다고 봄. Anthropic 같은 대형 AI 회사들이 수직형 제품으로 확장하기 시작하면 계산이 달라짐
다만 얼마나 진지하게 계속할지는 궁금함. 일부 스타트업에 아직 남은 우위는 OpenAI/Anthropic 등의 제품 묶음이 Google 제품처럼 1~2년 뒤 바로 묘지로 갈 수 있다는 두려움일지도 모름- AWS가 그걸 시작하면 어떡하냐고 묻는 것과 비슷함. 인프라는 이미 다 갖고 있음. LLM은 하나의 톱니바퀴일 뿐이고, 응용 쪽에는 아직 이들이 전혀 하지 않는 일이 많음
- AI 분야의 모든 가치평가는 불안정함. 실제로 탄탄한 사업 계획을 가진 곳은 없고 분위기만 있는데도, 돈은 계속 쏟아지고 있음
-
“우리가 가장 많이 보는 법률 업무흐름”이라는 문구가 좀 거슬림. 이게 고객 세션을 바탕으로 했다는 뜻인가? 고객 데이터를 써서 전 세계 모든 직업, 주제, 업무흐름에 대한 지식베이스를 만들 권리가 있는 건가?
- 그렇다고 봄. 그들은 나중에 당신의 사업을 대체할 수 있도록 당신 회사의 데이터로 AI를 학습시키고 있음. 믿기 어렵다면, 그들이 학습하지 않은 것이 하나라도 있는지 말해보면 됨
- 고객 세션 기반이 맞음
그들은 자신들에게 그 권리가 있다고 믿고 있고, 그 점을 꽤 공개적으로 말함
이름도 있음. Clio라고 하며, 페이지에 따르면 “실제 AI 사용에 대한 개인정보 보호형 인사이트를 위한 시스템”임
관련 페이지는 여기 있음: https://www.anthropic.com/research/clio - 어느 나라 기준인지도 문제임. 나라마다 법이 다르다는 건 알고 있겠지?
- “법적으로·도덕적으로 권리가 있는가”와 “권리가 있는 것처럼 행동하는가”는 다름. 큰 질문임
-
어느 시점에는 변호사, 법무사, 판사들이 이런 것을 쓰게 될 것 같음. 그러면 변호사들은 다른 쪽 LLM을 더 잘 속이는 SEO/카피라이터 전문가 비슷한 존재가 될 수도 있음
- 이미 그 지점은 한참 지났음. 전 세계에서 변호사들이 환각 판례 인용이 들어간 문서를 법원에 제출한 사건이 얼마나 많은지만 봐도 됨
- 법은 어쨌든 어딘가에 적혀 있음. 사람은 실제 법을 보고 AI가 헛소리를 하는지 판단할 수 있음
-
예전에 재판소에서 직접 자신을 대리해 본 입장에서는 이게 분명 흥미로움
다만 영국 같은 일부 관할권에서는 SRA 인가나 FCA 규제를 받지 않고는 누군가에게 법률 조언을 그냥 제공할 수 없음. 즉 이건 영국법상 Anthropic을 사실상 청구 관리 회사로 만들 수 있음
Financial Services and Markets Act 2000 (Regulated Activities) Order 2001의 article 89I에 따르면, 금융 서비스나 금융 상품 관련 청구에서 청구인 또는 잠재 청구인에게 조언하거나, 청구를 조사하거나, 청구인을 대리하는 행위는 정의된 규제 대상 활동임
https://www.fca.org.uk/freedom-information/dual-regulation-c... -
이제쯤 AI 회사들이 법률 분야는 함부로 건드릴 곳이 아니라는 걸 배웠을 법도 함. 기록만 봐도 충분함. 그런데 이 특정 AI 낙관론자들은 학습 능력이 없는 것 같음
- 이 분야에서 장난치는 일은 멈추지 않을 것 같음. 변호사는 비싸고, 그래서 AI로 대체할 때의 잠재 이득이 큼. 다만 AI 회사들이 변호사와 경쟁하면서 직접 법률 조언을 제공할 거라고 생각하는 사람들이 있는데, 그건 책임 지뢰밭이라 절대 그렇게 하지 않을 것 같음
대신 이들은 법무법인에 AI 서비스를 제공하고, 법무법인이 자신의 법률 서비스 제공 과정에서 이를 쓰게 하려 함. 좋든 나쁘든 이미 벌어지고 있고, 큰 기업 법무법인들은 거의 모두 어떤 방식으로든 AI를 쓰고 있음. 고객들도 요구함. 법률에서 AI 사용으로 인한 문제는 계속 나오겠지만, 그 책임은 변호사들에게 돌아갈 것임 - 책임을 억지로 떠안게 되지 않는다면, 여기서 얻는 홍보 효과만으로도 충분히 가치가 있음. 좋은 상황은 아님
- 이 분야에서 장난치는 일은 멈추지 않을 것 같음. 변호사는 비싸고, 그래서 AI로 대체할 때의 잠재 이득이 큼. 다만 AI 회사들이 변호사와 경쟁하면서 직접 법률 조언을 제공할 거라고 생각하는 사람들이 있는데, 그건 책임 지뢰밭이라 절대 그렇게 하지 않을 것 같음
-
GitHub 조직 이름이 “Anthropics”인 건 꽤 오해를 부를 만해 보임