파이어폭스 보안을 강화하기 위한 Anthropic–Mozilla 협력
(anthropic.com)- Claude Opus 4.6이 Mozilla와의 협업을 통해 파이어폭스에서 22건의 취약점을 발견, 이 중 14건이 고위험 등급으로 분류됨
- AI 모델이 복잡한 소프트웨어의 제로데이 취약점을 빠르게 탐지할 수 있음을 입증, 파이어폭스 148.0 버전에 수정사항 반영
- Claude는 JavaScript 엔진을 포함한 코드 영역에서 수천 개 파일을 분석하며 112건의 보고서를 제출, Mozilla는 이를 기반으로 수정 진행
- AI가 취약점을 탐지하는 능력은 뛰어나지만, 실제 익스플로잇(공격 코드) 작성 능력은 제한적임이 확인됨
- Anthropic은 AI 기반 보안 연구 협력 모델을 제시하며, 오픈소스 생태계와의 협력을 통해 방어자 중심의 보안 강화를 촉구함
Mozilla와의 협력 개요
- Claude Opus 4.6은 2주간의 분석을 통해 22개의 파이어폭스 취약점을 발견, Mozilla는 이 중 14건을 고위험으로 분류
- 이는 2025년 파이어폭스에서 수정된 고위험 취약점의 약 20%에 해당
- 수정 사항은 Firefox 148.0 버전에 포함되어 수억 명의 사용자에게 배포됨
- Mozilla는 Anthropic의 보고를 검증하며 버그 리포트 기준과 프로세스를 공유, 협력적 검증 체계를 구축
- 이 협력은 AI 기반 보안 연구자와 유지관리자 간 협업 모델의 사례로 제시됨
AI 모델을 활용한 취약점 탐지 과정
- Anthropic은 CyberGym 벤치마크를 넘어서는 현실적 테스트를 위해 Firefox CVE 데이터셋을 구축
- 파이어폭스는 복잡하고 보안성이 높은 오픈소스 프로젝트로, AI의 탐지 능력을 검증하기에 적합한 대상
- Claude는 과거 CVE를 재현한 뒤, 최신 버전의 새로운 취약점 탐지에 도전
- 첫 20분 만에 Use After Free 메모리 취약점을 발견, 독립 검증 후 Mozilla에 보고
- 이후 Claude는 6,000여 개 C++ 파일을 분석해 112건의 고유 보고서를 제출
- 대부분의 문제는 Firefox 148에서 수정되었으며, 일부는 향후 버전에서 해결 예정
취약점 익스플로잇 실험
- Claude의 보안 능력 상한선을 평가하기 위해, 발견된 취약점을 실제 공격 코드로 전환할 수 있는지 실험 수행
- 수백 회의 테스트와 약 4,000달러의 API 비용을 투입
- 결과적으로 2건만 실제 익스플로잇 성공, 탐지 능력 대비 공격 생성 능력은 낮음
- 성공한 익스플로잇은 테스트 환경에서만 작동, 실제 브라우저의 샌드박스 보안 기능이 제거된 상태
- Firefox의 다층 방어 체계가 이러한 공격을 완화할 수 있음
- Anthropic은 이 실험을 통해 AI가 공격 도구를 자동 생성할 가능성을 경고함
AI 기반 보안 연구의 모범 사례
- Anthropic은 패칭 에이전트(patching agent) 연구를 통해 LLM이 버그 수정과 검증을 수행할 수 있는 방법을 개발
- Task verifier라는 보조 도구를 사용해 AI의 결과를 실시간 검증
- 취약점 제거 여부와 프로그램 기능 유지 여부를 자동 테스트
- Mozilla가 신뢰한 보고서의 핵심 구성 요소는 다음 세 가지임
- 최소 재현 테스트 케이스
- 상세한 Proof-of-Concept
- 후보 패치 코드
- 연구자들에게 LLM 기반 취약점 보고 시 검증 가능성과 재현성 증거를 함께 제출할 것을 권장
향후 전망과 보안 강화 필요성
- Claude Opus 4.6은 파이어폭스 외에도 리눅스 커널 등 주요 프로젝트에서 취약점을 발견
- 현재 AI는 탐지·수정 능력이 익스플로잇 생성 능력보다 우세, 이는 방어자에게 유리한 상황
- 그러나 모델 발전 속도를 고려할 때, 공격 능력 격차가 빠르게 좁혀질 가능성이 있음
- Anthropic은 Claude Code Security를 통해 취약점 탐지 및 패칭 기능을 연구자와 유지관리자에게 제공 중
- 개발자들에게 보안 강화의 골든타임을 활용할 것을 촉구하며,
- 취약점 탐색 협력
- 버그 리포트 분류 도구 개발
- 자동 패치 제안 기능 확장을 계획 중임
Mozilla Foundation Security Advisory 2026-13
이야 엄청나네요
엄격한 테스트 케이스가 얼마나 중요한지 다시 한번 상기시켜주는 사례 같습니다.
Hacker News 의견들
-
오픈소스 프로젝트의 보안 유지를 맡고 있다면 Claude Code로 보안 감사를 요청해보길 권함
Firefox처럼 대규모 프로젝트에는 어려울 수 있지만, 대부분의 프로젝트는 토큰 비용이 약 3달러 수준임
공격자들이 이미 이런 감사를 수행했을 가능성이 높으므로, 스스로 하지 않는 건 더 이상 책임 있는 태도가 아님
Zulip 핵심 코드베이스를 감사할 때는 모델에게 각 결과를 자체 검토하게 요청했는데, 이 과정에서 대부분의 오탐(false positive) 이 제거되었음
이후 남은 문제들은 코드 주석을 추가해 보안 모델의 의도를 명확히 하여 재감사 시 거의 사라졌음- 이런 식의 AI 사용은 추천하지 않음
“일주일 걸릴 일을 몇 초 만에 해줘”라는 요청은 현실적으로 불가능함
결과는 그럴듯해 보이지만 실제와는 다를 수 있음
AI를 인턴처럼 다루면 실망하지 않음 — 거대한 프로그램 전체의 보안 감사를 인턴에게 맡기겠는가? - AI 보안 감사의 베스트 프랙티스를 정리한 긴 글이 있는지 궁금함
어떤 경우엔 매우 잘 작동하지만, 어떤 경우엔 완전히 쓸모없음
차이는 결국 컨텍스트 엔지니어링과 테스트 하니스의 품질에 달린 듯함
이번 사례도 흥미로웠지만 더 구체적인 설명이 있었으면 함
- 이런 식의 AI 사용은 추천하지 않음
-
나도 최근 프로젝트를 오픈소스로 공개했는데, Reddit 사용자가 Claude로 전체 보안 감사를 돌려 15개의 취약점을 찾아줬음
FTS 인젝션, LIKE 와일드카드 인젝션, API 인증 누락, 개인정보 보호 누락 등 내가 놓친 부분이 많았음
놀라웠던 건 결과가 매우 체계적이었다는 점임 — 심각도 분류, 파일 경로와 라인 번호 명시, 문서와 실제 코드 간 불일치 지적까지 포함됨
특히 “스펙과 현실의 차이” 분석이 가장 유용했음
LLM 보안 감사의 진짜 가치는 새로운 제로데이를 찾는 게 아니라, 사람이 귀찮아서 넘기는 반복적이고 세세한 점검을 대신해주는 데 있음 -
Firefox 같은 브라우저 취약점 문제의 복잡성을 이해하는 사람은 많지 않음
단순한 UAF를 wasm 쉘코드로 승격시키는 작업만 해도 며칠이 걸림
AI 사이버 역량 경쟁은 아직 잠잠하지만, 올해 안에는 달라질 것 같음
나도 Anthropic처럼 Claude에게 VM과 검증기를 주고 익스플로잇 생성을 요청해봤는데, kctf-eval 환경에서 꽤 잘 작동했음
다만 모델이 실제로 무엇을 “이해”하는지, 아니면 단순히 보상 신호에 맞춰 흉내내는 건지 여전히 불분명함 -
Mozilla가 보안 권고문을 업데이트한 게 흥미로움
한 릴리스에서 22개의 취약점을 발견한 주체가 누구인지 궁금했는데, 이제야 밝혀짐- “Use After Free”가 반복적으로 언급되는데, 이런 취약점이 실제로 어떤 영향을 줄 수 있는지 구체적인 설명이 부족함
단순히 파일을 떨어뜨리는 수준이라면 큰 위협은 아니지만, 세션 데이터 탈취 같은 건 훨씬 흥미로움 - 익숙한 이름들이 많이 보임
- “Use After Free”가 반복적으로 언급되는데, 이런 취약점이 실제로 어떤 영향을 줄 수 있는지 구체적인 설명이 부족함
-
버그의 구체적 내용이 언급되지 않은 점이 이상함
단순한 엣지 케이스인지, 실제로 의미 있는 문제인지 알고 싶음
LLM은 익숙한 실패 패턴을 잘 찾아내지만, 그게 항상 중요한 건 아님 -
AI 에이전트를 써본 결과는 복합적이었음
테스트 커버리지 확장, 퍼즈 테스트 설정, 정적 분석 도구 세팅 등에는 유용했음
하지만 보안 경계가 실제로 존재하지 않는데도 “매우 안전하다”고 단정하는 경우가 있었음
로컬 버그 탐지는 잘하지만, 여러 기능이 상호작용하며 생기는 복합 취약점은 거의 못 잡음
결국 모델의 안전성 주장은 항상 검증이 필요함- [Mozilla 직원] LLM이 틀릴 때가 많다는 점에는 동의함
이번 방식의 가치는 검증 가능한 테스트케이스를 제공한다는 데 있음
단순 분석 리포트보다 훨씬 효율적임
예전에는 “로컬 버그만 잘 잡는다”는 말이 맞았지만, 에이전틱 SDK 덕분에 상황이 달라졌음 - 커버리지 보완을 AI에게 맡기면 무의미한 테스트가 많이 생김
이미 높은 커버리지 상태라면 남은 부분은 본질적으로 어려운 영역임 - 전통적인 정적 분석도 패턴 매칭 기반이었지만, 최근의 AI 기반 정적 분석 도구는 훨씬 나은 결과를 냄
특히 비즈니스 로직 취약점까지 잡아내는 경우가 있었음 - 사실 이런 한계는 현실의 개발자들도 마찬가지임
로컬 버그는 눈에 잘 띄지만, 불완전한 보안 경계는 처음엔 충분해 보이기 마련임 - Anthropic의 레드팀 전용 Claude를 쓰는 사람과 일반 사용자는 접근 수준이 다름
- [Mozilla 직원] LLM이 틀릴 때가 많다는 점에는 동의함
-
Anthropic이 Firefox를 선택한 이유는 명확함
널리 배포된 오픈소스이면서 보안 검증이 활발한 프로젝트이기 때문임
Chromium은 Google의 Gemini를 쓰고, Safari는 폐쇄적인 개발 문화라 협업이 어려움- Firefox는 Chromium만큼 복잡하지만, 리소스는 훨씬 적은 프로젝트라 실험 대상으로 적합함
- Safari는 블랙박스 공격이 필요해서 이번과 같은 접근은 어려웠을 것임
-
Anthropic 기사에 따르면, Claude가 작성한 익스플로잇은 테스트 환경에서만 작동했음
실제 브라우저의 샌드박스 기능이 제거된 상태였기 때문임
따라서 Firefox의 다층 방어(defense in depth) 는 이런 공격을 완화했을 것임- [Anthropic 근무, 전 Mozilla] Firefox는 샌드박스 내부의 취약점도 독립적인 보안 이슈로 간주함
Chrome도 비슷한 정책을 따름
관련 문서는 Security Severity Ratings에서 확인 가능함 - 샌드박스가 있다고 해서 취약점을 무시하는 건 부적절함
샌드박스 탈출도 가능하므로, 모든 버그는 수정 대상임 - 샌드박스가 막고 있다 해도 취약점을 고치는 건 중요함
공격자는 이런 부분적 제로데이를 쌓아두었다가 조합해 사용할 수 있음
이번 수정은 그런 위험을 줄였다는 점에서 명백한 보안 개선 성과임
- [Anthropic 근무, 전 Mozilla] Firefox는 샌드박스 내부의 취약점도 독립적인 보안 이슈로 간주함
-
나도 AI 에이전트를 밤새 돌리며 테스트를 작성하게 하는데, Claude에게 형식 검증(formal verification) 을 시도하게 한 적이 있음
Anthropic도 비슷한 접근을 한 듯함
앞으로는 프로퍼티 테스트와 퍼즈 테스트를 자동화하는 프롬프트를 추가할 계획임- 가벼운 형식 검증을 적용한 실제 예시가 있는지 궁금함
내가 다루는 문제에는 그 정도의 무게가 필요하지 않다고 생각하지만, 혹시 잘못된 판단일 수도 있음
- 가벼운 형식 검증을 적용한 실제 예시가 있는지 궁금함
-
언젠가 Google의 OSS-Fuzz처럼 오픈소스 핵심 프로젝트를 위한 자동 보안 감사 시스템이 생길 것 같음
Anthropic은 이미 OSS 유지보수자에게 Claude 접근을 무료로 제공 중임
LLM 덕분에 버그 바운티 프로그램이 허위 리포트로 넘쳐나는 문제도 생겼지만, 최신 모델은 이제 실제 취약점을 구분할 수준에 도달함
무료 혹은 저가형 모델로 평가하면 품질이 낮게 느껴질 수밖에 없음
대신 고급형 LLM을 활용한 보안 감사 프로그램을 운영하면 품질을 보장할 수 있음
버그 바운티를 살리려면 참가비 부과나 LLM 기반 검증을 도입하는 방법도 있을 듯함- Google은 이미 Big Sleep이라는 AI 기반 보안 프로젝트를 운영 중이며, 여러 오픈소스 프로젝트에 취약점을 보고함
관련 링크 - 자동으로 버그 리포트를 검증하는 시스템이 있다면 좋겠음
예를 들어 VM을 띄워서 에이전트가 재현 테스트를 수행하는 식으로 말임 - Anthropic의 무료 제공은 6개월 단위 자동 갱신 형태로 운영되는 것으로 기억함
- Google은 이미 Big Sleep이라는 AI 기반 보안 프로젝트를 운영 중이며, 여러 오픈소스 프로젝트에 취약점을 보고함