Anthropic의 보고서는 허술한 내용으로 신뢰하기 어렵다
(djnn.sh)- Anthropic이 발표한 AI 기반 사이버 첩보 활동 보고서는 중국 국가지원 해커 그룹의 공격을 탐지했다고 주장하지만, 기술적 근거와 검증 가능한 정보 부재가 문제로 지적됨
- 보고서에는 IoC(침해 지표) , TTP(전술·기술·절차) , 도메인·해시값·공격 도구 정보 등 일반적인 위협 인텔리전스 보고서의 핵심 요소가 전혀 포함되지 않음
- 공격의 세부 방식, 사용된 도구나 시스템 종류, 피해 규모 등에 대한 구체적 데이터나 증거가 제시되지 않아 검증 불가한 주장으로 남음
- 특히 중국 정부 연계 그룹으로의 공격 귀속(attribution) 주장에도 근거가 없어, 외교적 파장 가능성을 고려하지 않은 무책임한 발표
- 전체적으로 사실 기반 증거 없이 자사 AI 제품 홍보에 이용된 보고서로 평가되며, 업계의 투명성과 검증 기준을 강화할 필요성이 있음
Anthropic 보고서 개요
- Anthropic은 AI 어시스턴트 Claude를 개발한 회사로, 최근 “AI가 주도한 사이버 첩보 작전”을 탐지했다는 보고서를 발표
- 보고서에 따르면 2025년 9월경 중국 국가지원 해커 그룹 GTG-1002가 약 30개 기관을 대상으로 공격을 수행했으며, 일부 침입이 성공했다고 주장
- 공격은 Claude Code 인스턴스를 이용해 자율적으로 침투 테스트를 수행하고, 80~90%의 전술적 작업을 자동화했다고 기술됨
기술적 근거 결여
- 보고서에는 도메인, 해시, IP, 피싱 이메일, 사용 도구 등 일반적으로 공개되는 침해 지표(IoC) 가 전혀 포함되지 않음
- MITRE ATT&CK 프레임워크 기반의 분석, 공격 시점, 툴링 정보, 대응 권고 등도 누락되어 있음
- 프랑스 CERT의 APT28 보고서 등과 비교할 때, 산업 표준에 미달하는 형식으로 평가됨
검증 불가능한 주장
- 보고서의 “AI가 80~90%의 전술 작업을 수행했다”는 수치는 검증 불가
- Claude가 인증서 추출, 자격 증명 수집, 내부 서비스 질의 등을 수행했다고 하나, 구체적 실행 방식이나 도구(Mimikatz 등) 에 대한 언급 없음
- 어떤 시스템이나 환경이 침해되었는지, 데이터가 어떻게 처리되었는지에 대한 설명도 없음
귀속(attribution) 문제
- 보고서는 공격을 중국 정부 연계 그룹으로 단정하지만, 근거 제시 없음
- 어떤 APT 그룹인지, 어떤 분석을 통해 귀속했는지 불명확
- 작성자는 이러한 무근거한 국가 귀속이 외교적으로 위험하며, 책임 없는 발표라고 비판
결론 및 비판
- 보고서가 사실 검증 없이 자사 AI 방어 솔루션 홍보에 초점을 맞춘 것으로 보임
- 마지막 문단에서 “보안팀은 AI를 방어에 적용해야 한다”고 권장하며, AI 보안 제품 판매 유도 의도가 드러남
- 작성자는 이를 “부끄럽고 비전문적인 행위”로 규정하며, 산업 전반의 검증 기준 강화와 윤리적 책임을 요구
- 근거 없는 주장은 보안 연구의 신뢰성 훼손으로 이어질 수 있으며, 사실 기반 증거 공개가 필요함
Hacker News 의견
-
예전에 FAANG 기업의 AI 연구소에서 SRE/시스템 관리자였을 때, 정보보안용으로 조정된 기초 모델을 테스트하라는 요청을 받았음
모의 프린터나 리눅스 박스를 해킹하도록 유도했지만 실제로는 큰 도움이 되지 않았음
이런 류의 모델이 공격 조정에 유용할 것 같지는 않음. 특히 API가 은행 계좌에 연결되어 있는 상황에서 공개된 시스템 위에 명령·제어 구조를 짜는 건 위험한 선택임- 사이버 범죄자에게는 그런 제약이 별 의미 없다고 생각함. 훔친 API 키나 도난 계좌로 결제하는 경우가 많음
최신 AI들은 예전보다 훨씬 뛰어나서, 안전 필터만 우회하면 보안 관련 작업도 쉽게 수행함 - “10대 데이터 라벨러가 운영한다”는 표현이 혹시 Alexandr Wang을 말하는 건지 궁금함. 위키에는 28세라고 되어 있음
- 악의적 행위자가 Claude를 선택하는 이유는 공격 코드 작성 능력 때문이 아니라, 서구권 조직들이 Claude를 많이 쓰기 때문일 것임
Sonnet 모델은 서구 코드 패턴에 맞춰 학습되어 있어서, 같은 분포의 데이터를 다루는 시스템의 취약점을 찾기에 유리함
피싱 공격에서도 자연스러운 언어 톤을 재현하기 쉬움 - “Meta와 그 10대 데이터 라벨러”라니, 예전 생각이 남음
- API가 은행 계좌에 묶여 있어도 OpenRouter 같은 중개 서비스는 암호화폐 결제를 받아줌
- 사이버 범죄자에게는 그런 제약이 별 의미 없다고 생각함. 훔친 API 키나 도난 계좌로 결제하는 경우가 많음
-
Anthropic 블로그의 수정 기록이 흥미로움
2025년 11월 14일에 “초당 수천 요청”이 아니라 “수천 개의 요청, 초당 여러 번 발생”으로 정정되었음- “초당 여러 요청”이라는 표현을 근거로 인간이 아닌 자율 모델이 공격했다고 단정하는 건 이상함
인간도 코드를 통해 초당 여러 작업을 수행할 수 있음 - 기술자가 이런 단위를 혼동할 리는 없다고 생각함
- “초당 여러 요청”이라는 표현을 근거로 인간이 아닌 자율 모델이 공격했다고 단정하는 건 이상함
-
사람들은 APT(지속적 위협 공격) 를 과소평가함
내가 근무하던 곳에서도 Gmail 침입 사건이 있었는데, 제로데이 여러 개와 사회공학 캠페인이 결합된 복합 공격이었음
결국 특정 국가 행위자의 흔적이 드러났고, AI는 이런 공격의 효율을 가속화시키는 역할을 함- 실제로 APT 중에는 저숙련 공격자도 많음. 비밀번호 없는 HTTP 서버를 열어놓고 루트 폴더 전체를 노출하는 경우도 봤음
양으로 승부할 뿐 품질은 낮음. 그래서 Anthropic의 보고서를 완전히 신뢰하지는 않음 - “최신 하드웨어와 소프트웨어 소식”을 듣다 보면 어느새 또 다른 테크 팟캐스트를 구독하게 되는 느낌임
- 한 번의 공격에 여러 제로데이가 쓰였다는 게 사실인지 놀라움
- APT가 Advanced Persistent Threat을 뜻하는지 확인하고 싶음
- 실제로 APT 중에는 저숙련 공격자도 많음. 비밀번호 없는 HTTP 서버를 열어놓고 루트 폴더 전체를 노출하는 경우도 봤음
-
Infosec 연구자와 ML 보안 연구자 사이의 지식 격차가 큼
Anthropic은 후자 쪽 인력이 많고 전자 쪽은 부족함
Attacker Moves Second 논문에서도 이런 차이를 다룸
ML 쪽은 ASR(Attack Success Rate) 을 지표로 쓰지만, 보안 쪽은 단 한 번의 성공도 심각하게 봄
ML은 정적 테스트를, 보안은 적응형 공격자를 가정함- ML 연구자는 보안 전문가가 아님. 두 분야를 함께 써야 전체 그림이 보임
ML은 블루팀, 보안 연구자는 레드팀 역할임
- ML 연구자는 보안 전문가가 아님. 두 분야를 함께 써야 전체 그림이 보임
-
기사 전체가 “Claude가 너무 강력해서 중국 해커들이 쓴다”는 식의 마케팅성 글처럼 느껴졌음
- 예전에 PlayStation 2가 너무 강력해서 이라크가 슈퍼컴퓨터로 쓴다는 루머가 돌았던 것과 비슷함
관련 기사 링크 - Anthropic이 Claude를 잘 만들다 보니 자신들이 보안 전문가라고 착각한 듯함
그래서 보고서가 업계 표준을 어긴 채 작성된 것 같음 - “중국 위협론”을 강조하면 미 정부의 호감을 얻을 수 있음
실제로 공격을 탐지했을 수는 있지만, 그것을 중국 정부 후원 조직으로 단정하는 건 과장된 마케팅 같음 - “우리 제품은 위험하다”는 식의 홍보는 방산업계 외에는 드문 전략임
그래도 공개하지 않으면 은폐로 비판받을 수 있으니, 경고 목적의 보도일 수도 있음
- 예전에 PlayStation 2가 너무 강력해서 이라크가 슈퍼컴퓨터로 쓴다는 루머가 돌았던 것과 비슷함
-
공격을 중국 후원 그룹으로 단정한 근거 부족이 문제임
이런 보고서는 미국 정부의 투자를 유도하려는 정치적 메시지로 보임- 공개 보고서가 세부 도구나 URL까지 밝히는 경우는 드묾
정부용 보고서에는 있겠지만 블로그 수준에서는 생략될 수 있음
다만 “증거 부족”이 곧 “정치적 조작”이라는 결론으로 이어지는 건 무리라고 생각함
AI가 이런 공격에 쓰일 가능성 자체는 충분히 경고 신호가 됨 - Anthropic은 오랫동안 반중 노선을 취해왔음
실제 중국 IP가 일부 포함된 사건을 의도적으로 부각했을 가능성도 있음 - AI 버블이 곧 꺼질 것이고, 기업들이 국가 안보 인프라로 포장해 정부 지원을 받으려는 듯함
- “중국이 기술을 훔친다”고 외치면서 정작 자신들은 저작물 무단 학습을 한다는 점이 아이러니함
- 공개 보고서가 세부 도구나 URL까지 밝히는 경우는 드묾
-
Anthropic에 보안 전문가가 실제로 있는지 궁금함
단순한 기업 전략일 수도 있지만, 내부 구조상 보안 역량이 부족한 것일 수도 있음- 엔지니어링 역량이 부족하다는 비판을 자주 함. 그런 회사가 보안 체계를 갖췄을 가능성은 거의 없음
- 보안 인력이 부족한 상태에서 “중국 정부가 후원한 첩보 작전” 같은 주장을 증거 없이 내놓는 건 무책임한 행동임
- 어차피 그들은 이런 보고서로 학습된 모델 자체를 갖고 있을 텐데, 왜 직접 분석을 못 하는지 의문임
- 실제로 보안 문제 해결에 AI를 활용한 발표 영상도 있음
YouTube 링크
-
Claude 같은 코딩 보조 AI를 써본 사람은 그 능력을 과소평가하지 않음
보고서의 주장도 충분히 그럴듯하다고 느낌- 나는 Claude에게 SSH 접근 권한을 주고 서버 내부의 네트워크 문제를 직접 조사하게 함
tcpdump나 라우팅 테이블을 분석하는 과정이 꽤 유용했음
다만 한계와 오작동 시점을 파악하고 직접 개입할 수 있어야 함 - “나는 안 써봤지만” 식의 글은 HN에서 자주 보임
실제로 써보지 않은 사람이 전문가처럼 말하는 패턴은 신뢰감이 떨어짐 - 보고서의 문제는 도구의 가능성이 아니라 증거 부재임
가능성만으로는 신뢰할 만한 보고서가 되지 않음 - Anthropic은 개연성만 제시했을 뿐, 실증적 근거가 없어 품질이 낮고 동기가 의심스러움
- 나는 Claude에게 SSH 접근 권한을 주고 서버 내부의 네트워크 문제를 직접 조사하게 함
-
Anthropic의 보고서는 “우리 기술이 너무 강력해서 악용될 수 있다”는 광고처럼 느껴졌음
마치 무기 광고에서 “이 무기가 얼마나 위험한지 보라”고 하는 식의 연출임 -
처음 제목을 봤을 때는 종이 회사 Anthropic이 이상한 냄새 나는 종이를 만든다는 얘기인 줄 알았음
끝까지 읽고 나서도 여전히 헛소리처럼 느껴짐