- NIST가 2025년 9월 발표한 DeepSeek AI 모델 평가 보고서는 중립적 기술 평가가 아닌 정치적 목적의 문서로, 실제 보안 위협에 대한 증거 없이 중국산 오픈소스 AI를 억제하려는 의도를 담고 있음
- 보고서는 DeepSeek 모델의 백도어, 스파이웨어, 데이터 유출 증거를 전혀 제시하지 못했으며, 단지 안전 튜닝이 덜 되어 탈옥이 쉽고 중국 정부 관점을 반영한다는 점만 지적
- DeepSeek는 Apache 2.0 라이선스로 모델 가중치, 아키텍처, 훈련 방법론을 완전히 공개하여 오픈 AI 연구에 크게 기여했으나, 미국 정부는 이를 "적대적 AI"로 규정
- NIST는 로컬 실행과 API 사용을 의도적으로 혼동하고, 다른 오픈소스 모델과의 비교나 미국 모델의 편향 테스트는 생략하는 등 편향된 방법론을 사용
- 이 보고서는 오픈소스 AI의 경쟁력을 입증한 DeepSeek를 억제하여 미국 AI 기업들의 독점적 지위를 보호하려는 산업 정책의 일환으로, 과학적 중립성보다는 상업적·전략적 이익을 우선시함
NIST의 DeepSeek 평가 보고서의 본질
- NIST의 2025년 9월 30일 DeepSeek 보고서는 중립적 기술 평가가 아닌 정치적 공격 문서
- 백도어, 스파이웨어, 데이터 유출에 대한 증거가 전혀 없음
- 미국 정부가 공포와 잘못된 정보를 이용해 오픈 사이언스, 오픈 리서치, 오픈소스를 방해하려는 시도
- 기업 권력 보호와 통제 유지를 위해 인류에 대한 기여를 정치와 거짓으로 공격
- 보고서 발표 후 온라인에서 패닉 발생
- DeepSeek 가중치가 손상되었다는 주장
- 중국이 모델을 통해 스파이 활동을 한다는 주장
- 다운로드 자체가 보안 위험이라는 주장
-
이 모든 주장은 거짓
DeepSeek의 실제 업적
-
경쟁력 있는 AI 모델 개발
- OpenAI나 Anthropic보다 훨씬 적은 예산으로 최전선 수준의 성능 달성
- 완벽하지는 않지만 예산 대비 인상적인 성과
-
Apache 2.0 라이선스로 완전 공개
- 누구나 작업을 재현하고 최전선 규모 모델을 로컬에서 실행 가능하게 함
- 처음부터 모든 것을 재창조할 수 있도록 지원
-
최근 몇 년간 오픈 AI 연구에 대한 가장 큰 기여 중 하나
- 미국 정부의 반응: "적대적 AI"로 낙인찍고 스파이 활동 암시
NIST의 핵심 기만 전략
-
세 가지 시나리오의 의도적 혼동
-
시나리오 A: DeepSeek 앱/API 사용 시 프롬프트가 중국 서버로 전송됨 (실제 데이터 주권 문제)
-
시나리오 B: 오픈 가중치를 다운로드하여 로컬 실행 시 데이터가 기기 밖으로 전송되지 않음
-
시나리오 C: OpenRouter, Fireworks, Chutes 같은 신뢰할 수 있는 제3자 서비스에서 호스팅 시 인프라와 프라이버시 통제는 호스팅 제공자에 따라 결정
- NIST는 이 완전히 다른 상황들을 의도적으로 뭉뚱그림
- 로컬 다운로드를 집계하면서 "국가 안보 위험" 경고
- 기본적인 기술 지식이 있는 사람이라면 누구나 이것이 오도적임을 알 수 있음
- 이러한 혼동이 보고서의 나머지 오도적 프레이밍의 토대가 됨
NIST가 실제로 발견한 내용
-
선정적 언어를 제거하면 남는 것
- DeepSeek 모델이 미국의 안전 튜닝된 모델보다 탈옥이 쉬움
- 때때로 중국 정부 관점을 반영함
- 특정 벤치마크에서 약간 낮은 성능
- 토큰당 비용이 더 높다고 주장 (방법론 미제공)
-
그게 전부
- 악의적 행동의 증거 없음
- 데이터 유출의 증거 없음
- "우리가 좋아하지 않는 방식으로 프롬프트에 응답"하는 것 외에 모델이 악의적인 행위를 한다는 증거 없음
-
탈옥 발견에 대한 분석
- DeepSeek가 안전 훈련에 적게 투자했기 때문 (리소스 문제)
- NIST는 비교를 위해 과거 미국 모델을 테스트하지 않음
- 한편 OpenAI의 gpt-oss-120b는 탈옥이 매우 쉬움
-
"중국 공산당 서사" 발견에 대한 분석
- 중국 데이터로 훈련된 모델이 중국 관점을 반영하는 것은 놀랍지 않음
- 중국 검열법의 적용을 받음
- 이것은 보안 취약점이 아님
NIST가 하지 않은 비교들
-
다른 오픈 모델과 비교하지 않음
- Llama, Mistral, Falcon은 어디에 있는가?
- 비교했다면 이것이 DeepSeek 문제가 아니라 오픈 모델 일반이 독점 모델보다 안전 레이어가 적다는 것을 드러냈을 것
-
초기 미국 모델과 비교하지 않음
- 2020년 GPT-3의 탈옥 취약성은 어땠는가?
- 이 비교는 서사를 약화시킬 것이므로 하지 않음
-
미국 모델의 미국 편향 테스트 하지 않음
-
비공개 벤치마크 사용
- "CAISI가 구축한 비공개 벤치마크"로 재현이나 검증 불가능
- 이것은 과학이 아니라 옹호 연구
보고서가 실제로 말해주는 것
-
행간을 읽으면
-
DeepSeek 모델이 덜 다듬어졌음 - 개발에 적게 투자했으므로 당연히 거친 부분이 있음
-
중국 모델이 충분히 경쟁력 있어서 우려됨 - 시장 점유율에 위협이 되지 않았다면 이 보고서는 존재하지 않았을 것
-
미국이 AI 지배력 상실을 두려워함 - 트럼프의 "AI 행동 계획" 하에 명시적으로 의뢰됨. 상무부 장관의 성명은 이것이 중립적 평가가 아닌 산업 정책임을 분명히 함
진짜 위협 (힌트: 당신에 대한 것이 아님)
-
DeepSeek가 실제로 위협한 것: 독점
- DeepSeek의 진짜 범죄는 오픈소스가 작동한다는 것을 보여준 것
- 수십억 달러의 벤처 캐피털이나 비공개 API 없이도 강력한 모델을 구축할 수 있다는 것을 증명
-
이것이 프리미엄 가격으로 AI 접근을 판매하는 기업들을 공포에 떨게 함
- DeepSeek가 "여기 가중치가 있습니다, 직접 실행하세요"라고 말했을 때, 그들은 이 기업들이 의존하는 경제적 해자를 공격한 것
-
이것이 NIST 보고서가 존재하는 이유
- DeepSeek가 개방성이 폐쇄 시스템과 경쟁할 수 있음을 증명했기 때문
- 기득권층이 이를 차단해야 함
위선
-
NIST의 경고 vs 현실
- NIST: DeepSeek 모델이 시뮬레이션 환경에서 악의적 프롬프트에 응답할 수 있다고 경고
- 현실: 미국 모델은 실제로 외부 서버로 실제 데이터를 전송함
-
OpenAI의 사례
- ChatGPT 대화를 훈련에 사용했던 것을 기억하는가?
- 반발 후에야 옵트아웃을 추가해야 했음
-
비교
- DeepSeek 가중치 로컬 실행 = 데이터 전송 제로
- OpenAI API 사용 = 서버로 지속적인 데이터 전송
-
어느 것이 프라이버시 위험인가?
- 보고서는 "외국 AI 채택"에 대해 경고하면서 모든 클라우드 API(미국이든 아니든)가 타인의 인프라를 신뢰해야 한다는 점은 무시
- 로컬 오픈 가중치가 어떤 클라우드 서비스보다 더 감사 가능하고 더 안전함
- 하지만 그것이 메시지가 아님. 이것은 결코 보안에 관한 것이 아니었기 때문. 서사 통제에 관한 것
오픈소스와 오픈 사이언스에 대한 배신
-
오픈소스 커뮤니티가 현대 AI의 토대를 구축
- Linux, Python, PyTorch, Transformers
- 수십 년간의 협력적 개발, 자유롭게 공유됨
-
DeepSeek는 그 전통에 참여
- 오픈 지식을 받아 인상적인 것을 구축하고 다시 돌려줌
-
미국 기관의 반응: 위협이라고 부름
-
Meta가 Llama를 릴리스했을 때 중국이 이렇게 했다고 상상해보라
- Llama 가중치가 "탈옥에 취약"하므로 감시 도구라고 주장하는 정부 보고서를 발표했다면
- 우리는 그것을 보호주의라고 불렀을 것. 기술적 편집증. 오픈 연구에 대한 공격
-
하지만 우리가 할 때는? "국가 안보"
-
오픈 연구는 보편적이어야 함
- 편리할 때만 오픈 사이언스를 옹호할 수는 없음
직접 실행해볼 수 있는 테스트
-
나를 믿지 말고, NIST를 믿지 말고, 직접 확인하라
-
DeepSeek 가중치를 다운로드하라
- huggingface transformers, vLLM, LM Studio, llama.cpp를 사용하여 로컬에서 실행
- 네트워크 모니터링 도구를 열어라
-
관찰하라
- 정확히 제로 패킷이 어디로든 전송되지 않음
- 프롬프트가 완전히 기기에서 처리됨
- 끔찍한 "보안 위협"이 아무것과도 연결 없이 행렬 곱셈만 하고 있음
-
자문하라: 왜 미국 정부는 이것에 대해 거짓말하는가?
-
"보안 위협"은 모델에 있지 않음. 정치에 있음
실제로 걱정해야 할 것
-
정당한 우려사항들이 존재함
-
DeepSeek API 사용: 민감한 데이터를 DeepSeek의 호스팅 서비스로 보내면 중국 인프라를 통과함. 이것은 어떤 외국 클라우드 제공자를 사용하는 것과 동일한 실제 데이터 주권 문제
-
탈옥 취약성: 프로덕션 애플리케이션을 구축하는 경우, 어떤 모델이든 취약점을 테스트하고 애플리케이션 수준의 안전장치를 구현해야 함. 모델 가드레일에만 의존하지 말 것. 또한 추론 시 가드 모델(LlamaGuard나 Qwen3Guard 같은)을 사용하여 프롬프트와 응답 모두를 분류하고 필터링하라
-
편향과 검열: 모든 모델은 훈련 데이터를 반영함. 어떤 모델을 사용하든 이를 인식하라
-
이것들은 엔지니어링 과제
- 오픈소스(또는 중국) 모델을 완전히 피해야 할 이유가 아님
AI의 미래에 대한 의미
-
이것은 단지 DeepSeek에 관한 것이 아님
- AI가 개방적이고 감사 가능한 상태로 남을 것인가, 정부와 기업에 의해 울타리가 쳐질 것인가에 관한 것
-
질문들
- "오픈소스"를 "미국산일 경우에만 오픈"으로 재정의하도록 허용할 것인가?
- 보안 주장에 대한 실제 증거를 요구할 것인가, 아니면 모호한 암시를 받아들일 것인가?
- AI가 공유된 인류 프로젝트로 남을 것인가, 아니면 지정학적 무기가 될 것인가?
-
DeepSeek는 다른 길이 있음을 증명함. 그것이 불신당해야 했던 이유
필자의 견해
-
필자의 배경
- 오픈소스 모델을 로컬에서 실행
- 자체 모델 훈련
- 조합 가능한 정렬과 사용자 자유 믿음
- AI는 기업이나 정부가 아닌 사용자를 위한 도구여야 한다고 생각
-
NIST 보고서에 대한 평가
- 중립적 기술 평가가 아님
- 미국의 상업적·전략적 이익 보호를 위해 중국 AI 모델 채택을 막기 위해 설계된 정책 문서
-
미국 정부의 산업 촉진에 대한 입장
- 미국 정부가 미국 산업을 촉진하는 것 자체에는 본질적으로 잘못된 것이 없음
-
하지만 있는 그대로 불러야 함
- 보호주의를 보안 연구로 포장하지 말 것
- 위협을 조작하지 말 것
- 증거가 보여주는 것에 대해 대중에게 거짓말하지 말 것
-
DeepSeek의 기여
- 귀중하고 값진 선물을 우리에게 줌
- 가중치는 단지 safetensor 데이터일 뿐
- 드라이브에 앉아서 명령대로 작동함
- 집으로 전화하지 않음. 스파이하지 않음. 데이터를 유출하지 않음
-
결론
- 걱정된다면 로컬 추론이 어떻게 작동하는지 이해하지 못하는 것
- 공포 선동을 믿는다면 성공적으로 조종당한 것
-
이 모든 것은 안전에 관한 것이 아님. 권력에 관한 것 - 미래를 형성하는 도구를 누가 구축하고, 공유하고, 이해하는가
결론
-
코드와 연구는 오픈소스이며 감사 가능함. 나머지는 모두 정치
-
독자에게 권고
- NIST 보고서와 코드를 직접 읽어보라
- 악의적 코드나 감시 기능의 실제 증거를 찾아보라
- 찾을 수 없을 것. 왜냐하면 없기 때문
-
그런 다음 질문하기 시작하라
- 왜 오픈소스가 너무 잘 작동할 때 그것을 두려워하라고 하는가?