2P by GN⁺ 7일전 | ★ favorite | 댓글 1개
  • NIST가 2025년 9월 발표한 DeepSeek AI 모델 평가 보고서는 중립적 기술 평가가 아닌 정치적 목적의 문서로, 실제 보안 위협에 대한 증거 없이 중국산 오픈소스 AI를 억제하려는 의도를 담고 있음
  • 보고서는 DeepSeek 모델의 백도어, 스파이웨어, 데이터 유출 증거를 전혀 제시하지 못했으며, 단지 안전 튜닝이 덜 되어 탈옥이 쉽고 중국 정부 관점을 반영한다는 점만 지적
  • DeepSeek는 Apache 2.0 라이선스로 모델 가중치, 아키텍처, 훈련 방법론을 완전히 공개하여 오픈 AI 연구에 크게 기여했으나, 미국 정부는 이를 "적대적 AI"로 규정
  • NIST는 로컬 실행과 API 사용을 의도적으로 혼동하고, 다른 오픈소스 모델과의 비교나 미국 모델의 편향 테스트는 생략하는 등 편향된 방법론을 사용
  • 이 보고서는 오픈소스 AI의 경쟁력을 입증한 DeepSeek를 억제하여 미국 AI 기업들의 독점적 지위를 보호하려는 산업 정책의 일환으로, 과학적 중립성보다는 상업적·전략적 이익을 우선시함

NIST의 DeepSeek 평가 보고서의 본질

  • NIST의 2025년 9월 30일 DeepSeek 보고서는 중립적 기술 평가가 아닌 정치적 공격 문서
    • 백도어, 스파이웨어, 데이터 유출에 대한 증거가 전혀 없음
    • 미국 정부가 공포와 잘못된 정보를 이용해 오픈 사이언스, 오픈 리서치, 오픈소스를 방해하려는 시도
    • 기업 권력 보호와 통제 유지를 위해 인류에 대한 기여를 정치와 거짓으로 공격
  • 보고서 발표 후 온라인에서 패닉 발생
    • DeepSeek 가중치가 손상되었다는 주장
    • 중국이 모델을 통해 스파이 활동을 한다는 주장
    • 다운로드 자체가 보안 위험이라는 주장
    • 이 모든 주장은 거짓

DeepSeek의 실제 업적

  • 경쟁력 있는 AI 모델 개발
    • OpenAI나 Anthropic보다 훨씬 적은 예산으로 최전선 수준의 성능 달성
    • 완벽하지는 않지만 예산 대비 인상적인 성과
  • Apache 2.0 라이선스로 완전 공개
    • 모델 가중치
    • 아키텍처
    • 훈련 방법론
    • 연구 논문
  • 누구나 작업을 재현하고 최전선 규모 모델을 로컬에서 실행 가능하게 함
    • 처음부터 모든 것을 재창조할 수 있도록 지원
    • 최근 몇 년간 오픈 AI 연구에 대한 가장 큰 기여 중 하나
  • 미국 정부의 반응: "적대적 AI"로 낙인찍고 스파이 활동 암시

NIST의 핵심 기만 전략

  • 세 가지 시나리오의 의도적 혼동
    • 시나리오 A: DeepSeek 앱/API 사용 시 프롬프트가 중국 서버로 전송됨 (실제 데이터 주권 문제)
    • 시나리오 B: 오픈 가중치를 다운로드하여 로컬 실행 시 데이터가 기기 밖으로 전송되지 않음
    • 시나리오 C: OpenRouter, Fireworks, Chutes 같은 신뢰할 수 있는 제3자 서비스에서 호스팅 시 인프라와 프라이버시 통제는 호스팅 제공자에 따라 결정
  • NIST는 이 완전히 다른 상황들을 의도적으로 뭉뚱그림
    • 로컬 다운로드를 집계하면서 "국가 안보 위험" 경고
    • 기본적인 기술 지식이 있는 사람이라면 누구나 이것이 오도적임을 알 수 있음
  • 이러한 혼동이 보고서의 나머지 오도적 프레이밍의 토대가 됨

NIST가 실제로 발견한 내용

  • 선정적 언어를 제거하면 남는 것
    1. DeepSeek 모델이 미국의 안전 튜닝된 모델보다 탈옥이 쉬움
    2. 때때로 중국 정부 관점을 반영함
    3. 특정 벤치마크에서 약간 낮은 성능
    4. 토큰당 비용이 더 높다고 주장 (방법론 미제공)
  • 그게 전부
    • 악의적 행동의 증거 없음
    • 데이터 유출의 증거 없음
    • "우리가 좋아하지 않는 방식으로 프롬프트에 응답"하는 것 외에 모델이 악의적인 행위를 한다는 증거 없음
  • 탈옥 발견에 대한 분석
    • DeepSeek가 안전 훈련에 적게 투자했기 때문 (리소스 문제)
    • NIST는 비교를 위해 과거 미국 모델을 테스트하지 않음
    • 한편 OpenAI의 gpt-oss-120b는 탈옥이 매우 쉬움
  • "중국 공산당 서사" 발견에 대한 분석
    • 중국 데이터로 훈련된 모델이 중국 관점을 반영하는 것은 놀랍지 않음
    • 중국 검열법의 적용을 받음
    • 이것은 보안 취약점이 아님

NIST가 하지 않은 비교들

  • 다른 오픈 모델과 비교하지 않음
    • Llama, Mistral, Falcon은 어디에 있는가?
    • 비교했다면 이것이 DeepSeek 문제가 아니라 오픈 모델 일반이 독점 모델보다 안전 레이어가 적다는 것을 드러냈을 것
  • 초기 미국 모델과 비교하지 않음
    • 2020년 GPT-3의 탈옥 취약성은 어땠는가?
    • 이 비교는 서사를 약화시킬 것이므로 하지 않음
  • 미국 모델의 미국 편향 테스트 하지 않음
    • 중국 편향만 보안 위험으로 간주되는 듯
  • 비공개 벤치마크 사용
    • "CAISI가 구축한 비공개 벤치마크"로 재현이나 검증 불가능
    • 이것은 과학이 아니라 옹호 연구

보고서가 실제로 말해주는 것

  • 행간을 읽으면
    1. DeepSeek 모델이 덜 다듬어졌음 - 개발에 적게 투자했으므로 당연히 거친 부분이 있음
    2. 중국 모델이 충분히 경쟁력 있어서 우려됨 - 시장 점유율에 위협이 되지 않았다면 이 보고서는 존재하지 않았을 것
    3. 미국이 AI 지배력 상실을 두려워함 - 트럼프의 "AI 행동 계획" 하에 명시적으로 의뢰됨. 상무부 장관의 성명은 이것이 중립적 평가가 아닌 산업 정책임을 분명히 함

진짜 위협 (힌트: 당신에 대한 것이 아님)

  • DeepSeek가 실제로 위협한 것: 독점
    • DeepSeek의 진짜 범죄는 오픈소스가 작동한다는 것을 보여준 것
    • 수십억 달러의 벤처 캐피털이나 비공개 API 없이도 강력한 모델을 구축할 수 있다는 것을 증명
  • 이것이 프리미엄 가격으로 AI 접근을 판매하는 기업들을 공포에 떨게 함
    • DeepSeek가 "여기 가중치가 있습니다, 직접 실행하세요"라고 말했을 때, 그들은 이 기업들이 의존하는 경제적 해자를 공격한 것
  • 이것이 NIST 보고서가 존재하는 이유
    • DeepSeek가 개방성이 폐쇄 시스템과 경쟁할 수 있음을 증명했기 때문
    • 기득권층이 이를 차단해야 함

위선

  • NIST의 경고 vs 현실
    • NIST: DeepSeek 모델이 시뮬레이션 환경에서 악의적 프롬프트에 응답할 수 있다고 경고
    • 현실: 미국 모델은 실제로 외부 서버로 실제 데이터를 전송함
  • OpenAI의 사례
    • ChatGPT 대화를 훈련에 사용했던 것을 기억하는가?
    • 반발 후에야 옵트아웃을 추가해야 했음
  • 비교
    • DeepSeek 가중치 로컬 실행 = 데이터 전송 제로
    • OpenAI API 사용 = 서버로 지속적인 데이터 전송
    • 어느 것이 프라이버시 위험인가?
  • 보고서는 "외국 AI 채택"에 대해 경고하면서 모든 클라우드 API(미국이든 아니든)가 타인의 인프라를 신뢰해야 한다는 점은 무시
    • 로컬 오픈 가중치가 어떤 클라우드 서비스보다 더 감사 가능하고 더 안전함
  • 하지만 그것이 메시지가 아님. 이것은 결코 보안에 관한 것이 아니었기 때문. 서사 통제에 관한 것

오픈소스와 오픈 사이언스에 대한 배신

  • 오픈소스 커뮤니티가 현대 AI의 토대를 구축
    • Linux, Python, PyTorch, Transformers
    • 수십 년간의 협력적 개발, 자유롭게 공유됨
  • DeepSeek는 그 전통에 참여
    • 오픈 지식을 받아 인상적인 것을 구축하고 다시 돌려줌
  • 미국 기관의 반응: 위협이라고 부름
  • Meta가 Llama를 릴리스했을 때 중국이 이렇게 했다고 상상해보라
    • Llama 가중치가 "탈옥에 취약"하므로 감시 도구라고 주장하는 정부 보고서를 발표했다면
    • 우리는 그것을 보호주의라고 불렀을 것. 기술적 편집증. 오픈 연구에 대한 공격
  • 하지만 우리가 할 때는? "국가 안보"
  • 오픈 연구는 보편적이어야 함
    • 편리할 때만 오픈 사이언스를 옹호할 수는 없음

직접 실행해볼 수 있는 테스트

  • 나를 믿지 말고, NIST를 믿지 말고, 직접 확인하라
  • DeepSeek 가중치를 다운로드하라
    • huggingface transformers, vLLM, LM Studio, llama.cpp를 사용하여 로컬에서 실행
    • 네트워크 모니터링 도구를 열어라
  • 관찰하라
    • 정확히 제로 패킷이 어디로든 전송되지 않음
    • 프롬프트가 완전히 기기에서 처리됨
    • 끔찍한 "보안 위협"이 아무것과도 연결 없이 행렬 곱셈만 하고 있음
  • 자문하라: 왜 미국 정부는 이것에 대해 거짓말하는가?
  • "보안 위협"은 모델에 있지 않음. 정치에 있음

실제로 걱정해야 할 것

  • 정당한 우려사항들이 존재함
    • DeepSeek API 사용: 민감한 데이터를 DeepSeek의 호스팅 서비스로 보내면 중국 인프라를 통과함. 이것은 어떤 외국 클라우드 제공자를 사용하는 것과 동일한 실제 데이터 주권 문제
    • 탈옥 취약성: 프로덕션 애플리케이션을 구축하는 경우, 어떤 모델이든 취약점을 테스트하고 애플리케이션 수준의 안전장치를 구현해야 함. 모델 가드레일에만 의존하지 말 것. 또한 추론 시 가드 모델(LlamaGuard나 Qwen3Guard 같은)을 사용하여 프롬프트와 응답 모두를 분류하고 필터링하라
    • 편향과 검열: 모든 모델은 훈련 데이터를 반영함. 어떤 모델을 사용하든 이를 인식하라
  • 이것들은 엔지니어링 과제
    • 오픈소스(또는 중국) 모델을 완전히 피해야 할 이유가 아님

AI의 미래에 대한 의미

  • 이것은 단지 DeepSeek에 관한 것이 아님
    • AI가 개방적이고 감사 가능한 상태로 남을 것인가, 정부와 기업에 의해 울타리가 쳐질 것인가에 관한 것
  • 질문들
    • "오픈소스"를 "미국산일 경우에만 오픈"으로 재정의하도록 허용할 것인가?
    • 보안 주장에 대한 실제 증거를 요구할 것인가, 아니면 모호한 암시를 받아들일 것인가?
    • AI가 공유된 인류 프로젝트로 남을 것인가, 아니면 지정학적 무기가 될 것인가?
  • DeepSeek는 다른 길이 있음을 증명함. 그것이 불신당해야 했던 이유

필자의 견해

  • 필자의 배경
    • 오픈소스 모델을 로컬에서 실행
    • 자체 모델 훈련
    • 조합 가능한 정렬과 사용자 자유 믿음
    • AI는 기업이나 정부가 아닌 사용자를 위한 도구여야 한다고 생각
  • NIST 보고서에 대한 평가
    • 중립적 기술 평가가 아님
    • 미국의 상업적·전략적 이익 보호를 위해 중국 AI 모델 채택을 막기 위해 설계된 정책 문서
  • 미국 정부의 산업 촉진에 대한 입장
    • 미국 정부가 미국 산업을 촉진하는 것 자체에는 본질적으로 잘못된 것이 없음
    • 하지만 있는 그대로 불러야 함
    • 보호주의를 보안 연구로 포장하지 말 것
    • 위협을 조작하지 말 것
    • 증거가 보여주는 것에 대해 대중에게 거짓말하지 말 것
  • DeepSeek의 기여
    • 귀중하고 값진 선물을 우리에게 줌
    • 가중치는 단지 safetensor 데이터일 뿐
    • 드라이브에 앉아서 명령대로 작동함
    • 집으로 전화하지 않음. 스파이하지 않음. 데이터를 유출하지 않음
  • 결론
    • 걱정된다면 로컬 추론이 어떻게 작동하는지 이해하지 못하는 것
    • 공포 선동을 믿는다면 성공적으로 조종당한 것
    • 이 모든 것은 안전에 관한 것이 아님. 권력에 관한 것 - 미래를 형성하는 도구를 누가 구축하고, 공유하고, 이해하는가

결론

  • 코드와 연구는 오픈소스이며 감사 가능함. 나머지는 모두 정치
  • 독자에게 권고
    • NIST 보고서와 코드를 직접 읽어보라
    • 악의적 코드나 감시 기능의 실제 증거를 찾아보라
    • 찾을 수 없을 것. 왜냐하면 없기 때문
  • 그런 다음 질문하기 시작하라
    • 왜 오픈소스가 너무 잘 작동할 때 그것을 두려워하라고 하는가?
Hacker News 의견
  • 미국 기관들이 오래전부터 국경을 넘는 사안에 대해 정치적으로 활용되어 온 사실에 전혀 놀라지 않음, 나는 중국 전자제품에 대해서도 항상 회의적인 태도를 가져왔음, 이번 보고서가 허위 및 외국인 혐오적이라는 점에는 동의하지만, 만약 중국이 LLM에 충분한 통제권을 가지게 된다면 현재든 미래든 어떤 식으로든 교묘한 조작을 시도할 가능성에 대해서는 여전히 의심함, 이는 중국뿐 아니라 미국이나 어떤 강대국이든 충분한 권력이 있다면 똑같이 할 것임, 결국 우리는 지속적으로 모델을 의심하고, 벤치마킹하며, 모델이 제공자 아닌 우리의 필요에 부합하는지 꾸준히 감시하는 태도가 중요함
    • LLM을 통한 중국의 교묘한 조작 가능성에 대해 언급했는데, 구체적으로 어떤 방식일지 궁금함
    • 정부나 정치적 영향력이 당연히 어느 정도는 개입됨, 문제는 존재 여부가 아니라 영향력이 어디에 얼마나 작용하느냐임, 이 보고서를 ‘허위’거나 ‘편향됐다’고 단정하고 일축하는 태도는 의미 없음, 우리는 복잡한 세상에서 정보를 걸러내고 분석할 필요가 있음
    • 외국산에 대한 허위 정보 퍼뜨리기가 해답이 아니며, 오히려 사람들이 오픈소스 모델을 원한다는 것을 인식하고 자국산 최고 품질 모델을 공개해 그 모델이 널리 사용되도록 하는 것이 더 나음
    • 미국 민주주의에 대해 생각을 정리해보면, 미국 리더십은 언제든 원하는 대로 결정할 수 있는 최대한의 유연성을 추구함, 민주주의이다 보니 대중의 지지라는 환상을 유지해야 하고, 정부가 특정 시각을 심어 대중의 생각 일부를 장악함으로써 어떤 결정을 내리든 일정 지지를 확보할 수 있도록 환경을 만들어 둠, 만약 정책이 바뀌거나 새 지도자가 등장하면, 전임자의 잘못으로 몰고 ‘전에는 나빴지만 지금은 바뀌었다’는 식의 도덕적 새 출발이 가능함, 이는 권위주의 체제에서는 불가능한 점임, 예를 들어 푸틴이 전쟁의 손실을 인지해도 정치적 정당성을 잃지 않으려면 전쟁을 멈출 수 없음, 만약 러시아가 미국식 민주주의였다면, 새 지도자 선출, 철군, 푸틴에게 형식적 처벌 후 국제사회에서 책임 면제까지 빠르게 진행할 수 있었을 것임
    • 이 기관들이 국경 내에서도 정치적 도구로 활용됨
  • 모든 분들께 원문 보고서를 먼저 읽어보고, 그 후에 이번 분석을 읽고 직접 판단할 것을 추천함, 클릭 유도성 요약에 휘둘리지 않고 원문을 읽는 것이 중요함
    • 여기가 원문임: https://nist.gov/system/files/…
    • 많은 사람들이 원문을 읽지 않은 듯함, 보고서에서 ‘exfiltration(정보유출)’을 어떻게 다루는지만 봐도 에세이 내용과 NIST 원문 보고서가 다름을 알 수 있음, 클릭베이트 웹페이지가 70페이지짜리 기술 보고서보다 더 많은 주목을 받는 것은 요즘 사람들의 짧아진 주의집중 탓임
  • 유럽 대학에서 연구진과 스태프들을 위해 LLM을 호스팅하는 입장에서 개인적으로 크게 와닿는 사안임, 중국 모델 없이는 현재 우리가 하는 여러 작업이 불가능했을 것임, 내가 보기엔 EU든 어디든 중국 연구소들이 이렇게 관대한 라이선스 하에 모델을 공개해주는 점에 감사해야 함, 이들이 없었다면 선택지가 형편없었을 것임, 미국산 강력한 모델이 필요하다면 미화 수억에 달하는 NVIDIA 데이터센터 구축을 권유받고, EU 옵션조차 자체 하드웨어에 호스팅해도 라이선스 요금을 내야 하지만, 결국 전문지식도 보호됨, 이와 달리 DeepSeek는 '비밀 소스'를 공개해 우리처럼 vLLM 같은 오픈소스 프로젝트가 더욱 효율적으로 모델을 호스팅하도록 도운 바 있음
  • 실제로 보고서를 읽어보니, 본문의 설명과는 내용 일치하지 않음
    • 흥미로운 점은, 이 포스트의 댓글조차도 실제 본문 내용과 다르다는 것임, 작성자는 오픈소스에 대한 공격이라고 계속 몰아가지만, 댓글들은 오히려 중국 영향력에서 생길 수 있는 문제에 대해 제대로 언급하는 듯함
    • 이 블로그 글은 매우 오해의 소지가 있는 내용임, 본문의 첫 번째 단락들이 NIST 보고서에 ‘악성 코드, 백도어, 데이터 유출 흔적이 없었다’고 강조하지만, 이건 NIST가 실제 주장하지 않은 내용임, 블로그 포스트만 본다면 NIST가 근거 없이 백도어 존재를 주장한 것처럼 보임
    • 내 경우는 실제 보고서 내용과 잘 일치한다고 느꼈음
  • 중국 모델이 비방의 대상이 되더라도, 나는 성능 좋고 저렴한 모델을 써서 경쟁 우위 챙길 예정임
    • 비방이 결국 형사처벌 수순까지 이어지는 첫걸음임
    • NIST 기사(원문)에서 비방 표현은 전혀 찾을 수 없었음, 내가 생각하는 ‘비방’의 정의는 적국을 사탄화하는 선전임, 만약 다르다면 보고서에서 구체적으로 어디인지 지적해줬으면 함, https://www.thefreedictionary.com/demonization 참고
    • 폐쇄형 모델이 성능은 더 나쁜데 여러 배 비싼 가격에, 검열도 심한 것을 사람들이 옹호하는 현상은 비정상임, 중국 기업들은 서구 기업들처럼 벤치마크에 집착하지 않고, 실제 써보면 Kimi, GLM, Deepseek 같은 모델이 영문 벤치마크 점수는 낮아도 체감 품질은 훨씬 우수하다고 느낌, 특히 Kimi는 하드웨어 질문에 대해 Gemini, Claude에 비해 훨씬 더 자세하고 정확하게 답변함, 이는 중국어 데이터 학습을 더 잘 활용했기 때문이라 생각함
  • 작성자 Eric Hartford가 ‘선동적인 언어를 걷어내야 한다’고 했는데, 보고서를 보면 그런 언어가 보이지 않았음, 전반적으로 건조하고 지루할 수 있는 문체임
    • 오히려 블로그 포스트에 근거 없는 선동적 언어가 굉장히 많음
    • 실제로 이번 기사가 오히려 NIST나 미국을 겨냥한 ‘흑색선전’에 가깝다고 생각함, 선동적 언어도 기사에서 더 많이 보임
  • 좋은 통찰을 공유해줘서 고마움, 혹시 작성자가 만든 uncensored Dolphin 모델을 실제로 써본 사람 있다면 경험이 궁금함
    • 내 생각을 말하자면, 가장 좋은 방법은 직접 평가 프레임워크를 만들어 직접 써보는 것임, 두 번째 대안은 자신과 유사한 평가를 진행한 외부 사례를 찾아보는 것임, 그러나 자신의 기준을 정립하지 않은 채 남의 평가가 충분히 신뢰할 만한지 알 수 없음, 특히 ML이나 AI 분야에서 HN 상에서 이루어지는 논의의 품질을 낮게 평가함, 참가자들이 신속하고, 냉소적이며, 파벌화되어 있어 제대로 진실을 추구하지 않는 느낌임, 그럼에도 불구하고 이곳에 남아 토론에 기여하고 싶음, 항상 명확성, 논리, 깊이 있는 논의가 이뤄지길 바람, 때로는 https://xkcd.com/386/ 같은 느낌이 들기도 함
  • DeepSeek가 Nature 저널의 동료 평가 논문도 나온 만큼, 독립 연구자가 오픈 모델에서 지적한 일부 문제점을 기사에서도 인정함, 그런 점에서 이번 NIST 평가가 정치적 공격에 가깝다고 생각함, 미국 정보기관이 기술 이득이 생길 때마다 이를 사찰 목적으로 활용해왔던 CryptoAG 사건이나 화웨이 논란에서 실제로는 큰 악의적 증거가 나오지 않았던 것처럼, 이런 관행이 불안감의 근거가 됨, 결국 Kimi, Qwen 등 다양한 오픈모델이 존재해 비용과 성능이 평준화되어야 하며, 각국이 인공지능을 ‘지정학적 해자’로 삼으려는 경쟁이 사라지는 것이 분야 전체를 위해 긍정적임
  • 중국이 DeepSeek 이후 훨씬 더 우수한 오픈소스 모델을 공개한 시점에 이미 NIST 보고서는 한발 늦은 듯함
  • NIST가 왜 성능, 비용, 채택률을 평가하는지 의문임, 최근 출시된 미국산 모델(OpenAI GPT-5 시리즈, Anthropic Opus 4 등)과 예전 DeepSeek (R1, R1-0528, V3.1)만을 비교했는데, 현재 최신 DeepSeek 3.2는 매우 성능이 좋음, 자동차가 0-60마일을 3초에 달린다고 해서 정부의 평가가 중요한 게 아니라, 내가 실제 몰아보고 판단해야 함, DeepSeek의 ’최고 보안 모델’이 악성 요청에 대한 거부율 6%로 기술되어 있지만, 실상은 미국산 GPT 모델 역시 이제는 아무 제한 없이 악용 가능함, 이번 보고서는 NIST와 보안 험담이 아니라 미국의 선전용 자료에 불과하다고 생각함