# 우리는 분열되지 않을 것이다

> Clean Markdown view of GeekNews topic #27090. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27090](https://news.hada.io/topic?id=27090)
- GeekNews Markdown: [https://news.hada.io/topic/27090.md](https://news.hada.io/topic/27090.md)
- Type: GN+
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2026-03-01T07:42:56+09:00
- Updated: 2026-03-01T07:42:56+09:00
- Original source: [notdivided.org](https://notdivided.org)
- Points: 2
- Comments: 3

## Topic Body

- 미국 **국방부(DoW)** 가 Anthropic에 대해 **국방물자생산법(Defense Production Act)** 발동을 위협하며, 군사용 모델 제공과 군의 요구에 맞춘 조정을 강요하고 있음  
- Anthropic은 **국내 대규모 감시**나 **인간 통제 없는 자율 살상**에 자사 모델이 사용되는 것을 거부하고 있으며, 이에 대한 보복으로 국방부가 회사를 **공급망 위험(supply chain risk)** 으로 지정하려 함  
- 국방부는 Anthropic이 거부한 조건을 받아들이게 하기 위해 **Google과 OpenAI와도 협상 중**이며, 각 기업을 서로 경쟁시키려는 시도를 하고 있음  
- 이에 Google과 OpenAI의 **현직 직원 709명(구글 614명, 오픈AI 95명)** 이 연명 공개서한을 통해, 두 회사가 **연대하여 국방부의 요구를 거부할 것**을 촉구함  
- 이 서한은 **AI의 군사적 오용에 대한 내부 저항과 업계 연대의 상징적 행동**  
  
---  
  
### 공개서한의 주요 내용  
- 국방부가 Anthropic에 대해 **국방물자생산법 발동**과 **공급망 위험 지정**을 위협하고 있음  
  - 요구 내용은 Anthropic의 AI 모델을 군에 제공하고, 군의 필요에 맞게 조정하도록 강제하는 것  
  - Anthropic은 **국내 감시 및 자율 살상 무기 사용 금지**라는 내부 원칙을 고수하고 있음  
- 국방부는 Anthropic의 거부 이후 **Google과 OpenAI와 협상**을 진행 중  
  - 각 기업이 다른 기업보다 먼저 양보할 것이라는 **두려움을 조성**하려는 전략으로 묘사됨  
- 서한은 이러한 분열 시도를 막기 위한 **공동 입장 표명**의 의미를 가짐  
  - “이 전략은 우리가 서로의 입장을 모를 때만 통한다”는 문구로 **연대의 필요성**을 강조  
  
### 서명자와 참여 현황  
- Google 직원 **614명**, OpenAI 직원 **95명**이 서명  
  - 모두 **현직 직원**으로 검증됨  
  - 일부는 실명으로, 다수는 **익명(Anonymous)** 으로 참여  
- 서명은 **익명 또는 실명 선택 가능**, 모든 서명은 **고용 증명 절차를 통해 검증**됨  
  - 검증 방법: 회사 이메일 인증, Google Form 로그인, 또는 신분증 사진 제출 등  
  - 익명 서명자의 개인정보는 **검증 후 24시간 내 자동 삭제**됨  
  
### 서한의 의의  
- AI 기업 내부에서 **군사적 활용에 대한 윤리적 한계 설정**을 명확히 한 사례  
- Google과 OpenAI 직원들이 **기업 간 경쟁보다 공동 원칙을 우선시**하는 입장을 공개적으로 표명  
- **AI의 자율 살상 및 감시 기술 남용에 대한 업계 내부 견제**로서 중요한 의미를 가짐

## Comments



### Comment 52281

- Author: chcv0313
- Created: 2026-03-03T17:29:13+09:00
- Points: 1

미국 정보기관 쯤 되면 직접 개발할 법도 한데.... 오히러 학습할 자료 수집은 더 잘할테니까

### Comment 52117

- Author: kimjoin2
- Created: 2026-03-01T10:22:09+09:00
- Points: 1

Wow

### Comment 52111

- Author: neo
- Created: 2026-03-01T07:42:56+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=47188473) 
- 이번 사안은 미국 경제와 **법치주의** 전반에 훨씬 더 큰 영향을 미칠 것 같음  
  정부가 국가 안보 명목으로 만든 조달 규정을 이용해 Anthropic을 ‘충성 부족’으로 처벌할 수 있다면, 앞으로 Apple이나 Amazon 같은 다른 기업도 같은 위험에 놓일 수 있음  
  이는 미국의 중요한 **전환점**이 되는 순간임
  - 정부가 사실을 다시 쓰는 **무법적 카키스토크라시**로 변질되고 있음  
    Anthropic은 자사의 모델이 미 국방부의 ‘대규모 자동 살상’ 목적에 부합하지 않는다고 명확히 밝힌 점이 현명했다고 생각함  
    LLM으로 무기를 운영하는 건 역사적으로도 끔찍한 **과오**임
  - 이건 마치 1954년 오펜하이머의 **보안 심사 청문회**가 현대판으로 재현되는 느낌임
  - 이 행정부는 매번 “미국의 중요한 전환점”이라는 순간을 만들어내고 있음
  - 이제 누구를 **신뢰**해야 할지 모르겠음. 괜찮을 거라 믿은 시간이 너무 길었음
  - 사실 이런 일은 새삼스러운 게 아니라, 그냥 **평상시의 일상**처럼 느껴짐

- 만약 Anthropic이 무너진다면, 이는 미국에 대한 **신뢰의 관**에 또 하나의 못을 박는 일일 것임  
  구독 기업들은 대통령의 한마디 때문에 중요한 도구를 잃게 되고, 다른 미국 기업에 의존해도 괜찮은지 의심하게 될 것임
  - 이미 전 세계에서 미국 기업에 의존하는 건 **위험**하다고 느끼고 있음  
    요즘은 한 번의 Truth Social 게시글로 몇 년 걸릴 일이 하루 만에 일어남
  - 솔직히 Anthropic이 무너지는 걸 바라는 마음도 있지만, 그 여파가 너무 커서 결국 나 자신도 피해를 입게 됨
  - 어느 나라든 ‘국가 이익’을 이유로 **사유 재산을 몰수**할 수 있는 법이 있음  
    결국 누군가는 국방부의 요구를 들어줄 것이고, Anthropic이 버텨도 결과는 바뀌지 않을 것임  
    국방부가 그들을 ‘공급망 취약성’으로 지정한 건 실수였음. 그냥 DPA를 써서 시켰다면 훨씬 싸고 조용했을 것임
  - Anthropic은 결국 **미국을 떠날 것**임  
    과거 나치 독일에서 과학자들이 미국으로 도망쳐 맨해튼 프로젝트에 참여했던 것처럼, 이번엔 AI 인재들이 미국을 떠날 것임
  - “아니오”라고 말하는 건 신뢰를 무너뜨리는 게 아니라 **원칙을 지키는 행위**임

- 자국 내 **대규모 감시**는 자국민에게는 견딜 만할지 몰라도, 다른 나라가 같은 일을 한다면 미국인들은 어떻게 느낄까  
  이런 정책은 결국 전 세계가 서로를 감시하도록 허용하는 셈임
  - 미국인들은 자신들이 **예외적 존재**라고 믿기 때문에, 남들은 하면 안 되는 일을 자신들은 해도 된다고 생각함
  - 차라리 미국보다 중국이 나를 감시하는 게 낫다고 느껴짐. 미국 사법 시스템이 훨씬 더 무서울 수 있음
  - Anthropic의 성명서가 인상적이었음  
    미국 시민의 생명만 위협하지 않는다면 외국 감시나 자율 무기는 괜찮다는 듯한 뉘앙스였음  
    이게 일부 미국인의 생각인지, 아니면 극단적 애국자들에게 어필하려는 표현인지 궁금함
  - 나처럼 10년 넘게 **공개적으로 정부를 비판**해온 사람은 감시 AI가 나를 놓칠 리 없다고 느낌  
    요즘 정부의 행동을 보면, 이런 사람들을 어떻게 다룰지 걱정됨
  - 요즘 중요한 AI 논문을 보면 대부분 **비미국인 연구자** 이름임  
    미국은 너무 오래 강대국으로 군림하면서 ‘우리가 항상 옳다’는 **권력 중독**에 빠진 듯함

- 기업은 결국 개인으로 이루어져 있으니, 정부가 **정책을 강요**하면 혁신이 죽는다고 생각함  
  뛰어난 과학자와 엔지니어들을 억지로 굴복시키는 건 낭비임
  - 정부가 X를 원하고, 기업 A가 “그건 못 하겠다”고 하면 거래를 끊는 건 제도상 자연스러운 일임  
    다만 정부가 모든 거래를 중단하는 건 과도할 수 있음  
    예를 들어, 토마토 통조림 회사가 “테러와의 전쟁에 쓰지 말라”고 하면 정부가 그 회사를 피하는 건 합리적일 수 있음
  - 정부의 본질은 **강제력의 독점**임  
    권력을 잃어도 그 독점은 사라지지 않음. 특히 지도자가 사회의 영향력 있는 인물들을 **약점으로 통제**하고 있다면 더더욱임
  - “그럼 어디로 이민 가겠냐, 러시아? 중국? UAE?”라는 냉소도 들림

- Anthropic의 성명에서 언급된 “국내 대규모 감시와 자율 살상” 거부는 **함정**임  
  ‘국내’라는 단어가 무의미함.  
  [Eyes 협정](https://www.perplexity.ai/search/are-the-eyes-agreements-about-L9GAKvkdRWCEi4KWMi8Mgg)에 따르면, 각국은 서로의 시민 데이터를 공유함으로써 자국민 감시 금지를 우회함  
  결국 모든 국가는 서로를 감시하고, 법은 단지 **대중을 안심시키는 장식품**일 뿐임
  - 우리는 미국 시민이라 안전하다고 느끼지만, 인터넷 공간은 국경이 없음  
    **스파이 봇**은 시민권 개념이 없고, 모든 디지털 활동이 감시 대상임  
    Google이나 TikTok이 가능하다면, 정부나 ChatGPT 같은 **에이전트형 AI**도 당연히 가능함
  - Anthropic은 미국 군이 외국 기관이 수집한 데이터를 미국 시민에게 적용하지 못하도록 주장했을 것임
  - “희망”은 전략이 아님  
    지금 벌어지는 건 AI 문제가 아니라 **충성심 테스트**임  
    정부 자금과 충성의 교환, 그리고 모든 이에게 닥칠 선택의 순간임  
    결국 **공모자가 되는 것**이 충성의 증거가 되는 세상임  
    그러니 희망하지 말고, **요구하고 저항해야 함**
  - 사실 국내 감시에 LLM이 꼭 필요한지도 의문임  
    EmbeddingGemma나 Qwen3 같은 모델로도 충분히 **데이터 클러스터링**이 가능함
  - 그렇다면 왜 국방부가 굳이 LLM을 원할까? 그게 핵심 의문임

- 미국은 이미 **명령경제**처럼 움직이고 있음  
  코로나 때도 ‘민간기업’이라는 외피 아래 정부 지출로만 성장했음  
  국방부가 민간보다 나은 AI를 갖고 있지 않다면, 그건 **무능의 자백**임  
  이제는 군 조직을 개혁하고 무능한 리더십을 교체해야 함
  - 정부 지출이 없으면 성장률이 마이너스가 되겠지만, 그건 어느 나라나 마찬가지임  
    그리고 정부가 Anthropic보다 나은 **생성형 AI**를 갖고 있지 않다는 건 당연하다고 생각함
  - 머지않아 미국이 **OpenAI나 Nvidia를 구제금융** 명목으로 지원할 가능성이 큼  
    정권이 바뀌어도 국방비는 계속 늘고, 그 돈은 사람을 죽이는 걸 개의치 않는 기업으로 흘러감  
    **아이젠하워의 경고**가 현실이 된 셈임
  - 국방비가 세금 지출 1위는 아니라는 지적도 있음
  - 군이 쓸데없는 걸 산다는 건 새삼스러운 일도 아님
  - 사실 이런 **통제경제 구조**는 모든 나라에 존재함  
    다만 자본주의는 성과로 엘리트를 선발한다는 점이 달랐을 뿐, 그마저도 2011년 이후로는 흐려졌음

- 지금까지의 사건을 **타임라인**으로 정리함  
  - [전쟁부 장관의 발언에 대한 성명](https://news.ycombinator.com/item?id=47188697)  
  - [Anthropic을 공급망 위험으로 지정 지시](https://news.ycombinator.com/item?id=47186677)  
  - [트럼프, 정부 시스템에서 Anthropic 사용 금지](https://news.ycombinator.com/item?id=47186031)  
  - [Google 직원들, 군사용 AI에 ‘레드라인’ 요구](https://news.ycombinator.com/item?id=47175931)  
  - [Dario Amodei의 전쟁부와의 논의 성명](https://news.ycombinator.com/item?id=47173121)  
  - [펜타곤과 AI 기업의 갈등은 나쁜 신호](https://news.ycombinator.com/item?id=47168165)  
  - [감시 강요에 맞서는 기술 기업들](https://news.ycombinator.com/item?id=47160226)  
  - [펜타곤, Anthropic 위협](https://news.ycombinator.com/item?id=47154983)  
  - [미군 지도부, Anthropic과 Claude 안전장치 논의](https://news.ycombinator.com/item?id=47145551)  
  - [Hegseth, Anthropic에 금요일까지 후퇴 요구](https://news.ycombinator.com/item?id=47142587)
  - [Altman, OpenAI도 Anthropic의 레드라인에 동의](https://news.ycombinator.com/item?id=47187488)
  - [EFF의 ‘감시 강요 반대’ 글](https://news.ycombinator.com/item?id=47160226)
  - [OpenAI, 펜타곤과 협상 중이라는 보도](https://news.ycombinator.com/item?id=47188698)

- Anthropic을 **공급망 보안 위험**으로 지정하려는 논의와 함께, 회사를 **국가 안보 명목으로 접수**할 수도 있다는 위협이 있었음  
  결국 OpenAI도 비슷한 방식으로 **이익은 민영화, 손실은 사회화**될 것이라는 예측임
  - George Hotz가 Nvidia의 **국유화 가능성**을 우려해 tinygrad를 시작했다고 밝힌 적이 있음
  - 이런 흐름은 **국유화의 극단이 만나는 말굽 이론**처럼 보임. 웃기지만 씁쓸한 현실임

- 어떤 사이트가 OpenAI나 Google의 전·현직 직원 중 특정 정치 성향을 가진 사람들의 **신원 정보를 수집**하고 있음  
  회사 이메일, 사원증 사진 등으로 인증을 요구하고, 미국 기반 클라우드에 저장한다고 함  
  운영자는 익명이며, 이 데이터는 여러 세력이 다양한 목적으로 활용할 수 있을 것 같음

- “우리는 지도자들이 차이를 제쳐두고 함께 거부하길 **희망**한다”는 말은 좋지만, 그 희망이 무너질 경우를 생각해야 함
  - 인류는 언제나 **집단 분열** 속에서 문제로 돌진해왔음. 자연선택의 한 형태일 뿐임
  - 만약 Anthropic이 진짜로 원칙을 지킨다면, 회사를 **자진 해산**하는 선택도 가능할 것임  
    현실적으로는 어렵겠지만, 그런 결단이 있다면 존경할 것임
  - 요즘 **테크 리더십**은 신뢰하기 어려움
  - Google이 직원 시위를 다뤘던 방식이나 Amazon화된 문화를 보면, 이번에도 조용히 계약을 맺거나 내부 반발을 짓밟을 것 같음
  - Sam이나 Dario 같은 리더들에게 더 이상 **희망**을 걸 수 없을 것 같음
