1P by GN⁺ 1일전 | ★ favorite | 댓글 2개
  • 미국 국방부(DoW) 가 Anthropic에 대해 국방물자생산법(Defense Production Act) 발동을 위협하며, 군사용 모델 제공과 군의 요구에 맞춘 조정을 강요하고 있음
  • Anthropic은 국내 대규모 감시인간 통제 없는 자율 살상에 자사 모델이 사용되는 것을 거부하고 있으며, 이에 대한 보복으로 국방부가 회사를 공급망 위험(supply chain risk) 으로 지정하려 함
  • 국방부는 Anthropic이 거부한 조건을 받아들이게 하기 위해 Google과 OpenAI와도 협상 중이며, 각 기업을 서로 경쟁시키려는 시도를 하고 있음
  • 이에 Google과 OpenAI의 현직 직원 709명(구글 614명, 오픈AI 95명) 이 연명 공개서한을 통해, 두 회사가 연대하여 국방부의 요구를 거부할 것을 촉구함
  • 이 서한은 AI의 군사적 오용에 대한 내부 저항과 업계 연대의 상징적 행동

공개서한의 주요 내용

  • 국방부가 Anthropic에 대해 국방물자생산법 발동공급망 위험 지정을 위협하고 있음
    • 요구 내용은 Anthropic의 AI 모델을 군에 제공하고, 군의 필요에 맞게 조정하도록 강제하는 것
    • Anthropic은 국내 감시 및 자율 살상 무기 사용 금지라는 내부 원칙을 고수하고 있음
  • 국방부는 Anthropic의 거부 이후 Google과 OpenAI와 협상을 진행 중
    • 각 기업이 다른 기업보다 먼저 양보할 것이라는 두려움을 조성하려는 전략으로 묘사됨
  • 서한은 이러한 분열 시도를 막기 위한 공동 입장 표명의 의미를 가짐
    • “이 전략은 우리가 서로의 입장을 모를 때만 통한다”는 문구로 연대의 필요성을 강조

서명자와 참여 현황

  • Google 직원 614명, OpenAI 직원 95명이 서명
    • 모두 현직 직원으로 검증됨
    • 일부는 실명으로, 다수는 익명(Anonymous) 으로 참여
  • 서명은 익명 또는 실명 선택 가능, 모든 서명은 고용 증명 절차를 통해 검증
    • 검증 방법: 회사 이메일 인증, Google Form 로그인, 또는 신분증 사진 제출 등
    • 익명 서명자의 개인정보는 검증 후 24시간 내 자동 삭제

서한의 의의

  • AI 기업 내부에서 군사적 활용에 대한 윤리적 한계 설정을 명확히 한 사례
  • Google과 OpenAI 직원들이 기업 간 경쟁보다 공동 원칙을 우선시하는 입장을 공개적으로 표명
  • AI의 자율 살상 및 감시 기술 남용에 대한 업계 내부 견제로서 중요한 의미를 가짐
Hacker News 의견들
  • 이번 사안은 미국 경제와 법치주의 전반에 훨씬 더 큰 영향을 미칠 것 같음
    정부가 국가 안보 명목으로 만든 조달 규정을 이용해 Anthropic을 ‘충성 부족’으로 처벌할 수 있다면, 앞으로 Apple이나 Amazon 같은 다른 기업도 같은 위험에 놓일 수 있음
    이는 미국의 중요한 전환점이 되는 순간임

    • 정부가 사실을 다시 쓰는 무법적 카키스토크라시로 변질되고 있음
      Anthropic은 자사의 모델이 미 국방부의 ‘대규모 자동 살상’ 목적에 부합하지 않는다고 명확히 밝힌 점이 현명했다고 생각함
      LLM으로 무기를 운영하는 건 역사적으로도 끔찍한 과오
    • 이건 마치 1954년 오펜하이머의 보안 심사 청문회가 현대판으로 재현되는 느낌임
    • 이 행정부는 매번 “미국의 중요한 전환점”이라는 순간을 만들어내고 있음
    • 이제 누구를 신뢰해야 할지 모르겠음. 괜찮을 거라 믿은 시간이 너무 길었음
    • 사실 이런 일은 새삼스러운 게 아니라, 그냥 평상시의 일상처럼 느껴짐
  • 만약 Anthropic이 무너진다면, 이는 미국에 대한 신뢰의 관에 또 하나의 못을 박는 일일 것임
    구독 기업들은 대통령의 한마디 때문에 중요한 도구를 잃게 되고, 다른 미국 기업에 의존해도 괜찮은지 의심하게 될 것임

    • 이미 전 세계에서 미국 기업에 의존하는 건 위험하다고 느끼고 있음
      요즘은 한 번의 Truth Social 게시글로 몇 년 걸릴 일이 하루 만에 일어남
    • 솔직히 Anthropic이 무너지는 걸 바라는 마음도 있지만, 그 여파가 너무 커서 결국 나 자신도 피해를 입게 됨
    • 어느 나라든 ‘국가 이익’을 이유로 사유 재산을 몰수할 수 있는 법이 있음
      결국 누군가는 국방부의 요구를 들어줄 것이고, Anthropic이 버텨도 결과는 바뀌지 않을 것임
      국방부가 그들을 ‘공급망 취약성’으로 지정한 건 실수였음. 그냥 DPA를 써서 시켰다면 훨씬 싸고 조용했을 것임
    • Anthropic은 결국 미국을 떠날 것
      과거 나치 독일에서 과학자들이 미국으로 도망쳐 맨해튼 프로젝트에 참여했던 것처럼, 이번엔 AI 인재들이 미국을 떠날 것임
    • “아니오”라고 말하는 건 신뢰를 무너뜨리는 게 아니라 원칙을 지키는 행위
  • 자국 내 대규모 감시는 자국민에게는 견딜 만할지 몰라도, 다른 나라가 같은 일을 한다면 미국인들은 어떻게 느낄까
    이런 정책은 결국 전 세계가 서로를 감시하도록 허용하는 셈임

    • 미국인들은 자신들이 예외적 존재라고 믿기 때문에, 남들은 하면 안 되는 일을 자신들은 해도 된다고 생각함
    • 차라리 미국보다 중국이 나를 감시하는 게 낫다고 느껴짐. 미국 사법 시스템이 훨씬 더 무서울 수 있음
    • Anthropic의 성명서가 인상적이었음
      미국 시민의 생명만 위협하지 않는다면 외국 감시나 자율 무기는 괜찮다는 듯한 뉘앙스였음
      이게 일부 미국인의 생각인지, 아니면 극단적 애국자들에게 어필하려는 표현인지 궁금함
    • 나처럼 10년 넘게 공개적으로 정부를 비판해온 사람은 감시 AI가 나를 놓칠 리 없다고 느낌
      요즘 정부의 행동을 보면, 이런 사람들을 어떻게 다룰지 걱정됨
    • 요즘 중요한 AI 논문을 보면 대부분 비미국인 연구자 이름임
      미국은 너무 오래 강대국으로 군림하면서 ‘우리가 항상 옳다’는 권력 중독에 빠진 듯함
  • 기업은 결국 개인으로 이루어져 있으니, 정부가 정책을 강요하면 혁신이 죽는다고 생각함
    뛰어난 과학자와 엔지니어들을 억지로 굴복시키는 건 낭비임

    • 정부가 X를 원하고, 기업 A가 “그건 못 하겠다”고 하면 거래를 끊는 건 제도상 자연스러운 일임
      다만 정부가 모든 거래를 중단하는 건 과도할 수 있음
      예를 들어, 토마토 통조림 회사가 “테러와의 전쟁에 쓰지 말라”고 하면 정부가 그 회사를 피하는 건 합리적일 수 있음
    • 정부의 본질은 강제력의 독점
      권력을 잃어도 그 독점은 사라지지 않음. 특히 지도자가 사회의 영향력 있는 인물들을 약점으로 통제하고 있다면 더더욱임
    • “그럼 어디로 이민 가겠냐, 러시아? 중국? UAE?”라는 냉소도 들림
  • Anthropic의 성명에서 언급된 “국내 대규모 감시와 자율 살상” 거부는 함정
    ‘국내’라는 단어가 무의미함.
    Eyes 협정에 따르면, 각국은 서로의 시민 데이터를 공유함으로써 자국민 감시 금지를 우회함
    결국 모든 국가는 서로를 감시하고, 법은 단지 대중을 안심시키는 장식품일 뿐임

    • 우리는 미국 시민이라 안전하다고 느끼지만, 인터넷 공간은 국경이 없음
      스파이 봇은 시민권 개념이 없고, 모든 디지털 활동이 감시 대상임
      Google이나 TikTok이 가능하다면, 정부나 ChatGPT 같은 에이전트형 AI도 당연히 가능함
    • Anthropic은 미국 군이 외국 기관이 수집한 데이터를 미국 시민에게 적용하지 못하도록 주장했을 것임
    • “희망”은 전략이 아님
      지금 벌어지는 건 AI 문제가 아니라 충성심 테스트
      정부 자금과 충성의 교환, 그리고 모든 이에게 닥칠 선택의 순간임
      결국 공모자가 되는 것이 충성의 증거가 되는 세상임
      그러니 희망하지 말고, 요구하고 저항해야 함
    • 사실 국내 감시에 LLM이 꼭 필요한지도 의문임
      EmbeddingGemma나 Qwen3 같은 모델로도 충분히 데이터 클러스터링이 가능함
    • 그렇다면 왜 국방부가 굳이 LLM을 원할까? 그게 핵심 의문임
  • 미국은 이미 명령경제처럼 움직이고 있음
    코로나 때도 ‘민간기업’이라는 외피 아래 정부 지출로만 성장했음
    국방부가 민간보다 나은 AI를 갖고 있지 않다면, 그건 무능의 자백
    이제는 군 조직을 개혁하고 무능한 리더십을 교체해야 함

    • 정부 지출이 없으면 성장률이 마이너스가 되겠지만, 그건 어느 나라나 마찬가지임
      그리고 정부가 Anthropic보다 나은 생성형 AI를 갖고 있지 않다는 건 당연하다고 생각함
    • 머지않아 미국이 OpenAI나 Nvidia를 구제금융 명목으로 지원할 가능성이 큼
      정권이 바뀌어도 국방비는 계속 늘고, 그 돈은 사람을 죽이는 걸 개의치 않는 기업으로 흘러감
      아이젠하워의 경고가 현실이 된 셈임
    • 국방비가 세금 지출 1위는 아니라는 지적도 있음
    • 군이 쓸데없는 걸 산다는 건 새삼스러운 일도 아님
    • 사실 이런 통제경제 구조는 모든 나라에 존재함
      다만 자본주의는 성과로 엘리트를 선발한다는 점이 달랐을 뿐, 그마저도 2011년 이후로는 흐려졌음
  • 지금까지의 사건을 타임라인으로 정리함

  • Anthropic을 공급망 보안 위험으로 지정하려는 논의와 함께, 회사를 국가 안보 명목으로 접수할 수도 있다는 위협이 있었음
    결국 OpenAI도 비슷한 방식으로 이익은 민영화, 손실은 사회화될 것이라는 예측임

    • George Hotz가 Nvidia의 국유화 가능성을 우려해 tinygrad를 시작했다고 밝힌 적이 있음
    • 이런 흐름은 국유화의 극단이 만나는 말굽 이론처럼 보임. 웃기지만 씁쓸한 현실임
  • 어떤 사이트가 OpenAI나 Google의 전·현직 직원 중 특정 정치 성향을 가진 사람들의 신원 정보를 수집하고 있음
    회사 이메일, 사원증 사진 등으로 인증을 요구하고, 미국 기반 클라우드에 저장한다고 함
    운영자는 익명이며, 이 데이터는 여러 세력이 다양한 목적으로 활용할 수 있을 것 같음

  • “우리는 지도자들이 차이를 제쳐두고 함께 거부하길 희망한다”는 말은 좋지만, 그 희망이 무너질 경우를 생각해야 함

    • 인류는 언제나 집단 분열 속에서 문제로 돌진해왔음. 자연선택의 한 형태일 뿐임
    • 만약 Anthropic이 진짜로 원칙을 지킨다면, 회사를 자진 해산하는 선택도 가능할 것임
      현실적으로는 어렵겠지만, 그런 결단이 있다면 존경할 것임
    • 요즘 테크 리더십은 신뢰하기 어려움
    • Google이 직원 시위를 다뤘던 방식이나 Amazon화된 문화를 보면, 이번에도 조용히 계약을 맺거나 내부 반발을 짓밟을 것 같음
    • Sam이나 Dario 같은 리더들에게 더 이상 희망을 걸 수 없을 것 같음