2P by GN⁺ 9시간전 | ★ favorite | 댓글 1개
  • 미국 전쟁부가 Anthropic을 국가 안보에 대한 공급망 위험 요인으로 지정했으며, 회사는 이 조치가 법적으로 정당하지 않다고 보고 법적 대응을 준비 중임
  • 전쟁부의 서한은 Claude 모델의 사용 제한 범위가 매우 좁으며, 전쟁부 계약과 직접 관련된 고객의 사용에만 적용됨
  • 관련 법률(10 USC 3252)은 정부 보호 목적으로 존재하며, 전쟁부 장관은 가장 제한적인 수단만 사용해야 함
  • Anthropic은 전쟁부와 협력 지속 및 원활한 전환 방안을 논의 중이며, 자율무기와 대규모 국내 감시에 대한 예외 원칙을 유지함
  • 회사는 전쟁 중인 미군과 안보 전문가들이 필요한 도구를 잃지 않도록 지원을 계속하며, AI의 국가 안보 활용에 대한 공동 목표를 강조함

전쟁부의 공급망 위험 지정

  • 전쟁부는 Anthropic을 미국 국가 안보에 대한 공급망 위험으로 분류했다고 통보함
    • Anthropic은 이 조치가 법적으로 타당하지 않다고 판단하고 법원에 이의를 제기할 예정임
  • 전쟁부 서한의 표현에 따르면, 이 지정은 Claude 모델을 전쟁부 계약의 직접적 일부로 사용하는 고객에게만 적용됨
    • 전쟁부와 계약이 있더라도, 해당 계약과 무관한 Claude 사용이나 Anthropic과의 거래에는 제한이 없음

법적 근거와 적용 범위

  • 전쟁부의 조치는 10 USC 3252 조항에 근거하며, 이 법은 공급망 보호를 위한 최소한의 제한 수단 사용을 요구함
    • 법의 목적은 공급업체 처벌이 아닌 정부 보호에 있음
  • 따라서 지정의 범위는 매우 제한적이며, 전쟁부 계약자 외의 고객에게는 영향이 없음

전쟁부와의 협력 및 예외 원칙

  • Anthropic은 최근 며칠간 전쟁부와 협력 지속 방안 및 전환 절차를 논의함
    • 회사는 정보 분석, 모델링 및 시뮬레이션, 작전 계획, 사이버 작전 등 다양한 분야에서 전쟁부를 지원해 왔음
  • Anthropic은 자율무기 및 대규모 국내 감시에 대한 두 가지 예외 원칙을 유지함
    • 회사는 군사 작전 결정에 민간 기업이 관여해서는 안 된다는 입장을 명확히 함

내부 게시물 유출 사건

  • 전날 언론에 유출된 회사 내부 게시물에 대해 사과함
    • 해당 게시물은 대통령의 Truth Social 게시물, 전쟁부 장관의 X 게시물, OpenAI와 국방부의 계약 발표 직후 작성된 것임
    • Anthropic은 이 게시물을 유출하지 않았으며, 상황을 악화시킬 의도도 없었다고 밝힘
    • 게시물은 6일 전 작성된 것으로, 현재 상황을 반영하지 않는 구식 평가

향후 지원 및 공동 목표

  • Anthropic은 전쟁 중인 미군과 국가 안보 전문가들이 필요한 도구를 계속 사용할 수 있도록 지원할 계획임
    • 전쟁부와 안보 기관에 명목 비용으로 모델과 기술 지원을 지속 제공할 예정임
  • 회사는 전쟁부와 미국 안보 강화 및 AI의 정부 활용 확대라는 공통 목표를 공유함
    • 향후 모든 결정은 이 공유된 전제를 기반으로 이루어질 것임
Hacker News 의견들
  • 이 사안에서 오버턴 윈도우가 얼마나 멀리 이동했는지 놀라움
    2007년에 졸업했을 때는 기술 기업들이 자사 시스템이 전쟁에 사용되는 것을 거부하는 게 흔했고, 그런 기업에 취업하지 않겠다는 동기들도 도덕적 이유로 많았음
    그런데 지금 Anthropic은 도덕이 아닌 실용적 이유로 단 두 가지 예외를 두려 하고 있음. 그조차도 마치 전쟁을 지원하고 싶지만 어쩔 수 없다는 식의 언어로 포장함. 세상이 정말 많이 변했음

    • 1969년 독일 단편영화 Nicht löschbares Feuer (Inextinguishable Fire)를 떠올림
      나프람 반대 영화로, 노동자들이 자신이 만드는 제품이 실제로는 무기임을 모르는 상황을 풍자함
      “우리가 무엇을 생산하느냐는 노동자, 학생, 엔지니어에게 달려 있다”는 마지막 대사가 지금도 유효함
    • 영화 Real Genius에서도 학생들이 자신도 모르게 무기를 만들게 되는 설정이 있었음
      예전에는 이런 이야기가 윤리 교육의 일부였는데, 요즘은 그런 수업조차 사라진 듯함
    • Anthropic의 두 가지 예외 중 하나만이 도덕적 이유임
      자율살상무기 기술이 아직 충분히 발전하지 않았기 때문에 거부하는 것뿐, ‘아직은’이라는 단서가 붙어 있음
      OpenAI보다 낫다고는 하지만, 결국 ‘덜 나쁜 선택지’ 일 뿐임
    • MH17 사건으로 고등학생들이 겪은 슬픔을 본 이후, 전쟁 관련 연구개발에 대한 생각이 복잡해졌음
      방위 연구가 필요하다는 현실도 있지만, 자동화된 의사결정 시스템이 인간의 통제를 벗어나면 위험함
      법적으로 ‘human-in-the-loop’를 의무화해야 한다고 생각함
    • 전쟁에 대한 태도는 시대적 맥락에 따라 달라짐
      2007년의 ‘전쟁’은 이라크였고, 지금의 ‘전쟁’은 가자, 이란, 베네수엘라, 그리고 우크라이나나 대만 침공 가능성까지 포함됨
      Anthropic 내부에서도 이런 맥락을 염두에 두고 있을 것이라 생각함
  • 대학 시절 DARPA에서 일하고 싶다는 친구가 있었는데, 그에게 윤리적 관점을 물었더니 “그건 내 문제가 아니다”라고 답했음
    미국에서 공부하며 느낀 건, 산업계 경영진이나 대학 모두 비판적 사고와 윤리 교육에는 관심이 없고, 사람을 단순한 기술자 도구로 만드는 데 집중한다는 것임
    하버드의 VR 혁신 주간에서도 ‘윤리와 법’ 세션에는 창업자나 개발자는 거의 없었음. 사회적 영향에 대한 논의가 철저히 배제되어 있었음
    결국 돈을 향한 광기가 사회의 사고 능력을 무너뜨렸다고 느낌

    • AdTech 업계에서 일하며 느낀 건, 내가 만든 광고 코드가 선거 조작, 반백신, 사기 광고 등에 쓰일 수도 있다는 것임
      그 결과로 누군가가 죽는다면 나도 책임이 있다고 생각함
      하지만 현실적으로 생계를 위해 도덕적 선을 지키기 어렵다는 게 문제임. 결국 모두 같은 배를 탄 셈임
    • 이런 윤리적 무감각은 인문학의 몰락과 관련 있다고 봄
      조지 오웰의 글(링크)에서도 과학 교육만으로는 인간적인 시각을 보장할 수 없다고 했음
    • “창업자나 CEO가 윤리 토론에 참여할 자격이 없다”는 말은 자격주의적 오만으로 들림
    • “로켓이 어디에 떨어지든 그건 내 부서 일이 아니다”라는 폰 브라운의 말이 떠오름
    • 최근 몇 년간의 AI 광풍은 인간성에 대한 신뢰를 완전히 무너뜨림. 탐욕이 공기처럼 퍼져 있음
  • “Anthropic은 국방부와 차이점보다 공통점이 더 많다”는 문장을 보고 놀람

    • 원자폭탄 이후 ‘War Department’를 ‘Defense Department’로 바꾼 이유는 인류가 스스로의 창조물의 무게를 깨달았기 때문임
      그런데 지금 AI 정렬(alignment) 을 ‘전쟁부와의 정렬’과 같은 맥락에서 논하는 건 지적으로 부적절함
      올해 공격한 나라들 중 인류에 실존적 위협을 주는 곳은 없음. 오히려 이런 전쟁이 핵심적 위험을 키움
      왜 연구자들 중에 반대 목소리가 더 없는지 의문임
    • “우리는 순종적인 대중을 원한다”는 식으로 해석하면 문장이 더 명확해짐
    • 글 전체를 읽고 눈썹이 사라질 정도로 충격을 받음
    • 미국 밖에서 보면 이 모든 과정이 무섭게 느껴짐
      AI가 군사 목적으로 국유화될 가능성이 높고, Anthropic이 자사 기술을 원자폭탄보다 위험하다고 하면서도 Palantir와 군사 협력을 맺는 건 모순적임
    • 베네수엘라와 이란에서의 활동을 보면, ‘Defense’라는 단어가 그나마 가장 덜 오웰적인 표현일지도 모름
  • Anthropic의 “전투요원(warfighter)” 발언을 보고 의문이 듦
    정말 이 두 가지 예외만으로 윤리적 경계를 지킬 수 있는가?

    • ‘Warfighter’라는 단어 자체가 이상함. 예전엔 ‘servicemen’이라 불렀는데, 지금은 공격적 이미지를 강조하는 듯함
    • 완벽하지 않더라도 조금이라도 더 윤리적인 선택지로 돈을 옮기는 건 의미 있다고 생각함
    • 사실 이 이야기엔 ‘착한 편’이 없음. 두 회사 모두 이익 추구가 목적이고, PR로 이미지를 포장할 뿐임
      Anthropic은 이번 사태로 ‘좋은 쪽’처럼 보이면서도 전쟁 산업과 돈을 벌고 있음
    • 결국 마케팅 전략일 뿐이고, 효과는 있었다고 봄
    • 좋은 PR 플레이였음
  • “Warfighter”라는 단어만큼 오웰적인 미국 2026년의 현실을 보여주는 게 없음

    • 이 용어는 이미 20년 넘게 쓰이고 있음. 오히려 ‘국방부(DoD)’라는 뉴스피크식 명칭이 더 오웰적임
    • “도(道)가 행해지면 전쟁마가 밭을 갈고, 도가 행해지지 않으면 전쟁마가 국경에서 번식한다”는 도덕경 46장 구절이 떠오름
    • “우리는 이란과 전쟁 중이 아니다”라는 정치인의 말이 공허하게 들림
    • 트럼프가 새 인사를 ‘MAGA 전사’라 부른 것도 같은 맥락임
  • Mike Masnick의 Techdirt 글을 인용함
    과거 정부였다면 “AI가 인간 개입 없이 살상 결정을 내리지 않게 하고 싶다”는 입장은 평범한 협상 조건이었을 것임
    그런데 지금은 국방장관이 공개적으로 회사를 ‘배신자’로 비난하고, 대통령이 모든 정부 기관에 사용 중단을 지시하며, CEO가 ‘인질 편지’ 같은 사과문을 써야 하는 상황이 됨

  • 정부의 권력과 부패가 통제되지 않으면 기업은 결국 이런 거래를 하게 됨
    처음엔 돈과 애국심으로 시작하지만, 점점 돌이킬 수 없는 일에 연루되고, 빠져나오기도 어려워짐
    새 CEO가 와서 “전임자는 약했다, 나는 다를 것이다”라며 같은 악순환을 반복함

  • 전쟁 산업에 기술을 제공하려는 사람들에게 이렇게 말하고 싶음
    “모든 것은 빼앗길 수 있지만, 양심만은 스스로 포기하지 않는 한 잃지 않음”

    • 방위 산업이 일반 기술 업계보다 급여가 더 높지 않음
      그들은 단지 정부를 돕는다는 신념으로 일하는 경우가 많음
  • 이번 사건이 법정과 여론의 법정에서 어떻게 결론 날지 매우 흥미로움
    중요한 사례라고 생각하며, 올바른 결과가 나오길 바람

  • 전쟁부 차관 Emil Michael이 “Anthropic과의 협상은 없다”고 공식 발표