미 국방부와의 논의에 대한 Dario Amodei의 성명
(anthropic.com)- 대규모 국내 감시와 완전 자율 무기 2가지 분야는 계약에서 제외함
- Anthropic은 미국과 민주주의 국가의 방어를 위한 AI 활용을 핵심 사명으로 삼고 있으며, 이를 위해 국방부 및 정보기관과 협력 중임
- Claude 모델은 기밀 네트워크, 국립 연구소, 국가안보 기관 등에서 정보 분석, 작전 계획, 사이버 작전 등 임무 수행에 사용되고 있음
- 회사는 중국 공산당 관련 기업과의 거래 중단, AI 악용 사이버공격 차단, 반도체 수출 통제 강화 지지 등으로 미국의 AI 우위를 보호함
- 다만 대규모 국내 감시와 완전 자율 무기 두 가지 분야는 민주적 가치와 기술 신뢰성 문제로 사용할수 없다고 명시적으로 제외함
- Anthropic은 국방부의 압박에도 불구하고 이 두 가지 안전장치 유지 입장을 고수하며, 협력 지속을 희망함
Anthropic의 국방 협력 및 AI 배치
- Anthropic은 미국 정부의 기밀 네트워크에 AI 모델을 최초로 배치한 선도 기업임
- 국립 연구소 및 국가안보 고객을 위한 맞춤형 모델도 최초로 제공
- Claude 모델은 국방부와 여러 안보 기관에서 정보 분석, 모델링 및 시뮬레이션, 작전 계획, 사이버 작전 등에 활용됨
- 회사는 미국의 AI 기술 우위 유지를 위해 단기적 이익을 포기한 사례를 제시함
- 중국 공산당 관련 기업과의 거래를 중단해 수억 달러의 매출을 포기
- Claude를 악용한 중국발 사이버공격 차단
- 반도체 수출 통제 강화를 지지해 민주주의 진영의 기술적 우위 확보
민주적 가치와 기술 신뢰성에 따른 두 가지 예외
- Anthropic은 AI가 민주적 가치를 훼손할 수 있는 두 가지 사용 사례를 명시적으로 제외함
-
대규모 국내 감시: 합법적 해외 정보활동은 지지하지만, 국내 대중 감시는 민주주의 원칙에 반함
- AI 기반 감시는 개인의 이동, 웹 이용, 사회적 관계 데이터를 자동으로 결합해 대규모 개인 프로파일링을 가능하게 함
- 현재 법률이 기술 발전 속도를 따라가지 못해, 일부 감시 행위가 합법으로 남아 있음
-
완전 자율 무기: 인간 개입 없이 목표를 식별·공격하는 무기는 현 기술로는 신뢰성 부족
- Anthropic은 이러한 무기를 위한 제품을 제공하지 않음
- 국방부와 신뢰성 향상 연구 협력 제안을 했으나 수용되지 않음
- 적절한 감독과 안전장치 부재로 인해 현재는 배치 불가하다고 명시
-
대규모 국내 감시: 합법적 해외 정보활동은 지지하지만, 국내 대중 감시는 민주주의 원칙에 반함
국방부의 요구와 Anthropic의 대응
- 국방부는 AI 기업에 대해 “모든 합법적 사용에 동의”하고 위 두 안전장치를 제거할 것을 요구함
- 이를 거부할 경우 Anthropic을 공급망 위험(supply chain risk) 으로 지정하거나 국방물자생산법(Defense Production Act) 을 발동해 강제할 수 있다고 경고
- 두 조치는 상충된 성격을 가지며, 하나는 보안 위협으로, 다른 하나는 국가안보 필수 기술로 간주함
- Anthropic은 이러한 압박에도 불구하고 양심상 요구를 수용할 수 없다고 명확히 선언
- 국방부가 다른 계약자를 선택할 권한은 인정하지만, 두 안전장치를 유지한 상태로 협력 지속을 희망
- 만약 계약이 종료되더라도 원활한 전환 지원을 약속하며, 군 작전이나 계획에 차질이 없도록 협조할 예정
향후 입장
- Anthropic은 미국의 국가안보 지원 의지를 재확인함
- 회사는 국방부와의 협력 지속을 원하지만, 민주적 가치와 기술 안전성 원칙을 양보하지 않겠다는 입장을 유지함
Hacker News 의견들
-
글에서 가장 강한 부분은 정부가 Anthropic의 보안 조치 제거를 강요하며, 동시에 그들을 ‘공급망 위험’으로 지정하겠다고 위협한 대목임
한편으로는 국가 안보에 필수적이라 하면서, 다른 한편으로는 위험 요소라 부르는 모순된 태도임
Anthropic이 “그렇다면 정부가 우리 서비스를 쓰지 않아도 된다”고 대응한 점이 인상적임. 이는 메시지 전략이지만, 공을 행정부 쪽으로 넘긴 셈임 -
예전에 Anthropic에서 일했는데, 이번 RSP 업데이트 관련해 내가 쓴 댓글이 있음
Anthropic 리더들이 가치관을 지키기 위해 자리나 기회를 잃을 각오를 하는 모습이 감동적임
Dario, Jared, Sam 같은 인물들은 자신들의 신념에 반하는 일이라면 불이익을 감수할 정도로 진심임
물론 완벽한 회사는 아니지만, 중요한 결정을 내리는 사람들은 대부분 선의와 가치 중심의 동기로 움직이고 있음 -
글을 읽다 “현재의 AI는 완전 자율 무기를 구동할 만큼 신뢰할 수 없다”는 문장에 멈칫했음
즉, 충분히 신뢰할 수 있게 되면 자율 무기가 가능하다는 여지를 남긴 것처럼 들림
또 ‘국내 대규모 감시’만 비판하고, ‘부분적 자율 감시’나 ‘해외 감시’는 부정하지 않은 점이 아쉬움
‘Anthropic’이라는 이름이 인류 전체를 위한다는 뜻이라 생각했는데, 결국 ‘우리 사람 vs 너희 사람’ 구도로 보임- “Anthropic이 인간을 위한다”는 말이 꼭 진심일까 생각하게 됨
마치 OpenAI가 ‘열린’, 북한이 ‘인민공화국’ 이라 부르는 것처럼 이름과 실제는 다를 수 있음
관련해서 People’s Republic of Tyranny라는 풍자 페이지가 떠오름 - 표현은 적절했다고 봄. Dario가 미래에 대해 단정적으로 말할 위치는 아님
- 언젠가 시스템이 충분히 신뢰 가능해지면 완전 자율 무기가 전장에 등장할 것이라 생각함
Anthropic이 말하는 건 단지 “지금은 그럴 수 없다”는 것임. 나중엔 제약이 완화될 가능성이 큼 - “훈련 데이터가 충분해지면 가능하다”기보다는 신뢰성 기준이 충족되면 가능하다는 의미로 읽힘
하드웨어나 일반 소프트웨어도 신뢰성 한계가 있으니, 그 자체로 비합리적이진 않음 - 그런데 흥미로운 건, 자율 무기는 아직 신뢰할 수 없다고 하면서 화이트칼라 일자리 대체에는 충분히 신뢰할 수 있다고 하는 점이 모순적으로 느껴짐
- “Anthropic이 인간을 위한다”는 말이 꼭 진심일까 생각하게 됨
-
조직의 진짜 성격은 가치와 이익이 충돌할 때 드러남
Anthropic이 원칙을 지키려는 모습은 감동적임. 대부분의 회사는 이런 선택을 못 했을 것임- 하지만 이런 결정은 결국 돈이 드는 일임
도덕적 이유로 나쁜 시스템에 의존하는 건 장기적으로 실패할 수밖에 없음
나쁜 행동에 대한 강력한 억제 장치가 필요하지만, 이미 늦은 감이 있음
- 하지만 이런 결정은 결국 돈이 드는 일임
-
이 글을 읽고 정말 우울했음. 미국이 어디로 가고 있는지 모르겠음
다음 선거에서 이성적인 리더십이 나오길 바람- 하지만 이건 한 번의 선거로 해결될 일이 아님. 세대 단위의 노력이 필요함
- 희망만으로는 부족함. 구체적 계획이 없으면 미래도 없음
- 이런 흐름은 새삼스러운 게 아님. 9·11 이후 경찰의 군사화, 민주주의 공격, 일방적 외교 정책이 이어져 왔음
- AI의 무분별한 확산이 사회 구조를 더 악화시킬까 걱정임. 소셜미디어 시대보다 더 혼란스러운 시기가 올 수도 있음
- 민주당이 주요 이슈보다 주변 의제에만 집중하는 한, 다음 선거에서 승리하기 어려움
샌프란시스코에 사는데, 교사들은 GoFundMe로 학용품을 사야 하는데 시는 RV 철거에 3,600만 달러를 쓰고 있음
관련 기사를 보면 현실이 얼마나 왜곡됐는지 알 수 있음
-
모든 문제의 근원은 의회가 권한을 행정부에 넘긴 것임
군은 법으로 통제되어야 하며, 시민 행동만이 이를 바꿀 수 있음
기업이 군의 행동을 좌우하는 건 말도 안 되는 일임. 기술은 언제든 징발될 수 있고, 기업이 막을 수 없음
CEO들이 이런 일로 영웅시되는 건 현실 인식이 얼마나 왜곡됐는지를 보여줌- 전시 동원 체제라면 몰라도, 평시 민주국가에서 이런 강제 조치는 용납될 수 없음
-
Anthropic이 “인류를 위한 AI”를 표방하면서도 펜타곤에 우선 접근권을 판매했다는 소식에 처음엔 실망했음
다만, 누군가는 군산복합체와 협력할 수밖에 없다면 가장 도덕적 기준이 높은 곳이 맡는 게 낫다는 논리도 이해는 됨- AI는 본래 군사·감시용으로 최적화된 기술임. 대량 데이터를 분석해 유용한 정보를 추출하니까
결국 기업은 이윤을 위해 존재함 - 기업은 생존을 위해 수익이 필요함. 사용자가 충분히 지불하지 않으면 다른 수익원을 찾아야 함
투자자와 주주가 있는 이상, 도덕보다 생존이 우선될 수밖에 없음
진정한 독립은 오직 이익에 의존하지 않는 구조에서만 가능함
- AI는 본래 군사·감시용으로 최적화된 기술임. 대량 데이터를 분석해 유용한 정보를 추출하니까
-
나는 Claude Max 구독자인데, 이번 일로 Anthropic이 권력에 굴하지 않은 모습이 자랑스러움
다른 기업들도 용기를 얻길 바람- 하지만 이미 어느 정도는 권력에 굴복한 상태임. 다만 최소한의 자존심은 남아 있음
-
‘Department of War’라는 표현이 그대로 쓰인 건, 단지 의회가 이름을 바꾸지 않았기 때문임. 그 외엔 괜찮은 표현임
- 이름 문제로 논쟁할 필요는 없음. 실제로 권력을 쥔 사람들 스스로 그렇게 부르고 있음
- 오히려 원래 이름인 ‘Department of War’가 기능을 명확히 드러내서 좋다고 생각함
우리는 모든 걸 완곡하게 표현하다 보니 현실을 제대로 보지 못하게 됨 - 나도 그 이름이 더 솔직하다고 봄. 실제로 하는 일을 잘 드러내고, 사람들이 그 의미를 곱씹게 함
- 이 표현은 Hegseth가 고집하는 용어라서 그대로 쓴 듯함. ‘DoD’라 썼다면 오히려 더 자극적이었을 것임
- 그래도 이런 명칭 선택이 글의 분위기를 결정하는 데는 의미가 있음
-
Dario와 Anthropic이 도덕적 입장을 취한 점은 높이 평가함. 요즘 기술 업계에서 보기 드문 일임
- LLM 낙관론자나 비관론자가 아니더라도, 감시와 자율 무기의 위험성은 명확함
Dario가 Sam Altman이나 Sundar Pichai처럼 행동하지 않은 건 대단한 일임 - 하지만 어떤 이들은 이걸 단순한 쇼로 봄. 이미 괴물을 만든 창조자들이 뒤늦게 꾸미는 제스처일 뿐이라 함
- 또 다른 시각에서는, 성명서 첫 문장부터 “AI로 미국과 민주주의를 방어하겠다”고 밝히는 걸 보고 역겹다고 느꼈음
실제로 Anthropic은 이미 국방·정보기관용 모델을 배포하고 있음 - 어떤 사람은 “캐나다나 독일을 감시하는 건 괜찮다는 뜻이냐”며 도덕적 근거가 빈약하다고 비판함
- “지금은 도덕적이라 해도, IPO 후엔 결국 월가와 펀드의 이익 논리에 종속될 것”이라며 냉소적인 시각도 있음
결국 수십억 달러짜리 정부 계약 앞에서는 어떤 기업도 순수할 수 없다는 주장임
- LLM 낙관론자나 비관론자가 아니더라도, 감시와 자율 무기의 위험성은 명확함