• 이번 사태는 Anthropic의 Claude가 Palantir의 Maven 시스템을 통해 미군 정보분석·표적 식별·시뮬레이션에 활용됐다는 점에서, 생성형 AI가 이미 군사 인프라 깊숙이 들어갔음을 보여준다.

  • 출발점은 2017년 미 국방부의 Project Maven이었고, 2018년 구글은 내부 반발 끝에 발을 뺐지만 이후 Palantir와 Anthropic이 그 공백을 메웠습니다.

  • Anthropic은 2026년 초 국방부에 미국 시민 대규모 감시 금지완전 자율무기 금지라는 두 조건을 제시했지만 받아들여지지 않았습니다.

  • 이 과정에서 트럼프 행정부는 Anthropic을 사실상 배제하려 했고, 국방부는 회사를 공급망 리스크로 지정했습니다.

  • 하지만 바로 그 무렵에도 Claude는 이란 관련 작전에 계속 쓰였고, 국방부 내부에서는 대체에 수개월이 걸릴 수 있다는 평가가 나왔습니다.

  • 이건 AI 모델이 한 번 군 시스템에 깊이 통합되면 더 이상 단순 소프트웨어가 아니라 교체가 어려운 인프라가 된다는 뜻입니다.

  • 동시에 OpenAI는 펜타곤 계약을 확대했고, Google은 2025년 AI 원칙에서 무기·감시 금지 문구를 삭제하며 업계 전반의 기준 이동을 보여줬습니다.

  • 핵심 쟁점은 “AI가 직접 방아쇠를 당기지 않아도, 표적 추천과 우선순위 결정에 깊게 개입하면 어디까지 인간 통제라고 볼 수 있느냐”입니다.

  • 결국 이 사건은 평시의 윤리 원칙이 전시에는 쉽게 흔들리고, 실제 협상력은 원칙보다 통합 깊이와 전환비용에서 나온다는 점을 드러냈습니다.

  • 그래서 질문은 단순히 “AI 무기를 허용할 것인가”가 아니라, 누가 어떤 속도로 인간의 판단을 AI 추천으로 대체하게 될 것인가로 옮겨가고 있습니다.