이란 학교 폭격의 책임을 AI에 돌린 사건, 더 근본적인 문제
(theguardian.com)- 2026년 2월 미군이 이란 미나브 초등학교를 폭격해 175명 이상이 사망했으며, 초기에는 Anthropic의 Claude가 표적을 선택했다는 오보가 확산됨
- 실제 표적 결정은 Palantir의 Maven 시스템이 수행했으며, 오래된 군사 데이터 갱신 실패가 민간인 피해로 이어짐
- Maven은 킬체인 절차를 자동화해 1시간에 1,000개 표적을 결정할 정도로 속도를 높였고, 이 과정에서 검증과 재평가 단계가 제거됨
- 이러한 자동화는 과거 베트남전·코소보전의 오폭 사례처럼, 기술적 신뢰가 인간 판단을 대체한 반복된 구조적 문제로 이어짐
- 사건의 핵심은 AI의 오류가 아니라, 판단을 제거한 관료적 시스템과 인간 책임의 소멸이라는 점임
이란 미나브 초등학교 폭격과 ‘AI 책임론’의 허상
- 2026년 2월 28일, 미군이 이란 남부 미나브의 Shajareh Tayyebeh 초등학교를 폭격, 7~12세 여학생을 포함한 175~180명이 사망
- 폭격 직후 언론과 정치권은 Anthropic의 챗봇 Claude가 목표를 선택했는가에 집중
- 그러나 실제 표적 선정 시스템은 Palantir의 Maven이었으며, Claude는 관련 없음
- 해당 학교는 과거 군 시설이었으나 정보 갱신 실패로 여전히 군사 목표로 분류되어 있었음
Maven 시스템의 기원과 구조
- Maven은 2017년 미 국방부의 Algorithmic Warfare Cross-Functional Team에서 시작된 프로젝트
- 초기 목표는 드론 영상 분석 자동화로, 인간 분석가의 과중한 업무를 줄이는 것이었음
- Google이 처음 계약을 맡았으나 내부 반발로 철회했고, 이후 Palantir Technologies가 2019년부터 개발을 주도
- Maven은 위성·신호·센서 데이터를 통합해 목표 탐지부터 공격 명령까지 연결하는 표적화 인프라로 발전
- Palantir는 Maven을 “Smart System” 으로 재구성해 실시간 데이터 융합과 자동화된 의사결정 지원 기능을 통합
- Maven의 인터페이스는 Kanban형 워크플로우 보드로 구성되어, 목표가 단계별로 이동하며 처리됨
- 3번의 클릭으로 탐지 데이터를 공식 표적으로 전환할 수 있으며, 시스템이 공격 수단과 무기 조합을 추천함
‘킬체인’의 압축과 속도 경쟁
- Maven은 ‘킬체인(Kill Chain)’ 이라 불리는 군사 절차의 최신 압축 형태
- 킬체인은 탐지부터 파괴까지의 절차를 체계화한 개념으로, 미군은 수십 년간 이를 단축하는 기술을 개발해 옴
- Maven은 결정 속도를 극단적으로 높이는 시스템으로, 2024년 기준 1시간에 1,000개 표적 결정을 목표로 함
- 이는 3.6초당 1건, 개인 기준으로는 72초마다 1건의 결정을 내리는 속도
- 과거 2003년 이라크전에서는 2,000명이 수행하던 표적 작업을 20명으로 대체
- 속도 향상은 판단의 여유를 제거했고, 검증·이의 제기·재평가 과정이 사라짐
- 결과적으로 오판 가능성 증가와 민간인 피해 확대로 이어짐
역사적 반복: 기술적 신뢰와 판단의 소멸
- Maven의 문제는 새로운 현상이 아니라, 기술적 자동화가 판단을 대체한 역사적 패턴의 반복
- 1960년대 베트남전의 Operation Igloo White는 센서 기반 표적 시스템이 오작동하며 허위 성과를 양산
- CIA는 “파괴된 트럭 수”가 실제 존재 수를 초과했다고 보고, 자기검증 불가능한 시스템의 폐쇄성을 드러냄
- 2차대전의 정밀폭격 교리도 효율성에 집착하며 목표의 의미를 상실, ‘기술적 광신(technological fanaticism)’ 으로 불림
- 미 공군의 1998년 표적 매뉴얼은 “사실과 결론에 기반한 이성적 사고” 를 강조했으나,
- 실제 작전에서는 PowerPoint 기반의 ‘표적 패키지(TIP)’ 가 검증 없이 순환 인용(circular reporting)으로 확정됨
- 1999년 코소보전에서는 중국 대사관 오폭 사건이 이런 절차적 오류의 대표적 사례로 기록됨
판단의 제거와 ‘관료적 이중구속’
- 조직은 규칙을 따르면서도 예외를 해석할 판단자를 필요로 하지만,
- 판단을 인정하면 규칙의 권위가 흔들리기에 판단을 수치화·절차화하려 함
- 역사학자 Theodore Porter는 이를 “숫자에 대한 신뢰(Trust in Numbers)”라 명명
- Palantir CEO Alex Karp는 저서 The Technological Republic에서
- “소프트웨어가 조타수이며, 하드웨어는 AI의 권고를 실행하는 수단”이라 서술
- 인간의 중간 판단을 제거한 ‘자율적 집단행동(bee swarm)’ 모델을 이상으로 제시
- 그러나 이는 해석의 공간이 사라진 완전한 절차화, 즉 ‘부서지기 쉬운 관료제’ 로 귀결
- 회의·보고·검토 과정은 비효율이 아니라 판단이 개입되는 유일한 지점이었으나,
- Maven은 이를 소프트웨어의 워크플로우 칸반 보드로 대체해 판단의 여지 제거
미나브 학교 폭격의 구조적 원인
- 표적 패키지에는 해당 건물이 군사시설로 분류되어 있었고,
- 실제로는 Google Maps와 이란 상업 데이터베이스에 학교로 등록되어 있었음
- 그러나 1,000건/시간의 의사결정 속도에서는 누구도 이를 검색하거나 검증하지 않음
- 의회 승인 없이 2주간 6,000개 목표 공격, 그중 하나가 초등학교였음
- 사건 후 논의는 “Claude의 오류” 로 집중되며,
- 전쟁의 합법성, 의회의 승인 여부, 전쟁범죄 가능성 등 핵심 정치·법적 책임이 가려짐
- 사건 후 논의는 “Claude의 오류” 로 집중되며,
- “AI 문제”라는 프레임은 인간의 결정과 책임을 은폐하는 도피처로 작동
- 누군가는 킬체인을 압축했고, 숙고를 ‘지연(latency)’으로 간주했으며,
- 1,000건/시간의 표적 결정을 ‘고품질’이라 부른 시스템을 설계
- 이 모든 결정은 인간이 내렸으며, AI는 그 책임을 대신할 수 없음
- 누군가는 킬체인을 압축했고, 숙고를 ‘지연(latency)’으로 간주했으며,
Hacker News 의견들
-
Maven은 전쟁 한가운데서 쓰이도록 만들어진 도구임
양측이 교전 중일 때는 몇 분의 시간 절약이 곧 생명 절약으로 이어짐
하지만 이번 공격은 교전 중이 아닌 기습 공격이었음. 아무도 반격하지 않는 상황에서 시간을 아낀다고 생명을 구한 건 아님
목표 식별을 더 신중히 했어야 했고, 사람이 여러 차례 검증했어야 함. 학교는 명백히 학교였고, 웹사이트까지 있었음
단 세 번의 클릭으로 다음 목표로 넘어간 건 명백한 인간의 과실임. 이런 실수를 막을 시간은 충분했음
도구에 대한 과신이든 민간인 생명에 대한 무시든, 그 결과는 어린 소녀들의 죽음이었음
이런 결정을 내린 사람에게는 반드시 책임이 따르길 바람- 도구에 대한 과신과 민간인 생명 경시, 둘 다 작용했을 가능성이 있음
미국은 국가 불안정화를 목적으로 전쟁을 시작했고, 그 과정에서 민간인 피해를 무시했음
마치 내가 집에 불을 질러놓고 나중에 “그게 유치원이었는지 몰랐다”고 변명하는 꼴임
과거 ‘테러와의 전쟁’ 시절에도 결혼식장을 폭격하고 “실수였다”고 했던 사례가 많았음 - 나는 학교 웹사이트를 찾지 못했고, Google Maps에도 표시되지 않았음을 확인했음
하지만 이런 온라인 정보는 목표 선정의 신뢰할 만한 근거가 아님
위성 관측 등 직접적인 정보로 식별했어야 함. 학교는 일정한 활동 패턴이 있고, 군사 시설과는 다르게 보였을 것임
아마도 전체 기지를 하나의 단위로 지정하면서, 학교 건물을 기지 일부로 오인한 듯함
명령이 내려진 뒤에는 시간 압박이 있었을 수도 있음. 어쨌든 이번 일은 비극임 -
뉴욕타임스 분석을 보면, 해당 건물이 원래 기지의 일부였고 외형상으로도 복합체의 일부처럼 보였음
수천 번의 출격 중 단 한 번의 오폭이라면 오류율은 낮은 편이지만, 이번은 명백한 실패임
다만 “충분히 검토되지 않았다”는 주장은 근거가 약함. 실제로 내부 관계자들은 이 목표가 제거 대상에서 빠졌어야 한다고 말함 - “충분한 시간이 있었다”는 말은 틀림. 이란 고위층을 한자리에 모을 기회는 드물고, 시간 제약 속에서 작전이 진행되었음
- 나는 네가 말한 요점을 명확히 정리해줘서 고맙게 생각함
이런 기습 공격의 본질 때문에 책임은 전적으로 계획자와 승인자, 실행자에게 있음
“왜 아이들이 학교에 있었냐”는 질문은 무지의 소산임. 이란은 주말 체계가 다르고, 기습 공격을 예측할 수 없었음
lethal force를 쉽게 사용할수록 무고한 피해자가 늘어남
또한 WhatsApp 메타데이터로 성인 남성 위치를 추적해 공격했다는 이스라엘의 사례도 있음
이런 방식은 20년 전과 다를 바 없고, 언젠가 우리 집에도 그런 폭탄이 떨어질 수 있음
- 도구에 대한 과신과 민간인 생명 경시, 둘 다 작용했을 가능성이 있음
-
몇 주 전에도 비슷한 일이 있었음
미국과 이스라엘이 이란 경찰 시설을 공격하다가, 이름에 “Police”가 들어간 테헤란의 공원(Police Park) 을 폭격함
실제로는 그냥 일반 공원이었음
관련 영상, 추가 출처
AI에게 “테헤란의 경찰 시설 100곳을 나열하라”고 하면 이런 결과가 나올 것임. AI가 목표 선정에 사용된 정황이 뚜렷함- 하지만 “Police Park이 실제로 폭격당했다”는 확실한 근거가 없음. 존재는 하지만 이야기가 조작된 듯함
-
미국은 도덕적·윤리적으로 파산한 국가이기 때문에 이런 일이 반복됨
Amiriyah 대피소 폭격 사건도 그 예임- 이런 폭력 행위를 멈추려면 미국 제품 불매운동이라도 해야 하는 것 아님?
-
기사에서 “Anthropic의 Claude가 학교를 목표로 지정했다”는 부분이 처음 나왔음
지금까지는 AI 사용보다는 낡은 절차와 정보 오류가 원인이라는 보도가 많았음- 하지만 The Guardian과 Washington Post에서도 이미 3월 초에 Claude가 이란 공격에 사용됐다고 보도했음
- 나도 그 주장을 여러 곳에서 들었음
- 이 사안에는 많은 혼란과 오해가 있음
Claude는 Amazon Bedrock에서 실행될 수 있는데, 이 경우 Anthropic이 직접 운영하는 API가 아니라 고객 데이터센터 내에서 모델이 구동됨
Palantir 같은 벤더가 어떤 모델을 쓰든 선택할 수 있고, Claude를 Bedrock을 통해 사용했을 가능성이 있음
Anthropic은 이런 계약에서는 텔레메트리 접근 권한이 없기 때문에, 실제 사용 방식을 증명할 수 없음
결국 “Claude가 사용됐다”는 말은 기술적으로 맞을 수도, 아닐 수도 있는 레드헤링임
-
기사 작성자가 먼저 자신의 Substack 글에서 이 주제를 다뤘다는 점도 언급할 만함
-
정말 AI의 잘못이라고 믿는 사람이 있었을까?
현대 군대에서 LLM은 책임 회피용 도구로 쓰이는 경우가 많음
명확한 목표가 있었다면 문서화된 리스트가 준비됐을 것임
하지만 지금은 “폭탄을 최대한 많이 떨어뜨리고, 컴퓨터가 알아서 잘 하겠지”라는 식의 접근임
전략적 목표보다 살상 자체가 우선이 된 현실임 -
기사 내용이 흥미로웠음
“미군은 관측과 파괴 사이의 간극을 줄이려 노력해왔다”는 문장은 다소 편향돼 보이지만, 전쟁의 안개(fog of war) 가 얼마나 짙어졌는지를 잘 보여줌
초반 몇 문단은 오히려 신선하게 느껴졌음 -
“AI-washing이 이제는 해고뿐 아니라 전쟁에도 쓰인다”는 점이 인상적이었음
- AI의 가장 큰 역할은 책임과 소유권을 제거하는 것임
-
예전에는 신, 그다음엔 자연, 그리고 이제는 AI임
인간은 자신의 행동에 대한 책임 회피라는 근본적인 문제를 안고 있음
산업화와 컴퓨터 시대 전체가 어쩌면 그 책임을 영구히 없애려는 시도처럼 보임 -
결국 어떤 경우든 미국의 전쟁 범죄는 변명될 수 없음
사과조차 제대로 하지 못하는 현실이, 훗날 우리가 되돌아보게 될 역사의 분기점이 될지도 모름