# 이란 학교 폭탄 테러의 책임이 AI에 있다는 비난이 쏟아졌지만, 진실은 훨씬 더 충격적이다

> Clean Markdown view of GeekNews topic #27954. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27954](https://news.hada.io/topic?id=27954)
- GeekNews Markdown: [https://news.hada.io/topic/27954.md](https://news.hada.io/topic/27954.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-03-28T23:33:25+09:00
- Updated: 2026-03-28T23:33:25+09:00
- Original source: [theguardian.com](https://www.theguardian.com/news/2026/mar/26/ai-got-the-blame-for-the-iran-school-bombing-the-truth-is-far-more-worrying)
- Points: 2
- Comments: 1

## Topic Body

- 2026년 2월 미군이 **이란 미나브 초등학교를 폭격**해 175명 이상이 사망했으며, 초기에는 **Anthropic의 Claude가 표적을 선택했다는 오보**가 확산됨
- 실제 표적 결정은 **Palantir의 Maven 시스템**이 수행했으며, **오래된 군사 데이터 갱신 실패**가 민간인 피해로 이어짐
- Maven은 **킬체인 절차를 자동화해 1시간에 1,000개 표적을 결정**할 정도로 속도를 높였고, 이 과정에서 **검증과 재평가 단계가 제거됨**
- 이러한 자동화는 과거 **베트남전·코소보전의 오폭 사례**처럼, **기술적 신뢰가 인간 판단을 대체한 반복된 구조적 문제**로 이어짐
- 사건의 핵심은 AI의 오류가 아니라, **판단을 제거한 관료적 시스템과 인간 책임의 소멸**이라는 점임

---

### 이란 미나브 초등학교 폭격과 ‘AI 책임론’의 허상
- 2026년 2월 28일, **미군이 이란 남부 미나브의 Shajareh Tayyebeh 초등학교를 폭격**, 7~12세 여학생을 포함한 175~180명이 사망
  - 폭격 직후 언론과 정치권은 Anthropic의 챗봇 **Claude가 목표를 선택했는가**에 집중
  - 그러나 실제 표적 선정 시스템은 **Palantir의 Maven**이었으며, Claude는 관련 없음
  - 해당 학교는 과거 군 시설이었으나 **정보 갱신 실패**로 여전히 군사 목표로 분류되어 있었음

### Maven 시스템의 기원과 구조
- Maven은 2017년 미 국방부의 **Algorithmic Warfare Cross-Functional Team**에서 시작된 프로젝트
  - 초기 목표는 **드론 영상 분석 자동화**로, 인간 분석가의 과중한 업무를 줄이는 것이었음
  - Google이 처음 계약을 맡았으나 내부 반발로 철회했고, 이후 **Palantir Technologies**가 2019년부터 개발을 주도
- Maven은 **위성·신호·센서 데이터**를 통합해 목표 탐지부터 공격 명령까지 연결하는 **표적화 인프라**로 발전
  - Palantir는 Maven을 **“Smart System”** 으로 재구성해 실시간 데이터 융합과 자동화된 의사결정 지원 기능을 통합
  - Maven의 인터페이스는 **Kanban형 워크플로우 보드**로 구성되어, 목표가 단계별로 이동하며 처리됨
  - **3번의 클릭**으로 탐지 데이터를 공식 표적으로 전환할 수 있으며, 시스템이 공격 수단과 무기 조합을 추천함

### ‘킬체인’의 압축과 속도 경쟁
- Maven은 **‘킬체인(Kill Chain)’** 이라 불리는 군사 절차의 최신 압축 형태
  - 킬체인은 탐지부터 파괴까지의 절차를 체계화한 개념으로, 미군은 수십 년간 이를 단축하는 기술을 개발해 옴
  - Maven은 **결정 속도를 극단적으로 높이는 시스템**으로, 2024년 기준 **1시간에 1,000개 표적 결정**을 목표로 함
  - 이는 **3.6초당 1건**, 개인 기준으로는 **72초마다 1건의 결정**을 내리는 속도
- 과거 2003년 이라크전에서는 2,000명이 수행하던 표적 작업을 **20명으로 대체**
  - 속도 향상은 판단의 여유를 제거했고, **검증·이의 제기·재평가 과정이 사라짐**
  - 결과적으로 **오판 가능성 증가**와 **민간인 피해 확대**로 이어짐

### 역사적 반복: 기술적 신뢰와 판단의 소멸
- Maven의 문제는 새로운 현상이 아니라, **기술적 자동화가 판단을 대체한 역사적 패턴의 반복**
  - 1960년대 베트남전의 **Operation Igloo White**는 센서 기반 표적 시스템이 오작동하며 허위 성과를 양산
  - CIA는 “파괴된 트럭 수”가 실제 존재 수를 초과했다고 보고, **자기검증 불가능한 시스템의 폐쇄성**을 드러냄
  - 2차대전의 **정밀폭격 교리**도 효율성에 집착하며 목표의 의미를 상실, **‘기술적 광신(technological fanaticism)’** 으로 불림
- 미 공군의 1998년 표적 매뉴얼은 **“사실과 결론에 기반한 이성적 사고”** 를 강조했으나,
  - 실제 작전에서는 **PowerPoint 기반의 ‘표적 패키지(TIP)’** 가 검증 없이 순환 인용(circular reporting)으로 확정됨
  - 1999년 코소보전에서는 **중국 대사관 오폭 사건**이 이런 절차적 오류의 대표적 사례로 기록됨

### 판단의 제거와 ‘관료적 이중구속’
- 조직은 규칙을 따르면서도 **예외를 해석할 판단자**를 필요로 하지만,
  - 판단을 인정하면 규칙의 권위가 흔들리기에 **판단을 수치화·절차화**하려 함
  - 역사학자 **Theodore Porter**는 이를 “**숫자에 대한 신뢰(Trust in Numbers)**”라 명명
- Palantir CEO **Alex Karp**는 저서 *The Technological Republic*에서
  - “**소프트웨어가 조타수이며, 하드웨어는 AI의 권고를 실행하는 수단**”이라 서술
  - 인간의 중간 판단을 제거한 **‘자율적 집단행동(bee swarm)’ 모델**을 이상으로 제시
  - 그러나 이는 **해석의 공간이 사라진 완전한 절차화**, 즉 **‘부서지기 쉬운 관료제’** 로 귀결
- 회의·보고·검토 과정은 비효율이 아니라 **판단이 개입되는 유일한 지점**이었으나,
  - Maven은 이를 **소프트웨어의 워크플로우 칸반 보드**로 대체해 **판단의 여지 제거**

### 미나브 학교 폭격의 구조적 원인
- 표적 패키지에는 해당 건물이 **군사시설로 분류**되어 있었고,
  - 실제로는 **Google Maps와 이란 상업 데이터베이스에 학교로 등록**되어 있었음
  - 그러나 **1,000건/시간의 의사결정 속도**에서는 누구도 이를 검색하거나 검증하지 않음
- 의회 승인 없이 **2주간 6,000개 목표 공격**, 그중 하나가 초등학교였음
  - 사건 후 논의는 **“Claude의 오류”** 로 집중되며,
    - 전쟁의 합법성, 의회의 승인 여부, 전쟁범죄 가능성 등 **핵심 정치·법적 책임이 가려짐**
- “AI 문제”라는 프레임은 **인간의 결정과 책임을 은폐하는 도피처**로 작동
  - 누군가는 킬체인을 압축했고, 숙고를 ‘지연(latency)’으로 간주했으며,
    - **1,000건/시간의 표적 결정을 ‘고품질’이라 부른 시스템**을 설계
  - 이 모든 결정은 인간이 내렸으며, **AI는 그 책임을 대신할 수 없음**

## Comments



### Comment 54051

- Author: neo
- Created: 2026-03-28T23:33:25+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=47544980) 
- Maven은 전쟁 한가운데서 쓰이도록 만들어진 도구임  
  양측이 교전 중일 때는 **몇 분의 시간 절약이 곧 생명 절약**으로 이어짐  
  하지만 이번 공격은 교전 중이 아닌 **기습 공격**이었음. 아무도 반격하지 않는 상황에서 시간을 아낀다고 생명을 구한 건 아님  
  목표 식별을 더 신중히 했어야 했고, 사람이 여러 차례 검증했어야 함. 학교는 명백히 학교였고, 웹사이트까지 있었음  
  단 세 번의 클릭으로 다음 목표로 넘어간 건 명백한 **인간의 과실**임. 이런 실수를 막을 시간은 충분했음  
  도구에 대한 과신이든 민간인 생명에 대한 무시든, 그 결과는 어린 소녀들의 죽음이었음  
  이런 결정을 내린 사람에게는 반드시 책임이 따르길 바람  
  - 도구에 대한 과신과 민간인 생명 경시, 둘 다 작용했을 가능성이 있음  
    미국은 **국가 불안정화**를 목적으로 전쟁을 시작했고, 그 과정에서 민간인 피해를 무시했음  
    마치 내가 집에 불을 질러놓고 나중에 “그게 유치원이었는지 몰랐다”고 변명하는 꼴임  
    과거 ‘테러와의 전쟁’ 시절에도 결혼식장을 폭격하고 “실수였다”고 했던 사례가 많았음  
  - 나는 학교 웹사이트를 찾지 못했고, Google Maps에도 표시되지 않았음을 확인했음  
    하지만 이런 온라인 정보는 **목표 선정의 신뢰할 만한 근거가 아님**  
    위성 관측 등 직접적인 정보로 식별했어야 함. 학교는 일정한 활동 패턴이 있고, 군사 시설과는 다르게 보였을 것임  
    아마도 전체 기지를 하나의 단위로 지정하면서, **학교 건물을 기지 일부로 오인**한 듯함  
    명령이 내려진 뒤에는 시간 압박이 있었을 수도 있음. 어쨌든 이번 일은 비극임  
  - [뉴욕타임스 분석](https://www.nytimes.com/)을 보면, 해당 건물이 원래 기지의 일부였고 외형상으로도 복합체의 일부처럼 보였음  
    수천 번의 출격 중 단 한 번의 오폭이라면 **오류율은 낮은 편**이지만, 이번은 명백한 실패임  
    다만 “충분히 검토되지 않았다”는 주장은 근거가 약함. 실제로 내부 관계자들은 이 목표가 제거 대상에서 빠졌어야 한다고 말함  
  - “충분한 시간이 있었다”는 말은 틀림. 이란 고위층을 한자리에 모을 기회는 드물고, **시간 제약 속에서 작전이 진행**되었음  
  - 나는 네가 말한 요점을 명확히 정리해줘서 고맙게 생각함  
    이런 **기습 공격의 본질** 때문에 책임은 전적으로 계획자와 승인자, 실행자에게 있음  
    “왜 아이들이 학교에 있었냐”는 질문은 무지의 소산임. 이란은 주말 체계가 다르고, 기습 공격을 예측할 수 없었음  
    lethal force를 쉽게 사용할수록 **무고한 피해자**가 늘어남  
    또한 WhatsApp 메타데이터로 성인 남성 위치를 추적해 공격했다는 **이스라엘의 사례**도 있음  
    이런 방식은 20년 전과 다를 바 없고, 언젠가 우리 집에도 그런 폭탄이 떨어질 수 있음  

- 몇 주 전에도 비슷한 일이 있었음  
  미국과 이스라엘이 이란 경찰 시설을 공격하다가, 이름에 “Police”가 들어간 **테헤란의 공원(Police Park)** 을 폭격함  
  실제로는 그냥 일반 공원이었음  
  [관련 영상](https://x.com/clashreport/status/2029574288253026510), [추가 출처](https://x.com/tparsi/status/2029555364262228454)  
  AI에게 “테헤란의 경찰 시설 100곳을 나열하라”고 하면 이런 결과가 나올 것임. **AI가 목표 선정에 사용된 정황**이 뚜렷함  
  - 하지만 “Police Park이 실제로 폭격당했다”는 **확실한 근거가 없음**. 존재는 하지만 이야기가 조작된 듯함  

- 미국은 **도덕적·윤리적으로 파산한 국가**이기 때문에 이런 일이 반복됨  
  [Amiriyah 대피소 폭격 사건](https://en.wikipedia.org/wiki/Amiriyah_shelter_bombing)도 그 예임  
  - 이런 폭력 행위를 멈추려면 **미국 제품 불매운동**이라도 해야 하는 것 아님?  

- 기사에서 “Anthropic의 Claude가 학교를 목표로 지정했다”는 부분이 처음 나왔음  
  지금까지는 **AI 사용보다는 낡은 절차와 정보 오류**가 원인이라는 보도가 많았음  
  - 하지만 [The Guardian](https://www.theguardian.com/technology/2026/mar/01/claude-an...)과 [Washington Post](https://www.washingtonpost.com/technology/2026/03/04/anthrop...)에서도 이미 3월 초에 Claude가 이란 공격에 사용됐다고 보도했음  
  - 나도 그 주장을 여러 곳에서 들었음  
  - 이 사안에는 많은 **혼란과 오해**가 있음  
    Claude는 Amazon Bedrock에서 실행될 수 있는데, 이 경우 Anthropic이 직접 운영하는 API가 아니라 **고객 데이터센터 내에서 모델이 구동**됨  
    Palantir 같은 벤더가 어떤 모델을 쓰든 선택할 수 있고, Claude를 Bedrock을 통해 사용했을 가능성이 있음  
    Anthropic은 이런 계약에서는 **텔레메트리 접근 권한이 없기 때문에**, 실제 사용 방식을 증명할 수 없음  
    결국 “Claude가 사용됐다”는 말은 기술적으로 맞을 수도, 아닐 수도 있는 **레드헤링**임  

- 기사 작성자가 먼저 자신의 [Substack 글](https://artificialbureaucracy.substack.com/p/kill-chain)에서 이 주제를 다뤘다는 점도 언급할 만함  

- 정말 AI의 잘못이라고 믿는 사람이 있었을까?  
  현대 군대에서 LLM은 **책임 회피용 도구**로 쓰이는 경우가 많음  
  명확한 목표가 있었다면 문서화된 리스트가 준비됐을 것임  
  하지만 지금은 “폭탄을 최대한 많이 떨어뜨리고, 컴퓨터가 알아서 잘 하겠지”라는 식의 접근임  
  **전략적 목표보다 살상 자체가 우선**이 된 현실임  

- 기사 내용이 흥미로웠음  
  “미군은 관측과 파괴 사이의 간극을 줄이려 노력해왔다”는 문장은 다소 편향돼 보이지만, **전쟁의 안개(fog of war)** 가 얼마나 짙어졌는지를 잘 보여줌  
  초반 몇 문단은 오히려 신선하게 느껴졌음  

- “AI-washing이 이제는 해고뿐 아니라 전쟁에도 쓰인다”는 점이 인상적이었음  
  - AI의 가장 큰 역할은 **책임과 소유권을 제거하는 것**임  

- 예전에는 신, 그다음엔 자연, 그리고 이제는 AI임  
  인간은 **자신의 행동에 대한 책임 회피**라는 근본적인 문제를 안고 있음  
  산업화와 컴퓨터 시대 전체가 어쩌면 그 책임을 영구히 없애려는 시도처럼 보임  

- 결국 어떤 경우든 **미국의 전쟁 범죄**는 변명될 수 없음  
  사과조차 제대로 하지 못하는 현실이, 훗날 우리가 되돌아보게 될 **역사의 분기점**이 될지도 모름
