1P by neo 3달전 | favorite | 댓글 1개

'라벤더': 이스라엘의 가자 지구 폭격을 지휘하는 AI 시스템

  • 이스라엘 군은 '라벤더'라는 인공지능 기반 프로그램을 개발하여 가자 지구의 팔레스타인인들을 대상으로 한 무차별 폭격에 중요한 역할을 함.
  • 이 시스템은 인간의 감독 없이 수만 명의 가자 주민들을 암살 대상으로 표시하며, 피해자 수용 정책이 허용적임.
  • 라벤더는 하마스와 팔레스타인 이슬람 지하드(PIJ)의 군사 조직원들을 잠재적 폭격 대상으로 표시하도록 설계됨.

STEP 1: 대상 생성

  • 라벤더는 가자 지구 거주민 대부분에 대한 대량 감시 시스템을 통해 수집된 정보를 분석하고, 각 개인이 하마스 또는 PIJ의 군사 조직원일 가능성을 평가하여 순위를 매김.
  • 이 AI 시스템은 알려진 군사 조직원의 특징을 학습하고 일반 인구 중에서 이러한 특징을 찾아내어 평가함.
  • 라벤더는 약 37,000명의 팔레스타인인을 하마스의 의심스러운 '군사 조직원'으로 표시하여 암살 대상으로 함.

STEP 2: 가족 집과 대상 연결

  • 이스라엘 군은 자동화된 시스템을 사용하여 대상을 가족 집에 연결하고, 대상이 가족 집에 들어갈 때 폭격을 신호하는 '대디 어디 있어?'와 같은 추가 자동화 시스템을 사용함.
  • 이러한 시스템은 대상을 지속적으로 감시하고 가족 집에 발을 들여놓는 즉시 공격할 수 있도록 함.

STEP 3: 무기 선택

  • 라벤더에 의해 암살 대상으로 표시된 후, 군인들은 대상이 남성인지 확인하고, 추적 소프트웨어가 대상을 가정에서 찾아내면 폭격에 사용할 탄약을 선택함.
  • 저가의 '멍청한' 폭탄은 정밀 유도 폭탄보다 더 많은 부수적 피해를 일으킬 수 있으며, 주로 하위 조직원을 암살하는 데 사용됨.

STEP 4: 민간인 사상자 승인

  • 초기 전쟁 주간 동안, 이스라엘 군은 라벤더에 의해 표시된 각 하위 조직원을 암살할 때 최대 15명 또는 20명의 민간인을 죽일 수 있도록 허용함.
  • 이러한 '부수적 피해 정도'는 모든 의심스러운 하위 조직원에게 광범위하게 적용되며, 그들의 계급, 군사적 중요성, 나이와 관계없이 적용됨.

GN⁺의 의견

  • 라벤더 시스템은 AI 기술을 군사 작전에 적용한 사례로, 이는 미래 전쟁에서 AI의 역할이 증가할 것임을 시사함.
  • 인공지능이 결정하는 암살 대상 목록에 의존함으로써 발생하는 윤리적 문제와 잘못된 타겟팅으로 인한 민간인 피해 가능성이 높음.
  • 이 기술이 전쟁의 양상을 어떻게 변화시킬지에 대한 깊은 논의가 필요하며, 국제법과 전쟁 법규에 대한 새로운 해석이 요구됨.
  • 라벤더와 같은 시스템의 도입은 군사적 효율성을 높일 수 있지만, 동시에 무고한 민간인의 생명을 위험에 빠뜨릴 수 있는 이중적인 면모를 가짐.
  • 이 기술이 향후 국제 사회에 어떤 영향을 미칠지, 그리고 이에 대한 규제나 대응책이 마련될 필요가 있음.
Hacker News 의견
  • 연구자들은 이미 오래전에 간접적인 연관성을 바탕으로 한 개인의 타겟팅에 대한 우려를 제기했음. 이러한 시스템은 원래 감시 목적으로 사용되었으나, 이제는 단순한 감시를 넘어 사람을 실제로 죽이는 데 사용되고 있음.

    국제 인도법은 무장 단체의 "전투원"이 아닌 사람들을 죽이는 것을 금지하고 있음. 오직 "직접적인 적대 행위에 지속적으로 참여하는" 사람들만이 공격 대상이 될 수 있음. 나머지 민간인들은 직접적인 적대 행위에 참여할 때만 타겟이 될 수 있음.

  • 인공지능(AI)이 사전에 사람을 죽이는 결정을 내리는 아이디어에 대해 우려를 표함. 이 경우에는 인간의 승인이 있었지만, 인간 개입 없이 로봇에 의해 사람이 죽는 상황까지 한 걸음 떨어져 있음을 지적함.

    AI 없이 이스라엘이 더 무작위로 목표를 선정했을지, 아니면 전혀 폭탄을 떨어뜨리지 않았을지에 대한 대안을 고민함. 전쟁 상황에서 무고한 사람들이 죽는 것은 피할 수 없는 일임.

  • 많은 사람들이 제목만 보고 내용을 읽지 않을 것이라고 지적하며, 기사의 두 번째 단락을 주목하라고 권함.

    AI 시스템인 Lavender의 사용과 함께, 이스라엘 군 관계자들이 팔레스타인 민간인들의 대규모 사망을 허용했다고 주장함.

  • Serial 팟캐스트의 현재 시즌을 들어보라고 제안함.

    AI가 "준" 운영자들을 신속하게 식별하여 타겟팅하는 데이터 처리 방식은 2001년에 사용된 방식과 다르지 않음. 결정은 AI가 아닌 인간에 의해 내려짐.

  • 이스라엘의 행동을 부정적으로 묘사하는 이야기임에도 불구하고, 적어도 군사적 목표물을 공격하려는 시도로 읽힘.

    이스라엘은 기자, 의료진, 구호 활동가 등을 목표로 삼아 가자 지구의 생활을 불가능하게 만드는 것을 목표로 함.

  • 이 기술의 정확성에 대해 의문을 제기하며, 결과보다는 선진 기술로 보이는 것에 더 관심이 있는 것 같다고 지적함.

    권력자들이 "정확함"보다는 자신들의 편견을 확인할 정당성을 갖는 것에 더 관심이 있음을 증명함.

  • 이스라엘 국방군(IDF)이 군사 건물이나 군사 활동 중인 하마스 운영자들만을 죽이는 데 관심이 있었던 것은 아니라고 언급함.

    IDF는 가족의 집을 폭격하는 것을 주저하지 않았으며, 시스템은 이러한 상황에서 그들을 찾도록 구축됨.

  • AI의 사용이 IDF의 목표 달성에 어떤 이득을 가져다주었는지에 대한 의문을 제기함.

    AI의 지속적인 사용은 전쟁 범죄에 연루된 개인들에게 피난처를 제공하기 때문에 지지받고 있을 수 있음.

  • The Guardian도 이 이야기를 표지 기사로 다루고 있으며, 사전에 세부 사항을 제공받았음.

    이러한 이야기들은 공공의 이익에 해당하며, 토론이 이루어지기를 바람.

  • 한 소식통은 인간 직원들이 기계의 결정에 대해 "고무 도장" 역할만 했다고 언급함.

    자동화의 아이러니에 대한 논문을 떠올리게 함: 대부분의 작업이 자동화되면 인간의 감독은 거의 쓸모가 없어짐.