GN⁺: OpenAI, "군사 및 전쟁" 목적으로 ChatGPT 사용 금지 해제
(theintercept.com)OpenAI, 군사 및 전쟁 목적 사용 금지 조항 삭제
- OpenAI가 이번 주에 자사 기술의 군사 목적 사용을 명시적으로 금지하는 언어를 사용 정책에서 조용히 삭제함.
- 1월 10일까지 OpenAI의 사용 정책 페이지에는 '무기 개발' 및 '군사 및 전쟁'을 포함한 신체적 해를 높일 수 있는 활동 금지가 명시되어 있었음.
- 새 정책은 '자신이나 타인에게 해를 끼치지 않도록 서비스를 사용하지 말라'는 지침을 유지하고 있으나, '군사 및 전쟁' 사용에 대한 전면 금지는 사라짐.
정책 변경의 배경
- OpenAI는 정책 페이지를 "더 명확하고 읽기 쉽게" 만들기 위해 대대적으로 수정함.
- OpenAI 대변인은 새로운 정책이 법적 준수를 강조하고 있으며, "타인에게 해를 끼치지 않는다"는 원칙이 광범위하게 적용될 수 있다고 설명함.
- 전문가들은 새로운 정책이 군사 계약과 전쟁 작전에 대한 질문을 피하고, 특히 무기에 초점을 맞추고 있다고 지적함.
군사 및 전쟁 사용에 대한 우려
- 전문가들은 대규모 언어 모델(Large Language Models, LLMs)의 편향과 정확성 부족으로 인해 군사 전쟁에서의 사용이 부정확하고 편향된 작전으로 이어질 수 있음을 지적함.
- OpenAI의 도구가 군사력의 직접적인 살상에 사용될 가능성은 낮지만, 군사력을 지원하는 다양한 작업에 활용될 수 있음.
- 군사 기관의 주요 목적이 살상 능력을 유지하는 것이므로, 비록 직접적으로 폭력적이지 않더라도 군사 기관을 돕는 것은 여전히 문제가 될 수 있음.
- OpenAI와 마이크로소프트의 긴밀한 파트너십은 OpenAI가 군사적 목적으로 사업을 확장할 수 있는 가능성을 열어둠.
정책 변경의 실제 영향
- 정책 변경의 실제 세계적인 결과는 불분명함.
- OpenAI는 군사 및 전쟁 사용 금지를 어떻게 집행할 것인지에 대해 명확한 입장을 밝히지 않음.
- 전문가들은 OpenAI가 군사 기관과의 사업에 대한 입장을 약화시키고 있다고 평가함.
군사 기관의 AI 기술 활용
- 세계 각국의 군대는 기계 학습 기술을 활용하여 우위를 점하려고 하며, 펜타곤은 여전히 ChatGPT나 다른 LLMs의 사용을 탐색 중임.
- 대규모 언어 모델은 대량의 책, 기사, 웹 데이터 등을 학습하여 사용자 프롬프트에 대한 인간 반응을 모방함.
GN⁺의 의견:
- OpenAI의 정책 변경은 인공지능 기술이 군사적 목적으로 사용될 가능성을 높이고, 이는 기술 윤리와 안전성에 대한 중요한 논의를 촉발할 수 있음.
- 이러한 변화는 기술 기업이 국방 계약과 관련하여 어떻게 자신들의 원칙과 시장 기회 사이에서 균형을 맞추려고 하는지를 보여줌.
- 군사 및 전쟁 목적으로 AI를 사용하는 것에 대한 명확한 금지 조항이 삭제된 것은 기술의 안전성과 윤리적 사용에 대한 더 넓은 사회적 논의를 촉진할 수 있는 계기가 될 것임.
Hacker News 의견
-
OpenAI의 성장과 원칙 변경
- OpenAI가 창립 원칙을 버리고 Google의 전략을 따르는 것이 인상적임.
- Google이 "Don't be Evil"을 제거하기 전까지 17년이 걸렸지만, OpenAI는 빠르게 성장하여 갑작스럽게 변화함.
- OpenAI가 Google을 대체할 기업이거나 기술이 될 것으로 보임. Google이 Microsoft를 대체한 것처럼 역설적임.
-
GPT 모델의 군사적 활용 가능성
- GPT 모델은 군사 데이터베이스와 연구 작업에 평범하게 활용될 큰 기회를 가짐.
- 군사적 사용 금지는 예를 들어 재난 대비 개선을 위해 군단이 사용하는 것을 포함하여 금지할 수 있음.
- 대부분의 대기업은 결국 이러한 양보를 하게 되는데, 이는 펜타곤이 막대한 자금을 가지고 있기 때문임.
-
산업 회사의 군사 제품 개발
- 많은 산업 회사들이 군사 제품도 개발할 가능성이 있음.
- 예를 들어, 군사용으로 사용될 수 있는 배의 엔진을 개발하는 CAD 도구에서 LLM 보조를 원할 수 있음.
- 인프라와 소프트웨어는 종종 공유되거나 회사 전반에 걸쳐 적용될 수 있도록 개발됨.
-
새로운 정책에 대한 이해
- 새로운 정책을 실제로 읽은 사람이 있는지 궁금함.
- 무기와 해를 끼치는 것에 대한 더 넓은 정책을 가지고 있음.
-
AI와 군사력
- 고급 AI는 고급 군사력에 필수적임.
- 이러한 문제들은 기술적 문제가 아니라 인간의 문제임.
- 인간은 계층을 이루고 영토와 자원을 위해 경쟁하는 영장류임.
-
무기 개발과 군사 활동에 대한 정책 차이
- 두 정책 사이에는 명확한 차이가 있으며, 전자는 무기 개발과 군사 활동을 금지하는 반면, 후자는 법률 준수와 유연성을 강조함.
- AI 안전에 대한 잠재적 영향이 중요함.
-
LLM의 한계
- ChatGPT가 기본적인 작업에서 일관되게 환각을 멈추지 못하고 실제로 이해하지 못하는 것은 끔찍한 아이디어임.
- AI/ML 분야 자체는 시간 낭비가 아니지만, LLM은 대부분 화려함만 있고 실질적인 가치는 거의 없음.
-
OpenAI의 결정의 불가피성
- OpenAI가 그런 종류의 돈을 포기할 리 없었음이 불가피함.
- 다른 방식으로 제품이 사용되는 것에 대해 우려하는 것이 이상하다고 느낌.
-
실리콘 밸리와 군사 산업 복합체
- 실리콘 밸리는 군사 산업 복합체의 산물임.
-
민간인과 군사의 무기 개발 관점 차이
- 민간인에게는 대부분의 경우 무기 개발이 위험하지만, 군사에게는 더 나은 무기를 적보다 빠르게 개발하지 않는 것이 위험함.