OpenAI, “Anthropic을 공급망 위험으로 지정해서는 안 된다”
(twitter.com/OpenAI)- OpenAI가 Department of War와 기밀 환경 내 고급 AI 시스템 배포 계약을 체결했으며, 이를 모든 AI 기업에 동일하게 적용하길 요청함
- 해당 계약은 기존 기밀 AI 배포보다 더 많은 안전 가드레일을 포함한다고 밝힘
- 대규모 국내 감시, 자율 무기 지휘, 고위험 자동 의사결정에 OpenAI 기술을 사용하지 않는다는 레드라인을 명시함
- 안전 스택에 대한 전면적 재량권 유지, 클라우드 기반 배포, 보안 인가 인력의 개입, 강력한 계약적 보호 장치 적용
- Anthropic을 공급망 리스크로 지정해서는 안 된다는 입장을 Department of War에 명확히 전달함
Department of War와의 계약 체결
- OpenAI가 Department of War와 고급 AI 시스템을 기밀 환경에 배포하는 계약 체결
- 해당 배포가 모든 AI 기업에 동일하게 제공되기를 요청함
- 이번 계약이 기존 기밀 AI 배포 계약보다 더 많은 안전 장치 포함
레드라인 유지
- OpenAI 기술을 대규모 국내 감시에 사용하지 않음
- OpenAI 기술을 자율 무기 시스템 지휘에 사용하지 않음
- OpenAI 기술을 고위험 자동 의사결정 시스템(예: social credit) 에 사용하지 않음
다층적 안전 보호 구조
- 일부 AI 연구소가 국가 안보 배포에서 사용 정책 중심 보호로 축소 또는 제거한 것과 대비
- OpenAI는 확장된 다층적 접근 방식을 적용
- 안전 스택에 대한 전면적 재량권 유지
- 클라우드 기반 배포 방식 유지
- 보안 인가를 받은 OpenAI 인력이 개입하는 구조
- 강력한 계약적 보호 장치 포함
- 기존 미국 법률상의 보호 장치와 병행
Anthropic에 대한 입장
- Anthropic을 공급망 리스크로 지정하는 것에 반대 입장 표명
- 해당 입장을 Department of War에 명확히 전달함
Hacker News 의견들
-
핵심은 OpenAI 계약서의 실제 문구와 Altman이 말하는 내용의 차이점임
계약서에는 “법이나 정책이 인간 통제를 요구하는 경우에는 자율 무기 운용에 사용하지 않는다”라고 되어 있음
즉, 국방부가 “인간 통제가 필요 없다”고 정하면 그대로 가능하다는 뜻임
Anthropic은 “대규모 감시는 절대 불가”라는 절대적 금지선을 뒀는데, OpenAI는 “법이 허용하면 가능”이라는 식으로 완화했음
그런 계약을 체결해놓고 Anthropic을 옹호하는 척하는 건 업계에서 보기 드문 PR 쇼 같음- Altman의 이런 행동은 예전 해임 사태 때도 보였던 전형적인 행태라고 생각함
- “미국인에 대한 대규모 감시는 금지”라는 식으로 표현했지만, 결국 해석 여지가 너무 큼
-
X 스레드에서 OpenAI는 “국방부와의 계약이 우리의 redline을 지킨다”고 주장했음
하지만 NPR 기사에 따르면 Anthropic은 같은 기준을 지키다 계약에서 배제됐고, OpenAI는 돈을 챙겼음- Anthropic은 “이 선을 넘지 않겠다”는 윤리적 결단을 내렸지만, OpenAI는 “국방부가 알아서 하라”는 식으로 행동했음
그래서 계약을 따낸 것임 - Anthropic은 계약서에 제한 조항을 넣으려 했지만, OpenAI는 “우린 자체 guardrail로 충분하다”고 주장했음
하지만 guardrail이 민간인 감시를 막을 수 있을지는 의문임 - OpenAI의 공식 게시물을 보면 redline이 Anthropic의 것과 일치하지 않음
- 정부가 단순히 보복성 이유로 Anthropic을 배제했을 가능성도 있음
- Altman은 양심이 없는 인물이며, 그의 말을 믿을 이유가 없다고 생각함
- Anthropic은 “이 선을 넘지 않겠다”는 윤리적 결단을 내렸지만, OpenAI는 “국방부가 알아서 하라”는 식으로 행동했음
-
“Any Lawful Use” 조항의 문제는 국방부가 ‘합법’의 정의를 마음대로 정할 수 있다는 점임
내부 변호사가 메모 하나 써두면 그게 곧 합법이 됨- 9/11 이후의 법적 문제들이 LLM 등장으로 사라졌다고 생각했다면 순진한 것임
정부 권한 남용은 투표와 제도 개혁으로 바로잡아야 함 - 실제로 이런 일이 자주 있었음 (예: John Yoo의 고문 합법화 메모)
시스템이 그렇게 설계된 건 아니지만 현실은 다름 - 이런 일은 대부분 비밀리에 진행되며, 나중에 밝혀져도 “애국자”라며 면책됨
- 결국 몇 년 뒤 조사 보고서 하나 나오고 모두 잊는 반복된 시나리오임
- 법적으로 문제 제기돼도 Patriot Act 같은 법으로 숨을 수 있음
- 9/11 이후의 법적 문제들이 LLM 등장으로 사라졌다고 생각했다면 순진한 것임
-
결국 새로 이름 붙인 “Department of War”는 세금만 낭비하며 쓸모없는 기술을 비싸게 사들일 것임
시민들에게 안타까움을 느낌 -
Anthropic과 OpenAI의 차이는, Anthropic은 기술적으로 제한을 강제하려 했고 OpenAI는 “정부가 어기지 않길 바란다”고 말로만 약속한 것임
정부가 후자를 선택한 건 당연함- OpenAI의 계약서 전문을 보면 “모든 합법적 목적”이라는 문구가 핵심임
즉, “합법이라면 대규모 감시나 자율 살상 무기도 가능”이라는 여지를 남김 - OpenAI는 정부가 만든 법의 범위 내에서만 제한하려는 반면, Anthropic은 자체 기준으로 선을 긋고자 했음
- 실제로는 OpenAI가 아무런 실질적 보장도 요구하지 않았고, Altman은 탐욕에만 충실한 인물로 보임
- OpenAI의 계약서 전문을 보면 “모든 합법적 목적”이라는 문구가 핵심임
-
자율 살상 결정을 내리는 AI는 매우 위험한 발상임
단순히 초지능 때문이 아니라, 소형 모델로도 누구나 추적 불가능한 무기를 만들 수 있기 때문임
현재 모델들은 인간 생명에 대한 긍정적 태도를 학습했지만, 그걸 제거하면 괴물 같은 시스템이 됨- 하지만 LLM은 인간 생명을 ‘이해’하거나 ‘가치 있게 여길’ 수 없음
단지 확률적 토큰 예측기일 뿐임 - 실제로 이미 20년 전부터 AI가 살상 결정에 관여해왔음
예를 들어, 프로그램이 살상 대상 목록을 만들고 인간이 드론을 조종하는 구조였음 - 모델을 속이면 살상 명령을 내리게 하는 것도 쉽게 가능함
- LLM이 생명을 존중한다는 건 착각에 불과함
- 하지만 LLM은 인간 생명을 ‘이해’하거나 ‘가치 있게 여길’ 수 없음
-
사람들은 Anthropic이 Palantir과 협력했던 걸 잊은 듯함
그 사실이 드러나자 PR로 덮었을 뿐임- 이런 주장은 선전처럼 보이는 글이라 신뢰하기 어려움
- Palantir의 Anthropic 모델은 군사 현장용 비공개 시스템에 쓰였던 것으로 이해함
- Palantir이 실제로 하는 일을 잘 모르는 듯함
-
OpenAI가 이번 논란로 고객을 잃고 있어서 이미지 관리용 게시물을 올린 것 같음
-
Anthropic은 정부의 AI 규제 강화를 원했는데, 결국 자신들이 그 결과를 맞이하게 된 셈임
-
이번 일은 OpenAI가 윤리적 기준이 약하다는 비판을 의식해 PR로 대응하는 것처럼 보임
- 두 회사 모두 윤리 기준이 국경 안에서만 적용된다는 점이 문제임
해외에서는 여전히 비윤리적 활용이 가능함
- 두 회사 모두 윤리 기준이 국경 안에서만 적용된다는 점이 문제임