핵심은 OpenAI 계약서의 실제 문구와 Altman이 말하는 내용의 차이점임
계약서에는 “법이나 정책이 인간 통제를 요구하는 경우에는 자율 무기 운용에 사용하지 않는다”라고 되어 있음
즉, 국방부가 “인간 통제가 필요 없다”고 정하면 그대로 가능하다는 뜻임
Anthropic은 “대규모 감시는 절대 불가”라는 절대적 금지선을 뒀는데, OpenAI는 “법이 허용하면 가능”이라는 식으로 완화했음
그런 계약을 체결해놓고 Anthropic을 옹호하는 척하는 건 업계에서 보기 드문 PR 쇼 같음
Altman의 이런 행동은 예전 해임 사태 때도 보였던 전형적인 행태라고 생각함
“미국인에 대한 대규모 감시는 금지”라는 식으로 표현했지만, 결국 해석 여지가 너무 큼
X 스레드에서 OpenAI는 “국방부와의 계약이 우리의 redline을 지킨다”고 주장했음
하지만 NPR 기사에 따르면 Anthropic은 같은 기준을 지키다 계약에서 배제됐고, OpenAI는 돈을 챙겼음
Anthropic은 “이 선을 넘지 않겠다”는 윤리적 결단을 내렸지만, OpenAI는 “국방부가 알아서 하라”는 식으로 행동했음
그래서 계약을 따낸 것임
Anthropic은 계약서에 제한 조항을 넣으려 했지만, OpenAI는 “우린 자체 guardrail로 충분하다”고 주장했음
하지만 guardrail이 민간인 감시를 막을 수 있을지는 의문임
Hacker News 의견들
핵심은 OpenAI 계약서의 실제 문구와 Altman이 말하는 내용의 차이점임
계약서에는 “법이나 정책이 인간 통제를 요구하는 경우에는 자율 무기 운용에 사용하지 않는다”라고 되어 있음
즉, 국방부가 “인간 통제가 필요 없다”고 정하면 그대로 가능하다는 뜻임
Anthropic은 “대규모 감시는 절대 불가”라는 절대적 금지선을 뒀는데, OpenAI는 “법이 허용하면 가능”이라는 식으로 완화했음
그런 계약을 체결해놓고 Anthropic을 옹호하는 척하는 건 업계에서 보기 드문 PR 쇼 같음
X 스레드에서 OpenAI는 “국방부와의 계약이 우리의 redline을 지킨다”고 주장했음
하지만 NPR 기사에 따르면 Anthropic은 같은 기준을 지키다 계약에서 배제됐고, OpenAI는 돈을 챙겼음
그래서 계약을 따낸 것임
하지만 guardrail이 민간인 감시를 막을 수 있을지는 의문임
“Any Lawful Use” 조항의 문제는 국방부가 ‘합법’의 정의를 마음대로 정할 수 있다는 점임
내부 변호사가 메모 하나 써두면 그게 곧 합법이 됨
정부 권한 남용은 투표와 제도 개혁으로 바로잡아야 함
시스템이 그렇게 설계된 건 아니지만 현실은 다름
결국 새로 이름 붙인 “Department of War”는 세금만 낭비하며 쓸모없는 기술을 비싸게 사들일 것임
시민들에게 안타까움을 느낌
Anthropic과 OpenAI의 차이는, Anthropic은 기술적으로 제한을 강제하려 했고 OpenAI는 “정부가 어기지 않길 바란다”고 말로만 약속한 것임
정부가 후자를 선택한 건 당연함
즉, “합법이라면 대규모 감시나 자율 살상 무기도 가능”이라는 여지를 남김
자율 살상 결정을 내리는 AI는 매우 위험한 발상임
단순히 초지능 때문이 아니라, 소형 모델로도 누구나 추적 불가능한 무기를 만들 수 있기 때문임
현재 모델들은 인간 생명에 대한 긍정적 태도를 학습했지만, 그걸 제거하면 괴물 같은 시스템이 됨
단지 확률적 토큰 예측기일 뿐임
예를 들어, 프로그램이 살상 대상 목록을 만들고 인간이 드론을 조종하는 구조였음
사람들은 Anthropic이 Palantir과 협력했던 걸 잊은 듯함
그 사실이 드러나자 PR로 덮었을 뿐임
OpenAI가 이번 논란로 고객을 잃고 있어서 이미지 관리용 게시물을 올린 것 같음
Anthropic은 정부의 AI 규제 강화를 원했는데, 결국 자신들이 그 결과를 맞이하게 된 셈임
이번 일은 OpenAI가 윤리적 기준이 약하다는 비판을 의식해 PR로 대응하는 것처럼 보임
해외에서는 여전히 비윤리적 활용이 가능함