OpenAI, 미 국방부와 비공개 네트워크 내 모델 배포에 합의
(twitter.com/sama)- OpenAI CEO Sam Altman이 미 국방부(DoW)와 기밀 네트워크에 모델을 배포하는 합의에 도달했다고 발표
- 합의에는 대규모 국내 감시 금지와 자율 무기 시스템 포함 무력 사용에 대한 인간 책임 원칙이 포함되어 있으며, 국방부도 이 원칙에 동의
- 모델이 의도대로 작동하도록 기술적 안전장치를 구축하고, 클라우드 네트워크에서만 배포하며 현장 배치 엔지니어(FDE)를 투입하는 조건
- OpenAI는 국방부가 이 동일한 조건을 모든 AI 기업에 제안할 것을 요청하며, 모든 기업이 수용할 수 있는 조건이라는 입장
- 법적·정부 차원의 조치보다 합리적 합의를 통한 상황 완화를 강력히 희망한다고 표명
합의 내용
- OpenAI가 국방부 기밀 네트워크에 모델을 배포하는 합의 체결
- 협상 과정에서 국방부는 안전에 대한 깊은 존중과 최선의 결과를 위해 파트너십하려는 의지를 보여줬다고 평가
안전 원칙
- AI 안전과 혜택의 광범위한 분배가 OpenAI 미션의 핵심
- 합의에 포함된 두 가지 핵심 안전 원칙:
- 국내 대규모 감시 금지
- 자율 무기 시스템을 포함한 무력 사용에 대한 인간의 책임
- 국방부도 이 원칙에 동의하며, 이를 법률과 정책에 반영하고 합의서에 명시
기술적 안전장치 및 배포 조건
- 모델이 의도대로 작동하도록 기술적 안전장치(technical safeguards) 를 구축하며, 이는 국방부도 원한 사항
- 모델 지원과 안전 보장을 위해 현장 배치 엔지니어 FDE(Field Deployment Engineer) 를 투입
- 클라우드 네트워크에서만 배포하는 조건
업계 전체로의 확대 요청
- OpenAI는 국방부에 이 동일한 조건을 모든 AI 기업에 제안할 것을 요청
- 모든 기업이 수용할 수 있는(willing to accept) 조건이라는 입장
- 법적·정부 차원의 조치에서 벗어나 합리적 합의를 통한 상황 완화를 강력히 희망한다고 표명
결국 미 국방부가 앤스로픽은 버리고 OpenAI를 선택한건데, 흔히 말하는 워딩의 차이가 있네요.
OpenAI는 기술적 안전장치 구축, FDE(현장 엔지니어) 투입, 클라우드 전용 배포 같은 구체적인 이행 메커니즘을 함께 제안
Anthropic은 이용약관 수준의 예외 조항을 요구
미 국방부 입장에서는 "민간 기업이 개별 사용 사례에 거부권을 행사한다" 고 보고 괘씸죄 처럼 발표.
이 합의가 Anthropic이 공급망 위험으로 지정되고 나서 얼마후에 발표 되었는데,
Axios 기사를 보면 국방부가 Anthropic과의 대립을 다른 AI 기업과의 협상에서 톤을 세팅하는 용도로 활용했고,
OpenAI는 그 압력 속에서 국방부가 수용할 수 있는 형태로 합의를 이끌어낸 셈
공식 입장 표현의 차이도 크네요.
Sam Altman은 "국방부가 안전에 깊은 존중을 보였다" 고 했고,
Anthropic 측은 끝까지 "국방부의 요구에 양심상 동의할 수 없다" 는 톤
같은 원칙이라도 국방부에 체면을 세워주느냐 아니냐의 차이가 컸던 것으로 보이는데,
결과적으로는 OpenAI가 수용하면서 모양이 이상해 지니까
샘 알트먼이 말미에 "이 조건을 모든 AI 기업에 동일하게 제안해달라" 라고 넣어서
Anthropic에 대한 조치를 완화해달라는 우회적 메시지를 보낸 것 같네요.
Hacker News 의견들
- OpenAI 직원들이 ‘We Will Not Be Divided’ 서명에 참여했으면서도 이번 사태 이후에도 계속 근무하는 게 이해되지 않음
Anthropic이 요구한 조건을 OpenAI도 고수했다면 정부가 이 계약을 승인하지 않았을 것임
결국 OpenAI가 실제로는 제한선을 집행하지 않을 것이라는 암묵적 합의가 있다고밖에 볼 수 없음- Sam Altman이 해고됐다가 복귀했을 때 이미 안전 중심 직원들은 떠났다고 생각함
지금 남은 사람들은 대부분 주식 때문에 있는 것 같음 - 하지만 OpenAI도 Anthropic과 같은 원칙을 계약에 포함했다고 함
“국내 대규모 감시 금지”와 “무력 사용에 대한 인간의 책임”을 명시했고, DoW(Department of War) 도 이에 동의했다고 밝힘 - 이번 일은 결국 모든 대형 AI 기업들이 기술의 불투명한 군사용 활용에 서명하게 된다는 걸 암시함
- 트럼프 행정부의 지난 1년을 보면, 이런 비합리적인 협상은 전혀 놀랍지 않음
괜히 정치적 자본을 소모하고 더 나쁜 거래를 맺는 게 그들의 방식임 - 이면에는 정부가 기업을 통제하려는 정치적 의도가 있다고 봄
OpenAI가 Anthropic과 같은 조건을 제시했지만, 로비 자금이나 PR 효과 덕분에 정부가 눈감았을 가능성도 있음
- Sam Altman이 해고됐다가 복귀했을 때 이미 안전 중심 직원들은 떠났다고 생각함
- 이번 사태가 불만스럽다면 지갑으로 의사 표시를 해야 한다고 생각함
나도 ChatGPT를 삭제하고 구독을 취소했으며, Anthropic에 더 투자하기로 했음- 나도 비슷한 시점에 Claude 구독을 취소했었는데, 이번 일로 다시 Claude를 재구독함
원칙 있는 태도가 중요하다고 느꼈고, 이제 OpenAI를 신뢰하지 않음 - 나도 방금 구독을 취소했음
Sam Altman에 대한 남은 존경심도 사라졌고, AI가 인간의 탐욕에 오염된 현실이 역겹게 느껴짐
OpenAI가 비영리에서 출발했을 때의 이상은 완전히 사라졌음
모두 구독을 취소하고, 이런 기업과 CEO에게 세금을 강하게 부과해야 함 - 사실 나는 이미 4개월 전에 Claude와 Gemini로 옮겼음
제품 품질만 봐도 OpenAI가 예전 같지 않다는 걸 느꼈음 - 모든 대화를 삭제하고 계정도 완전히 지웠음
- 나도 같은 입장임. 이제 OpenAI에는 단 한 푼도 쓰지 않을 것임
Google이 어떤 선택을 하는지 지켜볼 예정임
- 나도 비슷한 시점에 Claude 구독을 취소했었는데, 이번 일로 다시 Claude를 재구독함
- Sam Altman은 AI 업계에서 가장 신뢰하기 어려운 인물 중 하나라고 생각함
그가 말하는 “무력 사용에 대한 인간의 책임” 같은 표현은 회피성 발언으로 들림- “인간의 책임”이 “인간의 결정”과는 다름
결국 자율살상무기도 가능하다는 뜻임
대통령이나 국방부가 ‘책임자’로 명시되더라도 실제 책임 추궁은 불가능함
- “인간의 책임”이 “인간의 결정”과는 다름
- 정부 부처 이름을 “Department of War”로 부르기로 한 것만 봐도 모든 걸 알 수 있음
- 국무부 차관이 밝힌 OpenAI와 Anthropic 계약의 차이에 대한 설명이 있음
첫 번째 글에서는 OpenAI 계약이 법적 제약을 기준으로 한 안전장치를 포함한다고 함
두 번째 글에서는 “모든 합법적 사용”을 기준으로 계약이 체결되었으며, 이는 민주적 시스템에 권한을 두는 접근이라고 주장함
Anthropic은 이런 타협안을 거부했다고 함- 하지만 정부가 “합법적인 일만 하겠다”는 약속은 전혀 안심이 되지 않음
과거에도 불법 행위를 합법으로 포장한 사례가 많았고, 법 자체를 바꿔버린 적도 있음
결국 법만으로는 정부의 권력 남용을 막을 수 없음 - 해당 차관의 발언은 행정부 내부의 홍보성 발언일 뿐, 객관적 분석이 아님
- 게다가 그는 실제 협상에 참여하지 않은 인물임
그의 설명이 맞더라도, 신뢰할 만한 매체가 계약 전문을 공개하기 전까지는 믿기 어려움
만약 사실이라면 OpenAI와 미군을 보이콧하는 정도의 대응이 적절할 듯함
- 하지만 정부가 “합법적인 일만 하겠다”는 약속은 전혀 안심이 되지 않음
- CNN 보도에 따르면 OpenAI도 Anthropic과 같은 제한선(redlines) 을 가지고 있다고 함
관련 기사- 하지만 트럼프 행정부에서 논리적 일관성을 기대하는 건 무리임
아마도 문제는 제한선이 아니라, 정부가 Anthropic을 정치적 적수로 본 것일 수도 있음
- 하지만 트럼프 행정부에서 논리적 일관성을 기대하는 건 무리임
- 처음엔 Sam Altman 특유의 기회주의적 행동으로 보였고, 나도 구독을 취소할까 고민했음
하지만 좀 더 객관적으로 보면, “합법적 사용”의 판단 주체가 정부인지 AI 기업인지가 핵심임
관련 트윗을 보면 Anthropic은 이 기준을 Claude의 헌법에 직접 반영하려 했다고 함
결국 나는 OpenAI의 명확한 입장이 나올 때까지 구독을 취소했음- 사실 DoW는 Anthropic의 조건에 1년 넘게 동의하고 있었음
그런데 갑자기 SCR 지정과 DPA 강제 인수를 협박하며 재협상을 요구함
만약 OpenAI의 계약이 Anthropic과 유사하다면, 이건 정말 이중적이고 부당한 일임
- 사실 DoW는 Anthropic의 조건에 1년 넘게 동의하고 있었음
- OpenAI가 Anthropic과 같은 제한선을 두고도 계약이 체결된 게 이상함
- 아마 Sam이 국방부에 일시적 제한선이라고 약속했을 것 같음
시간이 지나면 자율무기용 모델을 허용하고, 감시 기능은 Palantir를 통해 우회할 수도 있음 - Sam이 Anthropic을 견제하려고 정부와 친분을 이용한 것 같음
- Sam의 말을 신뢰할 수 없음
Anthropic을 나쁘게 보이게 하려는 전략적 거짓말일 가능성이 큼 - “원칙에는 동의하지만 직접 지키지는 않겠다”는 식의 이중적 태도로 보임
- 결국 진짜 목적은 “AI 계약을 Sam에게 몰아주기”였고, 제한선 논란은 구실에 불과함
- 아마 Sam이 국방부에 일시적 제한선이라고 약속했을 것 같음
- 나도 앱을 삭제하고 구독을 취소했음
OpenAI는 사용자 기반 없이는 현재의 과대평가된 기업가치를 유지할 수 없음
이미 다른 모델들도 충분히 경쟁력 있음 - 이제는 도덕적 기술인들이 모일 수 있는 그룹이 필요함
이런 부패한 행태에 질림- “윤리적 테크놀로지스트”임을 쉽게 표현하고, 서로 연결될 수 있는 새로운 깃발이 필요함