1P by GN⁺ 5시간전 | ★ favorite | 댓글 3개
  • Anthropic CEO Dario Amodei가 직원 메모를 통해 OpenAI의 미 국방부 계약을 "보여주기식 안전 조치(safety theater)"라 지칭하며 강하게 비판
  • Anthropic은 기존 2억 달러 규모의 군 계약을 보유하고 있었으나, 국방부가 무제한 기술 접근을 요구하면서 합의에 실패
  • OpenAI가 대신 국방부와 계약을 체결했으며, Sam Altman은 Anthropic이 주장한 것과 동일한 레드라인 보호 장치가 포함되어 있다고 발표
  • Amodei는 Altman이 "평화 중재자이자 딜메이커"로 자신을 포장하고 있다며, OpenAI의 메시지가 "명백한 거짓말"이라고 직원들에게 전달
  • 이 계약 이후 ChatGPT 삭제 건수가 295% 급증하는 등, 대중 여론은 Anthropic 쪽에 더 우호적인 반응을 보임

Dario Amodei의 직원 메모 내용

  • Amodei는 The Information이 보도한 직원 메모에서 OpenAI의 국방부 거래를 "safety theater(안전 연극)" 라고 표현
  • "OpenAI가 이 계약을 수락하고 우리가 거부한 주된 이유는, 그들은 직원들을 달래는 데 신경 썼고 우리는 실제로 남용 방지에 신경 썼기 때문"이라고 기술
  • Altman이 자신을 "평화 중재자 이자 딜 메이커"로 포장하고 있다며, OpenAI의 메시지를 "straight up lies"(명백한 거짓말)라고 직접 지칭

Anthropic과 국방부 간 협상 결렬 경위

  • Anthropic은 미 국방부와의 협상에서 AI 기술의 무제한 접근권 요구를 거부함
    • 회사는 DoD가 국내 대규모 감시나 자율 무기 개발에 자사 AI를 사용하지 않겠다는 보장을 원했음
    • 이 조건이 받아들여지지 않아 2억 달러 규모 계약이 무산
  • 이후 DoD는 OpenAI와 새 계약을 체결함
    • Trump 행정부 하에서 "Department of War"로 알려진 국방부가 Anthropic 대신 OpenAI와 계약 체결
    • Sam Altman은 새 방위 계약에 Anthropic이 주장한 것과 동일한 레드라인에 대한 보호 장치가 포함되어 있다고 발표
  • OpenAI는 블로그 포스트에서 자사 AI 시스템이 "all lawful purposes"(모든 합법적 목적)에 사용 가능하다고 명시
    • OpenAI 블로그에 따르면, "국방부는 국내 대규모 감시가 불법이라고 간주하며 이 목적으로 사용할 계획이 없다는 점이 상호작용에서 명확했다"고 기술
    • 합법적 사용 범위에 해당하지 않는다는 점을 계약서에 명시적으로 반영했다고 설명

Anthropic의 구체적 이의 사항

  • Anthropic은 국방부가 자사 AI를 "any lawful use"(모든 합법적 사용)에 활용할 수 있도록 요구한 점에 구체적으로 이의를 제기
  • 비평가들은 법률은 변경될 수 있으며, 현재 불법인 것이 미래에는 허용될 수 있다는 점을 지적

대중 반응과 시장 영향

  • OpenAI의 국방부 계약 발표 이후 ChatGPT 삭제 건수가 295% 급증
    • 이는 대중이 OpenAI의 군사 계약을 의심스럽거나 불투명하게 인식하고 있음을 보여줌
  • Amodei는 메모에서 "이 spin/gaslighting 시도가 대중이나 미디어에서는 잘 먹히지 않고 있으며, 대부분 OpenAI의 계약을 의심스럽게 보고 있고 우리를 영웅으로 보고 있다"고 기술

Anthropic의 내부 분위기

  • Amodei는 직원들에게 OpenAI의 “왜곡된 메시지”가 내부 직원들에게 영향을 주지 않도록 해야 한다고 강조함
  • 그는 OpenAI의 홍보 전략이 일부 온라인 사용자에게만 통하고 있다며, 대중적 설득에는 실패했다고 평가함

그런데 왜 opencode는 막은거야.. 흐흑..

Hacker News 의견들
  • @sama가 몇 시간 만에 Anthropic 대신 OpenAI가 같은 조건으로 계약을 체결한다고 발표했을 때, DoW나 OAI 중 누군가가 사실을 왜곡하고 있음이 분명하다고 느꼈음
    DoW가 Anthropic의 조건을 거부했으니, OAI의 조건은 사실상 집행 불가능한 수준이었을 것임
    실제로 읽어보면 “DoW는 스스로 정한 규칙을 어기지 않는다”는 식의 조건처럼 보였음

    • OpenAI가 “모든 합법적 사용”이라는 문구 뒤에 숨어서 자신들을 보호하려는 것 같음
      Sam Altman은 DoD용 모델에 규칙을 내장해 오용을 막겠다고 했지만, 그건 정렬 문제(alignment) 를 단기간에 해결하겠다는 말과 다름없음. 믿기 어려움
    • 일반 ChatGPT 사용자는 OpenAI 개인정보 포털에서 GPT를 삭제하고 계정을 지우는 게 좋음
    • Sam Altman뿐 아니라 Paul Graham에 대한 존경심도 완전히 사라짐
      예전엔 그의 에세이를 좋아했지만, 점점 자기반성이 부족하고 스타트업만이 인생의 전부라는 식으로 느껴졌음
      이번에도 Altman을 두둔하는 모습이 너무 실망스러움. 그의 트윗을 보면 현실을 외면하고 있음
      아마 자신이 Altman을 세상에 알린 책임감 때문에 그를 비판하지 못하는 듯함
    • Dario의 운명은 이미 정해진 듯함. 지식이나 부가 아닌 권력이 세상을 지배함
      기술자 대부분은 정치철학을 배우지 않았고, 고대의 ‘Gyges의 반지’ 이야기가 여전히 유효함
    • 나도 처음부터 DoW나 OAI가 둘 다 뭔가 숨기고 있다고 생각했음. 너무 명확했음. 발표 전에 ChatGPT에게 물어봤으면 좋았을 것 같음
  • 이건 단순히 윤리 문제로만 볼 수 없음. 막대한 자본이 걸린 문제임
    최첨단 모델 훈련에는 천문학적 비용이 들고, 그걸 감당할 수 있는 곳은 DoD 같은 기관뿐임
    Anthropic이 안전성 문제로 국방부 계약을 거절한 건 큰 도박임. 그 대신 ‘Constitutional AI’ 접근법이 시장에서 보상받길 기대하는 것임
    OpenAI는 국방부 자금을 원하면서도 소비자 친화적 이미지를 유지하려 함. 하지만 두 마리 토끼를 잡을 순 없음

    • 계약 규모는 2억 달러 정도로, 인프라에 수십억을 쓰는 기업들에겐 큰돈은 아님
      이번 사태로 오히려 Anthropic이 더 많은 매출을 올렸을 수도 있음
      진짜 위험은 정부가 Anthropic을 공급망 리스크로 지정할 경우임
    • “윤리적 전투”라기보다, 언제나 그렇듯 이익이 걸린 싸움
  • Anthropic이 Palantir과 협력하면서 DoD 감시에 반대하는 건 모순처럼 보임

    • 하지만 Palantir은 Anthropic의 이용 제한 조건을 수용했고, DoD는 거부했음
      DoD가 계약을 끊고 OpenAI와 새로 맺은 걸 보면, 두 회사의 조건엔 실질적 차이가 있었음이 분명함
    • Palantir은 Flock처럼 직접 감시를 하는 회사가 아니라, 데이터 통합 플랫폼을 제공함
      정부 계약 하에 여러 데이터(수사·보안 포함)를 통합하지만, 직접 수집하진 않음
      Wired 기사 참고
    • 혹시 Palantir 계약이 국내 감시를 제외했을 수도 있음. Anthropic이 “국내 감시 금지”를 조건으로 걸었을 가능성 있음
    • 실제로 Anthropic은 Palantir과의 협력에서도 “무기 설계, 검열, 국내 감시, 허위정보, 악성 사이버 작전” 등에는 사용하지 않겠다는 제한을 명시했음
      TechCrunch 기사 참고
    • Palantir 계약에도 비슷한 조건이 있었을 가능성이 높음. 그걸 없다고 단정하는 건 이상함
  • Dario의 전체 메모가 여기에 공개됨

    • 주요 AI 연구소 간에 공개적인 적대감이 드러난 게 놀라움
      단순 경쟁이 아니라 이념적 충돌로 보임
      게다가 OpenAI 직원들을 “속기 쉬운 트위터 바보들”이라 부른 건 인재 확보 측면에서 좋지 않은 선택임
      예시 트윗 참고
    • 메모의 텍스트 버전은 Pastebin에서도 볼 수 있음
    • Dario는 “OpenAI의 스핀과 가스라이팅이 대중에게 통하지 않는다”고 말하며, OpenAI 직원들이 Altman의 내러티브에 속지 않게 해야 한다고 강조했음
  • @pg가 @sama를 “식인종 섬에 떨어뜨려도 5년 뒤엔 왕이 되어 있을 사람”이라 표현했는데, 지금 보면 권력욕의 상징적인 인용구처럼 들림
    Dario는 이 시대에 드문 진정성 있는 인물로 보임. 그가 흔들리지 않길 바람

    • 하지만 Anthropic도 Palantir과 협력했으니 완전히 깨끗하진 않음
      결국 이들은 모두 영리 기업이며, 한쪽이 틀렸다고 다른 쪽이 자동으로 옳은 건 아님
      공식 발표 링크 참고
    • 두 CEO 중 누가 정부 의사결정에 비선 권력을 행사하려 하는가를 보면, 한쪽만이 진짜 권력 확장을 시도하고 있음
      Altman이 SCR 조항에서 Anthropic을 옹호한 건 인정하지만, 그건 너무 당연한 수준임
    • 예전부터 Sam Altman에 대한 과도한 찬양이 불편했음. 비판 없는 숭배는 항상 의심스러움
      그 인용구는 처음부터 부정적인 의미로 들렸음. 이 커뮤니티도 위계에 대한 자연스러운 회의심을 가질 필요가 있음
    • 이런 억만장자들의 온라인 싸움은 마치 기술판 UFC 같음. 더 이상 일반인이 편을 들 이유는 없음
    • “되돌아보면?”이라는 말이 이렇게 무겁게 들릴 줄은 몰랐음
  • 사실 두 연구소 모두 ‘안전 연극(safety theater)’ 을 하고 있음
    정렬 문제를 해결하지 못한 채, 시장 압박 때문에 위험한 능력 경쟁을 벌이고 있음

  • 이번 사태를 계기로 OpenAI 구독을 취소하고 계정을 삭제하자는 행동 촉구
    아무것도 하지 않는 건 묵인과 다름없음

  • Sam Altman이 거짓말을 한다고? 이제는 놀랍지도 않음

    • 그는 거짓말 위에 거짓말을 덧씌우는 사람
      사람들을 점점 더 자신에게 의존하게 만들어, 나중엔 아무도 그를 몰아낼 수 없게 됨
  • OpenAI는 정부의 지원금에 의존해 생존하려는 상황
    Sam과 경영진은 이미 위기를 감지했고, 정부 자금이 필요함

    • 맞음. OpenAI의 전략은 ‘너무 커서 실패할 수 없는 기업’ 이 되는 것임
      선거를 앞둔 시점에서 시장을 유지하려는 정치적 계산도 깔려 있음
      Nvidia, Micron, Oracle, Microsoft 모두 이 흐름에 얽혀 있음
  • Anthropic, OpenAI, 미국 정부 간의 최근 사건을 정리한 타임라인 웹사이트를 만들었음
    HN 게시글 링크

DoD: Department of Defense
..W: ..War