3P by GN⁺ 23시간전 | ★ favorite | 댓글 1개
  • OpenAI는 최근 미션 문구에서 ‘안전하게’라는 표현을 삭제하고, 인공지능이 인류 전체에 이익이 되도록 한다는 새로운 목표를 명시
  • 이 변화는 비영리 구조에서 영리 중심 구조로의 전환과 동시에 이루어졌으며, Microsoft와 SoftBank 등으로부터 대규모 투자를 유치
  • 새 구조는 비영리 재단(OpenAI Foundation)영리 공익기업(OpenAI Group) 으로 분리되어, 전자는 후자의 약 26% 지분을 보유
  • 그러나 미션에서 안전성 언급이 사라지고, 두 조직 모두 안전 관련 명시적 책임이 없어 이사회 책임성 약화 우려 제기
  • 이번 변화는 AI가 사회 전체의 이익을 우선할지, 주주 이익을 우선할지 시험하는 사례로 평가됨

OpenAI 미션 변경과 구조 개편

  • OpenAI는 2023년까지 “안전하게 인류에 이익이 되는 AI 개발”을 목표로 명시했으나, 2024년 IRS 보고서에서 “** 인류 전체에 이익이 되는 인공지능 보장**”으로 수정
    • ‘safely’와 ‘수익 창출 제약 없음(unconstrained by a need to generate financial return)’ 문구가 모두 삭제됨
    • Platformer 보도에 따르면 ‘미션 얼라인먼트 팀(mission alignment team)’ 도 해체됨
  • OpenAI는 여전히 웹사이트에서 안전성, 역량, 긍정적 영향의 동시 발전을 언급하지만, 공식 미션에는 안전 관련 표현이 없음

비영리에서 영리로의 전환

  • OpenAI는 2015년 비영리 연구소로 설립되어 연구 결과를 공개하고 로열티 없이 제공
  • 2019년 Sam Altman 주도로 영리 자회사를 설립, Microsoft가 초기 10억 달러 투자
    • 2024년까지 Microsoft의 누적 투자액은 138억 달러에 달함
  • 2024년 말 66억 달러의 추가 자금 조달 시, 전통적 영리회사로 전환하지 않으면 부채로 전환되는 조건이 부여됨

새로운 법적 구조와 이해관계

  • 2025년 10월, 캘리포니아 및 델라웨어 주 법무장관과 합의를 통해 OpenAI는 공익기업(public benefit corporation) 형태로 재편
    • OpenAI Foundation(비영리)과 OpenAI Group(영리)으로 분리
    • Foundation이 Group의 약 4분의 1 지분 보유, Microsoft는 27% 보유
  • 공익기업은 사회·환경적 이익을 고려해야 하지만, 이익과 공익의 균형은 이사회 재량에 달려 있음
  • SoftBank는 2025년 말 410억 달러 투자를 완료, 이후 추가 300억 달러 투자 협상 중

안전성 관련 조항과 한계

  • 재편 합의서에는 안전 및 보안 위원회 설치, 제품 출시 중단 권한, 이사회 구성 통제권 등이 포함
    • OpenAI Group 이사회는 안전 관련 사안에서 재정적 이익보다 미션을 우선 고려해야 함
  • 그러나 미션에 안전성 명시가 빠져 있어, 이사회가 실제로 안전을 우선시할 법적 근거가 약함
  • 두 조직의 이사회 구성원이 대부분 동일해 감독 기능이 실질적으로 중복되는 문제 존재

대안적 모델과 규제 논의

  • 1992년 Health Net의 영리 전환 시, 자산의 80%를 비영리 재단에 이전하도록 규제된 사례가 있음
  • Philadelphia Inquirer는 2016년 비영리 Lenfest Institute 소유의 공익기업으로 전환, 지역사회 저널리즘 목적 유지
  • 일부 캘리포니아 비영리 단체들은 OpenAI의 모든 자산을 독립 비영리로 이전해야 한다고 주장
  • 글에서는 OpenAI 이사회가 안전 미션을 포기했고, 주 정부가 이를 허용한 점을 거버넌스 실패로 지적

투자 확대와 시장 평가

  • OpenAI는 2026년 초 기준 Amazon, Nvidia, Microsoft 등으로부터 최대 600억 달러 투자 유치 가능성
  • 기업가치는 2025년 3월 3000억 달러에서 2025년 10월 5000억 달러 이상으로 상승
  • IPO(기업공개) 가능성도 언급되며, 이는 주주 수익 극대화 압력을 강화할 전망
  • OpenAI Foundation의 기금은 약 1300억 달러 규모로 추정되나, 비상장사이므로 시장가치 기반 추정치

사회적 의미

  • OpenAI의 미션 변경과 구조 개편은 AI 기업이 공익과 수익 중 어느 쪽을 우선할지 시험하는 사례로 제시
  • 안전성 문구 삭제는 AI의 사회적 책임과 위험 관리에 대한 후퇴로 해석될 수 있음
  • 향후 공익기업 모델의 실효성정부의 감독 역할이 핵심 쟁점으로 부상
Hacker News 의견들
  • 각 연도의 공식 미션 스테이트먼트ProPublica의 IRS 990 자료에서 볼 수 있음
    나는 그것들을 모아 Gist 리비전 페이지로 만들어, 연도별 변경 내역을 한눈에 볼 수 있게 했음
    자세한 내용은 내 블로그 글에도 정리했음

    • 이거 너무 웃김. Animal Farm의 계명 수정 장면이 떠오름 — “모든 동물은 평등하다”가 “모든 동물은 평등하지만 어떤 동물은 더 평등하다”로 바뀌는 식의 풍자 같음
    • 역사적 미션 변경을 실제로 추출해줘서 고마움. 특히 2021년에는 “...that benefits humanity”였는데, 2022년에 “safely”가 추가되어 “...that safely benefits humanity”로 바뀌었음. 그런데 최신 버전에서는 “safely”가 완전히 빠졌고 문장도 훨씬 짧아졌음
      삭제된 단어에는 responsibly, safe, technology, world 등이 있음
    • 2016년부터 2024년까지의 문구를 추출하고 Claude Code로 커밋 날짜를 조작해 git 리포처럼 만든 게 정말 멋짐. 자동화된 기록 보관의 좋은 예임
    • Gist에서 구두점이 많이 빠진 것 같다는 생각이 듦
    • 정말 흥미로움. 혹시 Anthropic도 이런 식으로 미션 변화를 기록한 자료가 있는지 궁금함
  • 2025년 4월 Preparedness Framework 업데이트에서 persuasion/manipulation 항목이 추적 카테고리에서 빠진 게 큰 신호였음
    Fortune 기사에 따르면, OpenAI는 이제 모델 출시 전 설득·조작 위험을 평가하지 않고, 대신 이용 약관으로 제한한다고 함
    이는 “AI 안전”의 의미를 매우 구체적으로 정의한 셈임 — 대량살상무기 설계만큼이나, 현실 인식 능력을 잃게 만드는 조작형 AI도 인류에 위협이 될 수 있음

    • “현실 인식 능력을 잃게 만드는 시스템”이라니, 그게 바로 소셜미디어와 광고 기술 아님?
      인간은 이미 수십 년간 조작 기술에 무감각해졌고, 이제는 그 규모와 효율이 커질 뿐임. 결국 소수는 더 부유해지고, 다수는 더 힘들어질 것임
    • 이게 바로 AI의 진짜 목적임. 인간 검열자는 양심의 가책을 느끼지만, AI는 명령된 검열을 완벽히 수행함.
      더 무서운 건, Cambridge Analytica식 프로파일링을 초개인화해 사람마다 맞춤형 조작 콘텐츠를 공급할 수 있다는 점임
    • “현실 인식을 잃는 건 결국 개인 책임”이라고 생각함. 속임수를 반복적으로 당하면서도 스스로 배우려 하지 않는다면, 그건 게으름의 결과임
  • 2024년 버전에서 “unconstrained by a need to generate financial return” 문구가 삭제된 게 결정적 변화였음. 그걸 버리면 남는 게 뭐겠음?

    • 남는 건 이윤뿐임
    • 게다가 501(c)(3) 비영리 단체로서는 이런 변화가 법적으로 문제될 수도 있음
  • “safely”라는 단어를 뺀 건 오히려 솔직해진 걸로 보임. 마치 Google이 “Don’t be evil”을 버린 것처럼, 위선의 가면을 벗은 셈임

    • 동의하지 않음. 사람들은 Palantir나 Broadcom처럼 대놓고 악한 기업에도 충분히 분노함
    • 복잡한 이해관계 속에서도 안전하게 일하는 조직은 존재함. 세계 최고 수준의 인재들이라면 최소한 그 정도는 기대해야 함
    • 나는 Google에서 10년간 AI 연구를 했는데, proto LLM 기술을 세상에 내놓지 않기로 한 결정은 실제로 Sundar가 내렸음. 세상이 감당 못할 거라 판단했음
  • Google이 “Don’t be evil”을 버렸을 때와 같은 냉소적 기시감이 듦

    • 대신 “Do the right thing (for the shareholders) ”로 바뀐 셈임
  • 궁극적인 질문은 이거임 — 우리는 먼저 로봇 고양이 소녀를 즐기게 될까, 아니면 바로 터미네이터로 갈까?

    • “로봇”의 어원은 슬라브어 “rabu(노예)”임. 이런 농담은 노예제 사고방식을 반영함. 마음을 고치거나 사라져야 함
  • OpenAI의 미션은 애초에 농담 같은 선언이었음. “우리의 연구가 타인의 AGI 달성에 기여하면 미션이 완수된다”고 하더니, 오픈소스 모델이 자기 모델을 학습에 썼다고 의회에 호소

  • 기업들이 왜 이런 미션 문구를 만드는지 모르겠음. “악하지 않겠다”는 문장을 지운다고 해서 더 악해지는 것도 아닌데, 결국 위선만 드러남

  • 새 미션은 결국 “profitably”로 대체된 셈임.
    예전에 상사가 하루 종일 회의실에 가둬놓고 미션 문구를 만들게 했는데, 액자에 걸어두고 아무도 다시 안 봤음. 결국 마케팅용 장식품일 뿐임

  • 2024년 6월, 전 NSA 국장 Paul Nakasone이 OpenAI 이사회에 합류했고, 2025년 10월에는 성인용 콘텐츠 생성 허용을 발표했음

    • 정말 섬뜩한 회사임. 탐욕과 감시가 결합된 형태 같음
    • 관련 영상 링크
    • 내 10년치 작업물을 이 회사들이 무단으로 학습에 썼음. 만약 내 누드 사진까지 가져다 포르노를 만든다면, 그 분노는 상상조차 하기 싫음