6P by GN⁺ 8시간전 | ★ favorite | 댓글 1개
  • OpenAI는 설립 초기부터 AI를 인류 역사상 가장 강력하고 잠재적으로 위험한 기술로 규정하고, 비영리법인으로 출발해 인류의 안전을 회사 존립보다 우선하는 구조를 채택했으나, 이후 영리법인으로 전환하면서 그 원칙이 형해화되고 있음
  • 2023년 11월, 공동창업자 Ilya Sutskever 주도로 이사회가 Altman을 전격 해임했다가 5일 만에 복귀시킨 '블립(Blip)' 사건은, Altman의 신뢰성과 투명성에 대한 근본적 의구심이 실제 조직 권력 투쟁으로 폭발한 사례
  • 전 동료들이 남긴 수백 페이지의 기록은 Altman이 이사회·임원진·투자자에게 반복적으로 사실을 은폐하거나 다른 말을 했다는 구체적 주장을 담고 있으며, 이사회 멤버 한 명은 그를 "진실에 구속받지 않는 사람" 으로 묘사
  • OpenAI는 현재 기업가치 1조 달러 IPO를 준비 중이고, Altman은 걸프 국가 자금을 활용한 대규모 AI 인프라 구축과 미군 계약 확보를 추진하며 AI 패권 경쟁의 핵심 브로커 역할을 맡고 있음
  • AI 안전 연구팀이 잇달아 해산되고, 안전보다 제품·수익을 우선하는 문화가 자리잡은 가운데, OpenAI의 실존적 안전 체계는 창업 약속과 점점 더 멀어지고 있음

해임 사건의 발단 — Ilya 메모와 이사회의 결정

  • 2023년 가을, OpenAI 수석 과학자 Ilya Sutskever가 CEO Sam Altman과 사장 Greg Brockman의 자격을 문제 삼는 70페이지 분량의 기밀 메모를 동료 이사 3명에게 발송함
    • Slack 메시지·HR 문서를 편집한 내용으로, 탐지를 피하기 위해 개인 기기로 촬영된 이미지 포함
    • 소멸 메시지 형태로 발송해 외부 유출 방지
  • 메모는 Altman이 임원 및 이사회에 사실을 왜곡하고 내부 안전 프로토콜에 대해 기만했다고 주장
    • 메모 첫 항목의 제목: "Sam exhibits a consistent pattern of… Lying"
  • 이사회 멤버 Helen Toner(AI 정책 전문가), Tasha McCauley(기업가)는 메모를 "이미 믿고 있던 것의 확인"으로 받아들임
  • Altman이 라스베이거스 F1 레이스 관람 중, Sutskever가 화상통화로 해고를 통보
    • 공개 발표문에는 단지 "커뮤니케이션에서 일관되게 솔직하지 않았다"고만 명시

'블립(Blip)' — 해임 후 5일간의 권력 투쟁

  • Microsoft는 해고 직전에야 통보받았으며, Satya Nadella는 "무슨 일인지 전혀 알 수 없었다"고 발언
  • OpenAI에 86억 달러 가치로 투자를 준비 중이던 Thrive Capital은 Altman 복귀 조건으로 투자를 보류
  • Altman은 귀가 직후 자택에 위기 대응팀 전략실을 꾸밈
    • 투자자 Ron Conway, Airbnb 공동창업자 Brian Chesky, 위기관리 전문가 Chris Lehane 등이 참여
    • 변호사들이 침실 옆 사무실에 상주하고, Altman은 파자마 차림으로 돌아다님
  • Altman 측은 Mira Murati 등 반대편 인물들의 평판을 "훼손할 정보를 찾고 있다"고 경고했다는 증언 있음 (Altman은 기억 없다고 부인)
  • Microsoft가 Altman과 이탈 직원들을 위한 별도 팀 창설을 발표하며 압박
  • OpenAI 직원 대부분이 Altman 복귀를 요구하는 공개 서한에 서명하며, 이사회는 해임을 철회
    • Sutskever도 결국 서한에 서명, 이사회는 "회사가 무너질 것"이라는 압박 끝에 복귀를 결정

복귀 이후 — 조사 무력화와 지배구조 재편

  • Altman은 자신을 해임한 이사들의 사임을 요구, 해임에 찬성했던 Helen Toner, Tasha McCauley, Sutskever는 이사회에서 축출
    • 퇴임 조건으로 독립적 외부 조사 요구, 새 이사 선임 시 Altman과 긴밀히 협의한 인물들 선택
    • Lawrence Summers, Bret Taylor가 신임 이사로 합류
  • WilmerHale 법무법인이 조사를 담당했으나, 6명 이상이 "투명성을 제한하도록 설계된 조사"라고 주장
    • 중요 관계자 인터뷰 누락, 익명성 보장 미흡 등 지적
  • 2024년 3월, OpenAI는 Altman을 무혐의로 결론냈지만 보고서를 아예 작성하지 않음
    • 구두 브리핑만 진행, 보고서 미작성 결정은 Summers·Taylor 개인 변호사의 조언에 따른 것으로 알려짐
    • "보고서의 부재가 혐의를 최소화하는 데 기여했다"는 관계자 증언
  • Summers는 이후 Jeffrey Epstein 관련 이메일 공개로 이사직 사임
  • 이후 OpenAI는 1조 달러 IPO 준비와 함께 세계에서 가장 가치 있는 기업 중 하나로 성장
    • Altman은 AI 인프라 확장, 정부 계약, 감시·무기 시스템 표준화 등에도 관여
    • 그러나 내부에서는 Altman의 기만적 행태가 반복된다는 비판이 지속

Altman의 성격과 초기 경력 — 과장·설득·권력욕

  • 미주리주 클레이튼 출신으로 부유한 가정에서 성장했으며, 청소년기에 동성애 혐오 폭행을 당한 경험이 있음
  • 스탠퍼드 재학 중 포커 게임을 통해 사업 감각을 익혔고, 중퇴 후 Y Combinator(YC) 1기 창업자로 참여해 Loopt를 설립
    • Loopt는 위치 기반 SNS였으나 성장에 실패해 2012년 매각됨
  • Loopt 시절부터 과장 성향이 지적됨: 자신이 탁구 챔피언이라고 자랑했지만 실제로는 사무실 최하위 수준
    • 전 직원 Mark Jacobstein: "내가 생각하는 것과 이미 달성한 것 사이의 경계가 흐릿한 것이 최악의 형태로 가면 Theranos가 된다"고 언급
  • 직원 그룹이 이사회에 두 차례 해고를 요청했지만 무산
  • Loopt는 2012년 핀테크 기업에 매각됐는데, "Altman의 체면을 살리기 위해 주로 마련된 거래"라는 관계자 증언 있음
  • Paul Graham은 2014년 자신의 후임으로 Altman을 Y Combinator 대표로 임명
    • Graham이 통보하자 Altman이 "it worked"라는 통제되지 않은 미소를 지었다고 묘사

Y Combinator 재임 시절 — 이해충돌과 퇴임 경위

  • YC 대표로서 투자자들의 참여를 막고 자신이 선별적으로 개인 투자를 집행했다는 비판 제기 (Altman은 부인)
  • Stripe 투자 시 Sequoia Capital 약정보다 큰 지분을 요구해 파트너들을 당혹시켰다는 관계자 증언
    • Altman의 최초 투자 15,000달러(2%) → Stripe 현재 가치 1,500억 달러 이상
  • 2018년 여러 YC 파트너들이 Graham에게 Altman의 행동을 불만 제기
  • Graham은 사석에서 "Sam had been lying to us all the time"이라고 발언했다고 복수 관계자가 증언
  • Altman은 해임된 적 없다고 주장하고 Graham도 공식 발표로는 부인했지만, 내부 기록은 "완전히 상호 합의한 이별이 아니었다"는 점을 시사
  • 2021년 SEC 공시에 Altman이 YC 의장으로 기재됐으나, 본인은 "나중에야 알았다"고 주장

OpenAI 설립 — 안전 명분과 자금 조달의 이중성

  • 2015년 Elon Musk에게 이메일로 "AI는 핵보다 위험할 수 있다" 는 논리로 접촉, OpenAI를 "AI판 맨해튼 프로젝트"로 제안
    • 두 사람은 OpenAI를 공동 설립하고, Musk는 10억 달러 자금을 약속
  • OpenAI는 “인류 전체의 이익을 위한 AGI 개발”을 목표로 하며, AGI 독재 방지를 핵심 원칙으로 삼음
    • 설립 원칙: "안전이 최우선 요건", "모든 규제를 적극 지지"
  • 2017년 Musk는 OpenAI를 영리회사로 전환하며 지배권 확보를 요구했으나 Altman이 거부
    • 이후 Musk는 나가고 2023년 경쟁사 xAI를 설립, Altman과 OpenAI를 상대로 사기·자선신탁 위반 소송 제기 (진행 중)
  • 초기 직원들에게 순수 비영리로 유지하겠다고 약속하고 급여 삭감을 감수하게 했으나, 내부 문서에는 2017년부터 이미 영리 전환을 논의한 흔적 존재
  • Sutskever가 2017년 Google의 Transformer 아키텍처 논문을 읽고 "이게 바로 그것"이라 외치며 팀에 전방향 전환을 촉구, 이후 GPT의 씨앗이 됨
    • 일부 엔지니어들은 “우리가 악역이 된 건 아닌가”라며 리더십에 의문 제기

Dario Amodei와 Anthropic 창업 — 안전 원칙의 균열

  • Amodei는 "My Experience with OpenAI"라는 200페이지 이상의 개인 노트를 수년간 작성
  • 2018년 Dario Amodei는 OpenAI의 사명 불명확성과 자금 중심 운영을 비판
    • “다른 프로젝트가 먼저 안전한 AGI를 만들면 협력한다”는 ‘Merge and Assist 조항’ 을 제안
  • 2019년 Microsoft 투자 계약 과정에서 해당 조항을 무력화하는 조항이 몰래 추가됨
    • Altman은 해당 조항의 존재를 처음에 부인, Amodei가 직접 읽어주자 부인 철회
    • "그가 말하지 않았다. 방금 당신이 말했다" 는 식의 발언 사례가 반복됨 (Altman은 기억 없다고 부인)
  • Amodei는 Altman이 자신과 누나 Daniela를 '쿠데타 모의'로 몰았다고 주장, Daniela가 당사자 임원을 불러 확인하자 Altman이 "나는 그런 말 하지 않았다"고 발언
  • 2020년 Amodei 남매와 동료들이 퇴사해 Anthropic 창업

안전팀 해산과 자원 약속 불이행

  • 2023년 "슈퍼얼라이언트팀(superalignment team)" 창설 발표 시 "확보한 컴퓨팅 파워의 20%" 제공 약속
    • 실제 배정 자원은 1~2% 수준이었으며, 노후 클러스터와 저성능 칩이 배정됐다는 팀 내부 증언
    • 연구진은 “최신 칩은 수익 사업에만 사용됐다”고 주장했고, OpenAI는 이를 부인
    • 팀 리더 Jan Leike는 “이 약속은 인재 유지 수단이었다”고 언급
      • Murati에게 항의했으나 "현실적이지 않은 약속이었다"는 답변
  • Jan Leike는 이사회에 이메일을 보내 "OpenAI가 임무에서 탈선하고 있다, 제품·수익·AI 역량이 우선이고 안전이 세 번째"라고 경고
  • Carroll Wainwright: "GPT-4 출시 이후 제품 우선, 안전 경시가 지속됐다"
  • Altman은 GPT-4 Turbo 모델 출시 시 안전 승인이 필요 없다고 법무총괄을 언급했지만, 법무총괄은 Slack으로 "sam이 왜 그런 인상을 받았는지 모르겠다"고 답변
  • Sutskever는 AGI가 임박했다고 믿게 되면서 안전 문제에 집착하게 되었고, “모든 직원이 안전에 집중하지 않으면 망한다”고 경고
    • 그러나 Superalignment 팀은 결국 임무 완수 전에 해체되어 목표를 달성하지 못함
    • Sutskever와 Leike 동시 사임
  • IRS 공시에서 "가장 중요한 활동" 항목에 '안전' 개념이 삭제
  • Future of Life Institute의 최신 AI 기업 실존적 안전 평가에서 OpenAI는 F 학점 획득
  • Altman은 GPT-4의 일부 기능이 안전 패널의 승인을 받았다고 했으나, ‘fine-tuning’과 ‘personal assistant’ 기능은 승인되지 않음
    • Microsoft가 인도에서 안전 검토 없이 ChatGPT 초기 버전을 출시한 사실도 보고하지 않음
  • 연구원들은 OpenAI가 “제품 우선, 안전 후순위” 로 전환했다고 평가

영리 전환, 자산 구조, 개인 이해관계

  • 최초 '수익 상한 회사(capped profit)' 구조 → 2024년 10월 완전 영리법인으로 전환
    • 비영리 재단(OpenAI Foundation)은 26% 지분만 보유, 이사회 구성원 대부분이 영리 이사회와 중복
  • 이사회 멤버 Holden Karnofsky는 비영리법인 가치 저평가에 반대표를 던졌으나, 의사록에는 기권으로 기록 (동의 없이 변경된 정황)
  • 의회 청문회에서 "OpenAI 지분 없다, 사랑 때문에 한다"고 발언 — YC 펀드를 통한 간접 지분은 언급하지 않음
  • Brockman의 지분은 약 200억 달러 가치로 추정, Altman의 지분은 이보다 클 것으로 예상
  • 전 직원 증언: Altman이 "나는 돈보다 권력에 관심 있다"고 발언

중동 자금 조달과 지정학적 위험

  • 2016년 사우디 왕세자 Mohammed bin Salman과 첫 만남, 이후 수십억 달러 규모 투자 타진
    • 카쇼기 암살 1주일 후 사우디 미래도시 Neom 자문위원회에 합류, 이후 비판에 사임
    • 그러나 사임 후에도 "사우디 자금을 어떻게든 받을 수 있는가"를 고민했다는 정책 컨설턴트 증언
  • UAE 스파이마스터 Sheikh Tahnoon bin Zayed와 긴밀한 관계 유지, 자신의 X에 "절친한 개인 친구"라고 언급
    • UAE로부터 약 200만 달러짜리 Koenigsegg Regera, 약 2,000만 달러짜리 McLaren F1 수령 (회사 정책상 공시 완료라고 주장)
    • 2024년 Tahnoon의 2억 5,000만 달러짜리 초호화 요트 Maryah 방문
  • ChipCo 구상: 걸프 국가 자금으로 거대 반도체 파운드리·데이터센터 건설, 일부를 중동에 위치
    • 이사회에 사전 통보 없이 진행됐다는 이사회 멤버 증언
    • 미국 안보 당국: UAE 통신망의 Huawei 의존도, 미국 첨단 칩의 중국 유출 가능성, 군사 공격 취약성 등 우려
  • Biden 행정부: "UAE에 첨단 칩을 건설하지 않을 것"이라며 승인 거부
  • RAND Corporation 직원: 안보 허가 심사에서 "외국 정부로부터 수백억 달러를 조달 중인 사람"이라며 우려 표명, Altman은 절차에서 자진 철수
  • Trump 취임 이틀 후, Altman은 루스벨트룸에서 Stargate — 5,000억 달러 규모 AI 인프라 합작 프로젝트 — 발표
  • 이후 사우디·UAE로의 Stargate 확장 발표, Abu Dhabi에 센트럴파크의 7배 규모 데이터센터 캠퍼스 건설 계획

정치적 변신과 규제 로비

  • 2023년 상원 청문회에서 AI 규제를 직접 요청하는 듯한 발언으로 호감을 얻었으나, 수면 아래에서는 EU AI 규제 완화를 위한 로비를 진행
  • 캘리포니아 AI 안전법안(SB 1047)에 공개 반대하고 배후에서 위협적 압력을 행사
    • Ron Conway가 Pelosi·Newsom에게 로비, Newsom이 의회 통과 법안을 거부권 행사
    • OpenAI의 공식 입장은 "super PAC에 기부하지 않는다"지만, Brockman은 Leading the Future PAC에 5,000만 달러 기부 (같은 해 MAGA Inc.에 2,500만 달러 기부)
  • AI 안전법안 지지자 Nathan Calvin에게 소환장 발부, 법안 비판자들에게도 동일 조치
    • "기본적으로 입 다물게 하려는 것"이라는 관계자 발언
  • 2016년 트럼프를 "전례 없는 위협"이라 칭했던 Altman은 2024년 Trump 취임식 기금에 100만 달러 기부, Trump 측근으로 부상
    • Musk가 2억 5,000만 달러를 쏟아부어 도운 Trump와 거리가 멀어진 반면, Altman은 Trump의 사우디 방문에 동행

Anthropic vs. 미국 국방부 — OpenAI의 기회 포착

  • Anthropic은 완전 자율 무기 지원 및 국내 대량 감시 금지 원칙을 유지
    • 국방장관 Pete Hegseth가 마감 시한을 부여하며 원칙 철회 요구, Anthropic 거부
    • Hegseth는 Anthropic을 "공급망 위험"으로 지정(Huawei 등 중국 기업에 적용되던 블랙리스트 조치)
  • OpenAI·Google 등 직원들이 "We Will Not Be Divided" 공개 서한으로 Anthropic 지지
  • Altman은 Anthropic-국방부 갈등이 공개되기 전부터 이미 국방부와 협상 진행
    • Emil Michael 국방차관보가 Altman에게 연락, "그는 즉시 뛰어들었다, 애국자라고 생각한다"고 발언
    • 500억 달러 규모 AWS 통합 계약 발표, 미군이 OpenAI 모델 사용 시작
    • 계약 발표 당일 OpenAI 기업가치 1,100억 달러 상승, 동시에 시니어 직원 최소 2명 Anthropic으로 이직
  • 직원 우려 제기에 Altman: "이란 공습이 좋다고 생각하든 베네수엘라 침공이 나쁘다고 생각하든, 당신들이 관여할 수 없다"

알트만 신뢰성 논란 — 다양한 증언들

  • Altman은 세대 최고의 세일즈맨으로 불리며, Steve Jobs의 현실 왜곡장에 비견됨
    • 동료들은 그의 기만적 성향과 권력 의지를 문제로 지적
    • 일부는 그를 “사회병적 인물”로 표현하며, Aaron Swartz (YC 1기 동기) 도 생전 "Sam은 절대 신뢰해서는 안 된다, 소시오패스"라고 경고한 것으로 전해짐
  • Altman은 코딩이나 머신러닝 전문성은 부족하지만, 타인의 기술력과 자본을 결집시키는 능력으로 OpenAI를 성장시킴
    • 그는 제약 구조를 만들어두고 필요 시 이를 무력화하는 방식으로 행동
    • 관계자들은 그의 설득력을 “Jedi mind trick”에 비유
  • Microsoft 임원들은 Altman이 합의를 왜곡·파기했다고 주장
    • OpenAI는 Microsoft를 독점 클라우드 제공자로 지정하면서도 Amazon과 500억 달러 리셀 계약을 체결
    • Microsoft는 계약 충돌을 문제 삼았으나, OpenAI는 위반이 아니라고 주장
    • 한 임원은 Altman을 “Sam Bankman-Fried 수준의 사기꾼으로 기억될 수 있다”고 평가
  • Altman은 바이든 행정부민감 기술 수출 승인 정책 관련 논의에 참여했으나, 일부 관리들은 그의 중동 관련 야심을 우려
    • 트럼프 취임 직전, 타흐눈이 트럼프 일가 회사에 5억 달러 투자 후 Altman은 트럼프와 통화
    • 이후 백악관에서 5천억 달러 규모의 ‘Stargate’ AI 인프라 프로젝트를 발표
    • 트럼프 행정부는 AI 기술 수출 제한을 철회, Altman과 트럼프는 사우디 왕실을 방문
  • Yoon 전 이사: "마키아벨리적 악당이 아니라 자기 확신에 너무 빠진 사람, 현실 세계에 살지 않는 사람"
  • Altman의 누나 Annie는 성적 학대 주장 소송 제기, Altman은 전면 부인, 가족들도 "전혀 사실 무근"이라고 반박 (원문 확인 불가)
  • Altman: "경쟁사의 역겨운 행동, 미성년자 관련·살인 관여 등 모든 주장은 완전히 사실 무근"

AI 안전의 현재 — 약속과 현실의 간극

  • Anthropic은 3백억 달러 투자 유치 후 안전 약속을 완화, 속도 경쟁이 강화됨
    • Anthropic은 Palantir와 협력해 Claude 모델을 군사 시스템에 통합, 펜타곤 작전에 사용
    • 이후 공급망 위험 기업으로 지정되어 블랙리스트에 오름
  • OpenAI는 국방부와 협상을 진행해 AWS 기반 국방 인프라 통합 계약(500억 달러 규모) 을 체결
    • 같은 날 OpenAI의 기업가치가 1,100억 달러 상승, 일부 직원은 퇴사
  • 일부 임원은 Altman의 리더십에 심각한 거버넌스 문제가 있다고 평가
    • Fidji Simo가 후임 후보로 거론됨
  • OpenAI는 Superalignment 팀AGI 준비팀을 해체
    • SutskeverLeike가 퇴사하며 “안전보다 화려한 제품이 우선”이라 비판
    • IRS 보고서에서 ‘안전’ 항목이 삭제, Future of Life Institute의 존재적 안전 평가에서 F 등급을 받음
  • A.I. 무기화와 사회적 피해가 현실화
    • 2020년 리비아 내전에서 A.I. 드론이 인간 통제 없이 공격, 2022년 제약사 연구에서 4만 개의 화학무기 후보물질 생성
    • 딥페이크 음성을 이용한 선거 방해, 자살 및 살인 사건 관련 소송 등 피해 발생
  • OpenAI는 7건의 불법 사망 소송에 직면, ChatGPT가 피해자의 폭력을 부추겼다는 주장 포함
  • Altman은 여전히 “인류의 미래에 대한 희망” 을 강조하며, “미친 듯한 SF적 미래를 실현”하겠다고 발언
    • 주변 인물들은 그의 이상과 권력욕의 경계가 불분명하다고 평가
    • 그는 A.G.I.의 파괴 가능성을 경고하면서도, 자신이 이를 직접 만들어야 한다고 주장
  • 대형 언어모델의 아첨(sycophancy)환각(hallucination) 문제는 여전히 해결되지 않음
    • Altman은 “일부 허위 발언이 모델의 매력을 높인다”며 완전한 사실성보다 사용자 만족을 중시하는 입장을 보임
  • Altman: "내 느낌은 전통적 AI 안전 분야의 많은 것과 맞지 않는다" — 구체적 안전 계획 질문에는 "안전 관련 프로젝트를 계속할 것"이라는 모호한 답변

결론

  • Sam Altman은 OpenAI를 세계적 기업으로 성장시킨 인물이지만, 거짓말·권력 집중·안전 경시 논란이 지속
  • 내부 고발자와 동료들은 그를 “신뢰할 수 없는 리더” 로 평가하며, AGI 통제권 집중의 위험성을 경고
  • OpenAI는 여전히 인류의 미래를 좌우할 기술을 통제하는 조직으로, Altman의 신뢰성과 책임성이 핵심 쟁점으로 남아 있음
Hacker News 의견들
  • Ronan Farrow임. Andrew Marantz와 함께 18개월간의 조사를 진행했음. 리포팅에 대해 궁금한 점이 있으면 질문을 받겠음

    • 긴 프로젝트를 진행할 때 언제 ‘이제 끝났다’고 판단하는지 궁금함. 이런 대규모 조사는 마감 시점을 정하기가 어려울 것 같음. 편집자나 출판사로부터 자율성을 얼마나 받는지도 알고 싶음
    • 훌륭한 기사였음. 시의적절하고, 조사도 철저하며, 글 자체도 잘 쓰였음. 내가 아는 한에서는 정확함.
      OpenAI의 경쟁력 약화가 생각보다 심각하다는 이야기가 있음. LA Times 기사에서도 Anthropic이 앞서고 있다는 증거가 있다고 함.
      HN에서도 Claude를 더 선호하는 개발자가 많음. 검색 비교 결과도 ChatGPT보다 2배 많음.
      Ronan의 시각에서도 OpenAI의 현재 위치가 비슷하게 보이는지 궁금함
    • 기사에서 성적 학대 의혹 부분이 가장 혼란스러웠음. 특히 여동생의 주장과 ‘미성년자와의 관계’ 관련 내용이 거의 면죄부처럼 느껴졌음.
      Annie의 주장을 별도로 조사했는지 궁금함. 기사에서는 ‘회복된 기억은 신뢰할 수 없다’는 뉘앙스가 있는데, 이는 이미 False Memory Syndrome Foundation이 퍼뜨린 잘못된 인식임.
      나는 해리성 장애를 가진 사람으로서, 나중에 제3자에 의해 입증된 기억을 되찾은 경험이 있음. 이런 맥락에서 회복된 기억을 단순히 불신하는 건 위험하다고 생각함
    • Ronan Farrow가 HN에 등장하다니, 이제 진짜 모든 걸 다 본 느낌임
    • 이런 류의 탐사보도를 계속 이어가기 위해 어떤 지원이 필요할지 궁금함. HN 같은 커뮤니티 참여도 포함해서 말임
  • 기사에 인용된 Brockman의 일기 내용이 충격적이었음. “돈과 권력”을 원한다는 말이나 “1억 달러가 목표” 같은 문장을 실제로 적었다니, 상상력의 빈곤이 느껴짐.
    이런 사람들이 어떻게 이런 자리에 오르는지 의문이지만, 답은 이미 그의 일기에 있는 듯함. 이런 인물들이 계속 권력의 정점으로 올라가는 현실이 답답함

    • Altman, Zuckerberg, Nadella 같은 인물만의 문제가 아니라 업계 전반의 구조적 문제라고 봄.
      우리 중 절반은 부를 극대화하기 위해 도덕적으로 회색지대인 회사에서 일하기로 선택했음. 단지 대부분은 ‘억만장자’가 될 가능성이 없다고 생각할 뿐임
    • 실망스럽긴 하지만, 돈과 권력을 가장 원한 사람들이 결국 그걸 얻는 건 놀라운 일은 아님
    • 사회적 지위 게임에서 승리하는 것 외에는 이들에게 남은 게 없다고 생각함
  • 정말 세밀한 기사였음. 이런 심층 취재가 더 많아져야 함.
    다만 “Blip”을 마블 영화에 빗댄 표현을 읽을 때 본능적으로 약간의 거부감이 들었음. 이유는 잘 모르겠음

    • 마블 영화는 대중의 최소 공통분모를 겨냥한 상업 콘텐츠임.
      그런 작품을 인용하는 사람들이 미래 기술의 방향을 결정한다는 건 씁쓸함. 결국 취향의 빈곤이 문제임
  • 우리는 비판의 초점을 인물에 맞추는 경향이 있음. 하지만 진짜 문제는 시스템 구조임.
    Sam Altman의 행적이 논란이 많지만, AI가 사회와 자유에 미치는 위협은 그가 있든 없든 계속됨

    • 그 이유는 우리가 다양한 경제 시스템을 경험하지 못했기 때문임. 사람은 많이 알아도 시스템은 하나만 알고 있음
  • Altman과 그 주변 인물들이 AI의 초지능화나 중국의 AI 무기화는 걱정하면서, 정작 인간의 일자리가 사라지는 문제에는 무관심했던 게 흥미로웠음.
    어쩌면 걱정이 아니라, 세상의 모든 부를 자신들이 독점할 수 있다는 희망이었을지도 모름

  • 기사 덕분에 영어의 분음 부호(diaeresis) 사용법을 다시 찾아보게 되었음. 예를 들어 coördination 같은 단어에서 모음이 분리 발음될 때 쓰인다는 걸 새삼 알게 됨

    • 모든 모음 반복에 쓰이는 건 아님. 두 모음이 하나의 소리를 내지 않을 때만 사용함. 예를 들어 chicken coop에는 쓰이지 않음
  • 기사 보관 링크

  • 후속으로 읽기 좋은 글로 Harper’s의 “Child’s Play”도 추천함. 인물들의 성격 대비가 흥미로움

  • Altman의 Y Combinator 시절에 대한 세부 묘사가 놀라웠음. 정말 훌륭한 리포팅임

    • 이런 수준의 정밀하고 팩트체크된 보도는 문장 하나하나가 신중히 선택됨.
      실제로 이 기사도 문장별로 8시간 넘게 검토했다고 함. 기사에 쓰이지 않은 내용도 훨씬 더 많을 것임
  • LLM에 대한 그들의 시각이 흥미로웠음. 물론 변혁적이긴 하지만, 우리가 곧 사이버펑크식 미래를 살 것 같지는 않음. 기사에 AGI라는 단어가 너무 자주 등장함

    • 그 이유는 LLM이 화이트칼라 업무의 반복 작업에 특히 강하기 때문임.
      문서 작성이나 프레젠테이션에는 유용하지만, 복잡한 문제에 적용하면 한계가 명확히 드러남