12개월 내에 OpenAI가 4,000억 달러가 필요한 이유
(wheresyoured.at)- OpenAI는 향후 12개월 동안 4,000억 달러 이상의 자금을 조달해야 하는 상황에 직면함
 - 이 금액은 대규모 데이터 센터 건설, AI 칩 계약, 인건비와 영업비용 등 막대한 확장 계획을 충족하기 위한 것임
 - 데이터 센터 한 곳의 구축 비용만 50억~600억 달러로 추산되며, OpenAI는 2029년까지 33GW, 2033년까지 250GW의 용량 확보를 목표로 하고 있음
 - 이러한 확장 속도 및 규모는 글로벌 금융 및 인프라 한계를 초과하여 실현 자체가 불가능에 가까운 수준임
 - 현재 계획대로라면 OpenAI는 세계적 자본 시장을 심각하게 압박하는 동시에 투자자와 산업 전반에 심대한 위험을 초래하게 됨
 
개요
- OpenAI가 앞으로의 대규모 데이터 센터 건설 및 칩 계약, 유지 비용 등 야심찬 계획을 추진하기 위해서는 전례 없는 속도로 자금을 확보해야 함
- 내년 한 해 동안만 최소 4,000억 달러 이상이 필요하며, 이는 OpenAI 자체뿐 아니라 글로벌 금융 시스템 전체에도 상당한 부담을 의미함
 
 - 최근 발표된 10GW급 커스텀 칩 협업, 다수 GW급 배치 약속을 “합리적·실행가능”으로 보도하는 기류에 이견이 있음
- 1GW 구축 단가를 500억 달러로 상향하고, 건물·전력 인프라·네트워킹까지 포함한 총비용을 반영해야 한다고 봄
 - 그래서 최소 2.5년의 리드타임과 예비 전력 용량을 고려하면 일정상 불가능에 가깝다고 판단함
 
 - 과거 추정(325억 달러/GW)을 500억 달러/GW로 올린 이유는 칩 가격·네트워킹·부대 인프라·타사 분담 과소계상 보정 필요 때문이라고 봄
- 예로 GB200/Blackwell 단가·대수 가정, Lancium 조달, 8동/50,000 GPU 규모 등 상승 요인이 있음
 
 
2026년 하반기 타임라인 점검
- 
Broadcom: 2026년 하반기 추론용 칩 테이프아웃·양산·1GW 배치 목표 제시
- 입지 미정·착공 전 상태, IT 1GW당 총 전력 1.2~1.3GW 필요 등으로 일정 충돌 가능성 큼
 
 - 
AMD: 2026년 하반기 MI450 1GW 1차 배치 계획
- 해당 시점 완공을 위해선 전년도 조달·전력 계약·착공이 선행돼야 함
 
 - 
NVIDIA: 2026년 하반기 Vera Rubin 1GW 배치 계획
- 마찬가지로 사이트·전력·공사가 이미 진행 중이어야 맞춰짐
 
 - 보수적으로 잡아도 1000억 달러+ 가 필요하며, 현금 선집행 또는 대규모 컨소시엄이 불가피함
 
수요·트래픽·용량 주장에 대한 회의
- 
주간 8억 MAU 수치의 중복 집계 가능성과 2033년 250GW·10조 달러 계획은 비현실이라고 봄
- 2024년 전세계 DC IT 부하 55GW 추정을 감안하면, 단일 기업이 8년간 5배 증설은 전례가 없음
 
 - 
제품력 면에서 최근 GPT-4.5·GPT-5·Sora 2의 성과 부진·제한을 감안할 때, 막대한 R&D 소각 대비 산출물 가치가 의문
- 2024~2025년 R&D 110~120억 달러대 지출 가운데 실사용 모델 훈련 비용은 제한적이었다는 외부 분석을 참고함
 
 
12개월 내 필요 자금 항목(저자 추산)
- Broadcom용 1GW: 약 500억 달러
 - NVIDIA용 1GW + 칩 구매: 약 500억 달러
 - 2026년 컴퓨트 비용(Oracle·CoreWeave·Azure·GCP 경유): 약 400억 달러
 - AMD용 1GW + 칩 구매: 약 500억 달러
 - 소비자 디바이스 개발: 약 5억 달러
 - ARM 기반 CPU 설계 협력: 약 10억 달러
 - 
영업·마케팅·급여 등 기타 OPEX 보정: 약 100억 달러
- 총합 3,915억 달러 ≈ 4,000억 달러, 2026년 2월 이전 대규모 현금 소요 필요
 
 
재무적 제약과 구조적 리스크
- 2025년 상반기 기준 R&D 67억 달러, S&M 20억 달러 지출 추정 맥락에서 현금 유출 지속
- 2026년 상반기 컴퓨트 92억 달러 소진, 매출 43억 달러 수준 추정과의 역마진 구조
 
 - 
비영리→영리 전환 기한과 소프트뱅크 200억 달러 조건부 등 거버넌스·계약상 마일스톤 리스크
- 2024년 66억 달러 라운드의 2026년 10월 부채 전환 조건도 부담
 
 
오라클·코어웨이브 등 인프라 딜의 현실성
- 
Oracle 5년 3,000억 달러 계약 이행엔 IT 4.5GW 필요하다고 추정
- Stargate Abilene은 현재 200MW 전력만 확보, 예비전력 고려 시 IT 130MW 수준
 - Shackelford 1.4GW 부지는 착공 초기, 첫 동 H2 2026 목표로 완전 가동은 2027년 이후로 보정 필요
 
 - CoreWeave의 2025년 말 최대 900MW 수준 언급을 감안할 때, ‘2025년 2GW 운용’ 과의 괴리가 큼
 
자본시장·공급망·전력망의 한계
- 필요한 자금은 2024년 전세계 VC 3,680억 달러를 상회, 사모펀드 딜·글로벌 교역과 비교해도 흡수 한계가 분명
 - 변압기·전력철강·HV 인프라·냉각·전력계통 예비율·숙련 인력 등 동시 병목이 존재, 일정상 충돌 불가피
 - 이 일련의 공표가 주가·딜 드라이브용 내러티브 성격이 강하고, 실행 가능성은 낮다고 결론지음
 
결론
- 시간·자금·자원·규제·전력 다각도의 현실 제약으로 2026년까지의 공언 일정 달성이 극히 어려움
 - 향후 12개월 내 4,000억 달러 조달은 전세계 자본시장 흡수력 관점에서도 한계가 크며, 미이행 시 신뢰 리스크 확대 가능성 존재
 - 요지는 과장된 용량 공약 대비 수요·제품력·현금흐름의 부조화로, 계획 재현실화·거버넌스 정비·자금조달 구조 재설계 없이는 지속 불가능하다는 경고임
 
Hacker News 의견
- 
OpenAI의 성장률이 인상적이라고 생각하더라도, 두 달 만에 1억 명이 늘었다고 해서 지구상의 모든 인류가 항상 이 서비스를 쓸 것이라는 의미는 아니라는 관점이 있음. 반대로, 이런 빠른 증가 속도라면 인류 모두가 상시로 사용할 만한 잠재력이 있다는 주장도 가능함. 단, 성장 곡선이 S자를 그릴 수 있으니, 무한정 기하급수적인 성장은 아님을 경계해야 함
- 
두 달 만에 1억 명 증가했다고 해서, 모든 인류가 항상 필요로 한다는 근거는 되지 않음. 인기와 유용성은 별개임. LLM 사용 증가가 생산성 등 지표에 미치는 영향에 대한 데이터가 더 설득력 있을 것임. 오히려 몇몇 연구에선 전문직 생산성 하락을 보이기도 했음. 관련 연구 보기
 - 
최근에서야 개인적으로 ChatGPT를 검색 대용 겸 소소하게 써봤음. 요즘 전통 검색이 워낙 엉망이라서, 애매한 상태의 복서가 70세의 챔피언과 싸우는 느낌임. 이게 언젠가 내 노트북에서 돌아가면 정말 쓸만한 도구가 될 수 있을 것 같음
 - 
OpenAI의 병목은 처음엔 GPU에서 에너지로 이동했음. 다음 병목은 ‘생체 인간’임. 아마 OpenAI가 더 많은 인류를 만들어 성장률을 유지하는 방법도 찾아낼 것이라는 농담도 있음
 - 
장기적으로 브라우저, OS, 스마트폰, 워드프로세서 등 광범위한 제품에 적당히 쓸만한 AI가 내장된다면, 대중을 위한 독립형 AI 시장은 굉장히 축소될 수 있음. 전문 툴이나 최신 연구, 코딩 도구는 계속 수요가 있겠지만, 이걸로 천조 단위 기업을 만드는 건 힘들다고 봄
 - 
실제로 $20씩 내고 가입하는 사람은 약 5%임. VR, AR처럼 공짜면 가끔 쓰지만 직접 결제할 정도로 필요하진 않음. LLM은 이미 상품화되었다고 생각함
 
 - 
 - 
기사 내용도 흥미로웠지만, 사실상 OpenAI나 Anthropic에 대한 가장 큰 위협은 오픈소스 모델임. deepseek, llama 3 같은 모델이 빠르게 따라오고 있어서, 거의 비슷한 기능을 훨씬 적은 돈이나 내 GPU로 공짜로 쓸 수 있으면 OpenAI가 내세울 가치가 무엇일지 의문임. 개인적으로는 OpenAI에 유료 가입했지만, 사실 편리함 때문에 그런 것이고, 수학 검증 등엔 괜찮게 사용 중임. 가격대를 생각하면 정말로 기업 필수 서비스가 될 수 있을지 의문임. 물론 OpenAI는 최고의 인재들이 모여 있고 투자도 받으니 내가 틀릴 수도 있음
- 
deepseek과 llama 3 같은 오픈소스가 빠르게 따라온다고 하지만, 대규모 모델 학습은 엄청난 비용이 들고, 현재 오픈소스로 풀리는 것도 사실상 영리기업들이 오픈소스 생태계를 위해 손해를 감수하는 형태임. 이 회사들이 수익 추구로 ‘사다리 걷어차기’를 하면 대책이 있는지 궁금함
 - 
필자가 주장하려는 요점은, 실제 수치를 놓고 현실적으로 봐야 한다는 것임. 데이터센터를 짓고 운영할 사람을 구하는 데도 상당한 시간이 걸림. 현재 기사에서 제시하는 일정이 현실적으로 불가능하다는 주장임
 - 
단기간에 많은 돈을 투입하지만, 실제 수요 자체가 어디서 오는지, ‘llama를 내 GPU에서 직접 돌리는’ 식의 셀프 서비스 모델이 수익에 얼마나 기여하는지 의문임. 뭔가 석연치 않음
 - 
내 GPU로 deepseek이나 kimi, glm을 빠르게 돌리려면 하드웨어에만 최소 $50,000 이상 필요함. 오픈AI나 Anthropic에 근접하는 성능 내려면 수백 GB 이상의 고속 VRAM이 필요함
 - 
사람들이 OpenAI를 쓰는 이유는 대부분 IT에 미숙하기 때문임. 현실에서 광고차단기 쓰는 일반인은 거의 없음. OpenAI는 대중의 인식 속에 자리잡았음. 만약 구글처럼 광고를 밀어 넣었으면 더 강력한 입지를 다질 수 있었겠지만, 거품 경제와 투자 사기 쪽을 택한 건 오산임
 
 - 
 - 
모두 진정할 필요가 있음. Altman이 다 알아서 할 것임. 47일 후에는 ChatGPT 6 Recurd라는 상품이 나와서 모두를 놀라게 할 건데, 더 좋은 모델 대신 예전 모델을 재활용하고, 10개의 ChatGPT 6 요금제를 자동으로 추가 구매해서 훨씬 더 잘 돌아감. 이후 더 빠르게 업그레이드하면서 반복적으로 성능이 1%씩 오르는 구조임. 초-기하급수적인 성장을 과소평가하기 쉬움. 2026년 초가 되면, 인류 고객 수에 제한 없이 수조 개의 라이선스를 팔 것임. Altman은 이 모든 것을 위한 전용 코인과 자동 대출 시스템, 컴퓨트 선물 거래까지 계획해두었음. 완전히 새로운 세상임. ‘Alt/World!’란 신세계임
 - 
왜 데이터센터를 ‘기가와트’ 단위로 측정하는지 궁금함. 실제 계산 성능(flops 등)으로 측정하진 않는 이유가 뭔지? 사실 나도 ‘1 GW’ 데이터센터를 6502 CPU 하나와 저항기 뭉치로도 만들 수 있겠다는 생각이 듦
- 
그 이유는 전기 용량과 냉각이 데이터센터 건립에 가장 큰 제약 조건이기 때문임. 컴퓨트 성능은 시간이 지나면서 많이 변하고, 실제론 GB200 같은 최신 칩 기준 1GW면 약 5엑사플롭스 계산이 가능함(정밀도 등에 따라 다름)
 - 
나도 최근 소규모지만 HW/데이터센터 운영 경험을 쌓으면서 느낀 건, GPU만큼이나 스위치·방화벽·스토리지 등도 모두 전력과 냉각을 많이 소모한다는 것임. 일정 규모가 넘어가면 최대 계산 성능이나 Hz, GB가 아니라, 얼마나 많은 전력을 투입하고 열을 밖으로 뺄 수 있는지가 핵심 제약임. 예를 들어 항만에서 태양광 잉여 전력을 대규모 저항기로 소진하는 프로젝트도 있음. 안전하게 고압 전원망에 연결하고 열을 신속히 배출하는 게 문제임
 - 
하드웨어, 워크로드마다 계산 성능 단위가 달라서, 보편적인 측정이 사실상 불가함. 파워 용량=해당 시점에 가능한 최대 컴퓨트 용량의 근사치라고 보면 됨. 지역별, 냉각 방식별 등 다양한 변수도 커버됨
 - 
뒷면적 산술로는 1GW로 약 14억 3천만 개 6502 칩을 돌릴 수 있음
 - 
실제 단위가 ‘파워’인 이유는 이것이 모든 비용(컴퓨트 효율, 장비투자, 확장성 등)의 최종 단위이기 때문임
 
 - 
 - 
데이터센터 건립에 들어가는 초기 자본보다, 전기 공급업체가 진짜 산업의 제약임을 강조하고 싶음. 지금 북미 전력망은 공급이 매우 부족함. 실제로 대규모 데이터센터가 쓸 수 있는 여분 전력 공급량이 얼마나 되는지, 언제쯤 추가 증설이 가능한지, 깊이 있는 조사가 필요함. 발전소 건설은 엄청나게 느린 사업임. 데이터센터 투자 계획들은 대부분 전력 용량이 ‘마법처럼’ 나타나리라 또는 경쟁이 존재하지 않는다는 가정 하에 돌아가는 듯함
- 왜 이런 부분이 더 많이 논의되지 않는지 이해할 수 없을 정도임
 
 - 
‘OpenAI가 앞으로 1년간 $4천억을 쏟는다’는 주장엔 문제가 있음. 실제론 OpenAI가 직접 투자하는 게 아니라, Oracle 등에서 데이터센터를 짓고 OpenAI는 임대료를 지불하는 방식임. 임대 계약이므로 건설비를 전부 들고 시작하지 않음. 예시로, OpenAI는 2027/2028년부터 연 $300억대 수준으로 임대료를 내게 되고, 5년간 점진적으로 늘어남. NVIDIA, AMD도 milestone이나 칩 도입에 따라 투자분 돌려받고, 오히려 공급업체가 OpenAI 성장에 ‘베팅’하며 신용을 제공하는 구조임. 굉장히 특이하고 불안정할 순 있지만 ‘당장 4천억 현금을 보유해야 한다’는 건 잘못된 논리임. 실제 관건은 OpenAI 매출이 2028~2029년까지 최소 $600~700억으로 성장할 수 있느냐임. 주장이 성립하지 않으며, 오히려 실행 타임라인과 매출 성장 진척이 리스크임. 참고 링크: CNBC - OpenAI 데이타센터, w.media - Oracle 임대 계약, CNBC - Nvidia 협력, TechCrunch - AMD 칩 공급
- 
Ed Zitron이 애널리스트로서 잘못된 주장과 사실적 오류가 많음. ‘추론 비용’이 올라간다고 우긴 점도 포스팅으로 다룸 관련 글
 - 
OpenAI의 WAU(주간 활성 사용자)는 연율로 대략 122.8% 증가 중이지만, 최근 10개월 전 461.8%에서 감소함. 성장률이 안정화된다면 2028년 말까지 연매출 최대 $1,040억, 64억 WAU에 도달할 수 있음. 수치는 장담 못하지만, Oracle과 Nvidia는 이를 전제로 자체 주가를 유지해야 하는 셈임. 실제론 성장 감속이 2달마다 약 20% 수준이라, 내년 이맘때쯤 12억 WAU, 그 다음 해엔 14억 WAU까지밖에 기대하기 어려움. 구글, 페이스북 대비 여전히 낮은 수치임
 - 
OpenAI가 임대를 통해 ‘버티는 구조’인 만큼, 실질적으로 위험 부담은 점점 더 후순위 투자자나 국민·연금 가입자 등에게 넘어감 Turtles all the way down 참조
 
 - 
 - 
Sora 2, 애니메이션 논란을 보며, 평균적인 방송 애니 한 시즌/영화가 $1,000~2,000만이면 제작 가능하다고 확인함. 실제 Sora 2 개발비가 얼마일지 몰라도, 천억~조단위라면 이런 애니 수천 편을 만들 수 있겠음. LLM과는 거리가 있지만, 결국 AI가 전문 인력을 대체한다 해도 그만큼 투자 대비 이득이 합리적일지 의문임
- 
사실 Sora 2의 개발비는 수십억 단위가 아닌 훨씬 적을 것 같음
 - 
Sora 2로 실제 ‘쇼’를 제작할 수 있는지 의문임. 항상 숏폼 영상 얘기만 들었지, 정식 시리즈 만드는 건 아직 기술적 도약이 필요해 보임
 - 
Sora, Google Flow 같은 도구로 앞으로 아마추어도 저렴하게 전문적인 퀄리티의 콘텐츠를 생산할 수 있음. 수천 개 애니를 만드는 것이 불가능한 영역이 아님
 - 
이런 초대형 투자는 단순한 챗봇 ROI 이상의 무언가로 상쇄되어야만 옳다고 생각함
 
 - 
 - 
이렇게 많은 돈이 실제로 얼마나 빨리 전원공장, 데이터센터, 실리콘 설계·생산 등에 투입될 수 있을지, 인프라 산업도 급격한 버블 뒤 대조정 국면을 겪을지, 아니면 진짜 산업혁명급 대전환이 올지 궁금함. 고보안 임베디드 시스템 인프라 스타트업 공동창업 제안도 있음
- 금 재활용 말고는 테크 산업에서 진정한 의미의 ‘지속 가능’은 존재하지 않는다고 생각함
 
 - 
Anthropic은 왜 비슷한 자본 수요가 없는가에 대한 질문 있음
- 
Anthropic은 비용 공개에 더 보수적임. Ed Zitron이 지금 GCP 비용을 집중적으로 추적 중임
 - 
‘AGI’ 구축 관련된 논의라 Anthropic의 현 서비스와는 별개임. 또 지능이 연산량에 따라 무한정 늘어난다는 보장도 없음
 - 
Anthropic도 사실 비슷한 투자 필요가 있을 것 같음. 다만 필자가 OpenAI 중심으로 다루는 듯함
 - 
성장세가 이어진다면 Anthropic도 대규모 투자가 필요해질 것임
 - 
Anthropic은 overflow 시 TPU를 더 적극적으로 쓰는 듯함. 최근 Claude 성능 저하는 TPU 및 구현차 버그 때문이었고, 이들의 Nvidia/TPU 혼합 운용에 대해 어느정도 추정할 수 있었음. OpenAI가 Google 인프라에 가중치를 배포했다는 얘기는 아직 없는 듯함
 
 - 
 - 
데이터센터의 capex 모델도 목표가 100% 활용도이고, node uptime(가용성)보단 capex 효율이 중요하다면 어떻게 바뀔 수 있을지 묻고 싶음. NVidia 등 마진 조절에 따라 1~2자릿수까지 비용이 내려갈 여지가 있다고 봄. OpenAI가 기존과 다른 낮은 신뢰도의 데이터센터를 값싼 입지에 건설한다면, 현실성이 조금은 있다고 생각함. 다만, OpenAI는 내년까지 400억 달러 이상을 데이터센터에 쏟아부을 가능성이 높음. 기존 데이터센터는 가용성에 매우 민감하지만, 이 정도 규모에서 OpenAI는 랙 uptime이나 시설 전체 uptime에 그렇게 신경 쓰지 않을 거라고 봄
- 직접 수치 계산해본 사람들은 여전히 Tier IV급 신뢰도를 원함. ‘Tier 0’급(최저가 신뢰도)의 암호화폐 마이닝 데이터센터가 실제로 AI 용도로 전환된 사례는 본 적 없음