12개월 내에 OpenAI가 4,000억 달러가 필요한 이유
(wheresyoured.at)- OpenAI는 향후 12개월 동안 4,000억 달러 이상의 자금을 조달해야 하는 상황에 직면함
- 이 금액은 대규모 데이터 센터 건설, AI 칩 계약, 인건비와 영업비용 등 막대한 확장 계획을 충족하기 위한 것임
- 데이터 센터 한 곳의 구축 비용만 50억~600억 달러로 추산되며, OpenAI는 2029년까지 33GW, 2033년까지 250GW의 용량 확보를 목표로 하고 있음
- 이러한 확장 속도 및 규모는 글로벌 금융 및 인프라 한계를 초과하여 실현 자체가 불가능에 가까운 수준임
- 현재 계획대로라면 OpenAI는 세계적 자본 시장을 심각하게 압박하는 동시에 투자자와 산업 전반에 심대한 위험을 초래하게 됨
개요
OpenAI가 앞으로의 대규모 데이터 센터 건설 및 칩 계약, 유지 비용 등 야심찬 계획을 추진하기 위해서는 전례 없는 속도로 자금을 확보해야 함. 내년 한 해 동안만 최소 4,000억 달러 이상이 필요하며, 이는 OpenAI 자체뿐 아니라 글로벌 금융 시스템 전체에도 상당한 부담을 의미함.
데이터 센터와 하드웨어 투자 현황
- OpenAI는 AMD, NVIDIA, Broadcom과 협력해 총 33GW의 데이터 센터 용량 확보를 약속했으며, 최종적으로는 2033년까지 250GW 확장을 목표로 함
- 데이터 센터 1GW 구축에는 최근 추산으로 최소 500억 달러 이상의 비용이 들며, 실제 입지 선정과 공사, 냉각 인프라, 각종 칩 및 네트워크 구매비가 포함됨
- 현재 공개된 여러 프로젝트와 계약들을 종합해볼 때, 2026년까지 현실적으로 건설 가능한 규모와 자금 조달 가능성에는 심각한 모순이 존재함
- 실제로 착공조차 시작하지 않은 데이터 센터가 많으며, 냉방/전력 인프라, 전문 인력, 칩 수급 등 현실적 제약이 큼
현실성 없는 계획과 시장 반응
- OpenAI와 주요 하드웨어 업체들은 비현실적으로 촉박한 일정과 금액을 약속하며, 이것이 미디어와 투자자들에게 정상인 듯 전달됨
- OpenAI가 제시한 성장세(주간 8억 명 사용자 등)도 분석상 중복 집계와 부풀려진 수치가 포함되어 있음
- GPT 4.5, GPT 5, Sora 등 최근 공개된 기술들이 기대 이하의 성과를 냈으나, 대규모 연구개발비만 투입되는 구조임
- 실질적 수익화가 어려운 상황에서 실사용자 수, 실제 서비스 가치 대비 투자 규모가 지나치게 과장되어 있음
12개월 내 필요한 자금 상세 내역
- Broadcom용 데이터 센터 구축: 약 500억 달러
- NVIDIA용 데이터 센터 구축: 최소 500억 달러
- AMD 협력 및 칩 구매: 500억 달러
- 2026년 컴퓨트 비용: 400억 달러
- ARM CPU 개발: 10억 달러
- 소비자 디바이스 등 기타: 5억 달러 이상
- 영업, 마케팅, 급여 등 운영비: 최소 100억 달러
- 총계: 약 4,000억 달러 (보다 많을 수 있음)
- 이 가운데 상당수는 2026년 2월까지 집중 조달이 필요함
글로벌 금융시스템과 OpenAI의 부담
- OpenAI가 계획대로 확장하면 글로벌 사모펀드, 벤처캐피털, IT 시장의 연간 투자 총액을 압도하는 수준의 자본이 필요함
- 각종 대규모 자금 조달(30~400억 달러 단위)이 해마다 반복적으로 발생해야 하며, 이는 현실적으로 불가능함
- OpenAI의 공격적이고 비현실적인 약속은 산업 전반에 거품과 리스크 확산을 초래하며, 투자자 및 파트너사에도 극심한 부담을 줌
결론 및 전망
OpenAI가 향후 12개월 내 완수해야 하는 목표와 필요한 자본 규모는 기존 IT·금융 시스템으로는 감당 불가한 수준임. 기업 가치와 실제 실적, 서비스 가치 간의 괴리가 심각하고, 이러한 확장이 진행될 경우 시장 불안정성, 거품 붕괴 위험, 일반 투자자 피해 가능성이 큼. 현재의 OpenAI 확장 전략은 전례 없는 대규모 모험자본 투입이 없으면 불가능하며, 그 실현 가능성에 대해 회의적인 시각이 지배적임.
Hacker News 의견
-
OpenAI의 성장률이 인상적이라고 생각하더라도, 두 달 만에 1억 명이 늘었다고 해서 지구상의 모든 인류가 항상 이 서비스를 쓸 것이라는 의미는 아니라는 관점이 있음. 반대로, 이런 빠른 증가 속도라면 인류 모두가 상시로 사용할 만한 잠재력이 있다는 주장도 가능함. 단, 성장 곡선이 S자를 그릴 수 있으니, 무한정 기하급수적인 성장은 아님을 경계해야 함
-
두 달 만에 1억 명 증가했다고 해서, 모든 인류가 항상 필요로 한다는 근거는 되지 않음. 인기와 유용성은 별개임. LLM 사용 증가가 생산성 등 지표에 미치는 영향에 대한 데이터가 더 설득력 있을 것임. 오히려 몇몇 연구에선 전문직 생산성 하락을 보이기도 했음. 관련 연구 보기
-
최근에서야 개인적으로 ChatGPT를 검색 대용 겸 소소하게 써봤음. 요즘 전통 검색이 워낙 엉망이라서, 애매한 상태의 복서가 70세의 챔피언과 싸우는 느낌임. 이게 언젠가 내 노트북에서 돌아가면 정말 쓸만한 도구가 될 수 있을 것 같음
-
OpenAI의 병목은 처음엔 GPU에서 에너지로 이동했음. 다음 병목은 ‘생체 인간’임. 아마 OpenAI가 더 많은 인류를 만들어 성장률을 유지하는 방법도 찾아낼 것이라는 농담도 있음
-
장기적으로 브라우저, OS, 스마트폰, 워드프로세서 등 광범위한 제품에 적당히 쓸만한 AI가 내장된다면, 대중을 위한 독립형 AI 시장은 굉장히 축소될 수 있음. 전문 툴이나 최신 연구, 코딩 도구는 계속 수요가 있겠지만, 이걸로 천조 단위 기업을 만드는 건 힘들다고 봄
-
실제로 $20씩 내고 가입하는 사람은 약 5%임. VR, AR처럼 공짜면 가끔 쓰지만 직접 결제할 정도로 필요하진 않음. LLM은 이미 상품화되었다고 생각함
-
-
기사 내용도 흥미로웠지만, 사실상 OpenAI나 Anthropic에 대한 가장 큰 위협은 오픈소스 모델임. deepseek, llama 3 같은 모델이 빠르게 따라오고 있어서, 거의 비슷한 기능을 훨씬 적은 돈이나 내 GPU로 공짜로 쓸 수 있으면 OpenAI가 내세울 가치가 무엇일지 의문임. 개인적으로는 OpenAI에 유료 가입했지만, 사실 편리함 때문에 그런 것이고, 수학 검증 등엔 괜찮게 사용 중임. 가격대를 생각하면 정말로 기업 필수 서비스가 될 수 있을지 의문임. 물론 OpenAI는 최고의 인재들이 모여 있고 투자도 받으니 내가 틀릴 수도 있음
-
deepseek과 llama 3 같은 오픈소스가 빠르게 따라온다고 하지만, 대규모 모델 학습은 엄청난 비용이 들고, 현재 오픈소스로 풀리는 것도 사실상 영리기업들이 오픈소스 생태계를 위해 손해를 감수하는 형태임. 이 회사들이 수익 추구로 ‘사다리 걷어차기’를 하면 대책이 있는지 궁금함
-
필자가 주장하려는 요점은, 실제 수치를 놓고 현실적으로 봐야 한다는 것임. 데이터센터를 짓고 운영할 사람을 구하는 데도 상당한 시간이 걸림. 현재 기사에서 제시하는 일정이 현실적으로 불가능하다는 주장임
-
단기간에 많은 돈을 투입하지만, 실제 수요 자체가 어디서 오는지, ‘llama를 내 GPU에서 직접 돌리는’ 식의 셀프 서비스 모델이 수익에 얼마나 기여하는지 의문임. 뭔가 석연치 않음
-
내 GPU로 deepseek이나 kimi, glm을 빠르게 돌리려면 하드웨어에만 최소 $50,000 이상 필요함. 오픈AI나 Anthropic에 근접하는 성능 내려면 수백 GB 이상의 고속 VRAM이 필요함
-
사람들이 OpenAI를 쓰는 이유는 대부분 IT에 미숙하기 때문임. 현실에서 광고차단기 쓰는 일반인은 거의 없음. OpenAI는 대중의 인식 속에 자리잡았음. 만약 구글처럼 광고를 밀어 넣었으면 더 강력한 입지를 다질 수 있었겠지만, 거품 경제와 투자 사기 쪽을 택한 건 오산임
-
-
모두 진정할 필요가 있음. Altman이 다 알아서 할 것임. 47일 후에는 ChatGPT 6 Recurd라는 상품이 나와서 모두를 놀라게 할 건데, 더 좋은 모델 대신 예전 모델을 재활용하고, 10개의 ChatGPT 6 요금제를 자동으로 추가 구매해서 훨씬 더 잘 돌아감. 이후 더 빠르게 업그레이드하면서 반복적으로 성능이 1%씩 오르는 구조임. 초-기하급수적인 성장을 과소평가하기 쉬움. 2026년 초가 되면, 인류 고객 수에 제한 없이 수조 개의 라이선스를 팔 것임. Altman은 이 모든 것을 위한 전용 코인과 자동 대출 시스템, 컴퓨트 선물 거래까지 계획해두었음. 완전히 새로운 세상임. ‘Alt/World!’란 신세계임
-
왜 데이터센터를 ‘기가와트’ 단위로 측정하는지 궁금함. 실제 계산 성능(flops 등)으로 측정하진 않는 이유가 뭔지? 사실 나도 ‘1 GW’ 데이터센터를 6502 CPU 하나와 저항기 뭉치로도 만들 수 있겠다는 생각이 듦
-
그 이유는 전기 용량과 냉각이 데이터센터 건립에 가장 큰 제약 조건이기 때문임. 컴퓨트 성능은 시간이 지나면서 많이 변하고, 실제론 GB200 같은 최신 칩 기준 1GW면 약 5엑사플롭스 계산이 가능함(정밀도 등에 따라 다름)
-
나도 최근 소규모지만 HW/데이터센터 운영 경험을 쌓으면서 느낀 건, GPU만큼이나 스위치·방화벽·스토리지 등도 모두 전력과 냉각을 많이 소모한다는 것임. 일정 규모가 넘어가면 최대 계산 성능이나 Hz, GB가 아니라, 얼마나 많은 전력을 투입하고 열을 밖으로 뺄 수 있는지가 핵심 제약임. 예를 들어 항만에서 태양광 잉여 전력을 대규모 저항기로 소진하는 프로젝트도 있음. 안전하게 고압 전원망에 연결하고 열을 신속히 배출하는 게 문제임
-
하드웨어, 워크로드마다 계산 성능 단위가 달라서, 보편적인 측정이 사실상 불가함. 파워 용량=해당 시점에 가능한 최대 컴퓨트 용량의 근사치라고 보면 됨. 지역별, 냉각 방식별 등 다양한 변수도 커버됨
-
뒷면적 산술로는 1GW로 약 14억 3천만 개 6502 칩을 돌릴 수 있음
-
실제 단위가 ‘파워’인 이유는 이것이 모든 비용(컴퓨트 효율, 장비투자, 확장성 등)의 최종 단위이기 때문임
-
-
데이터센터 건립에 들어가는 초기 자본보다, 전기 공급업체가 진짜 산업의 제약임을 강조하고 싶음. 지금 북미 전력망은 공급이 매우 부족함. 실제로 대규모 데이터센터가 쓸 수 있는 여분 전력 공급량이 얼마나 되는지, 언제쯤 추가 증설이 가능한지, 깊이 있는 조사가 필요함. 발전소 건설은 엄청나게 느린 사업임. 데이터센터 투자 계획들은 대부분 전력 용량이 ‘마법처럼’ 나타나리라 또는 경쟁이 존재하지 않는다는 가정 하에 돌아가는 듯함
- 왜 이런 부분이 더 많이 논의되지 않는지 이해할 수 없을 정도임
-
‘OpenAI가 앞으로 1년간 $4천억을 쏟는다’는 주장엔 문제가 있음. 실제론 OpenAI가 직접 투자하는 게 아니라, Oracle 등에서 데이터센터를 짓고 OpenAI는 임대료를 지불하는 방식임. 임대 계약이므로 건설비를 전부 들고 시작하지 않음. 예시로, OpenAI는 2027/2028년부터 연 $300억대 수준으로 임대료를 내게 되고, 5년간 점진적으로 늘어남. NVIDIA, AMD도 milestone이나 칩 도입에 따라 투자분 돌려받고, 오히려 공급업체가 OpenAI 성장에 ‘베팅’하며 신용을 제공하는 구조임. 굉장히 특이하고 불안정할 순 있지만 ‘당장 4천억 현금을 보유해야 한다’는 건 잘못된 논리임. 실제 관건은 OpenAI 매출이 2028~2029년까지 최소 $600~700억으로 성장할 수 있느냐임. 주장이 성립하지 않으며, 오히려 실행 타임라인과 매출 성장 진척이 리스크임. 참고 링크: CNBC - OpenAI 데이타센터, w.media - Oracle 임대 계약, CNBC - Nvidia 협력, TechCrunch - AMD 칩 공급
-
Ed Zitron이 애널리스트로서 잘못된 주장과 사실적 오류가 많음. ‘추론 비용’이 올라간다고 우긴 점도 포스팅으로 다룸 관련 글
-
OpenAI의 WAU(주간 활성 사용자)는 연율로 대략 122.8% 증가 중이지만, 최근 10개월 전 461.8%에서 감소함. 성장률이 안정화된다면 2028년 말까지 연매출 최대 $1,040억, 64억 WAU에 도달할 수 있음. 수치는 장담 못하지만, Oracle과 Nvidia는 이를 전제로 자체 주가를 유지해야 하는 셈임. 실제론 성장 감속이 2달마다 약 20% 수준이라, 내년 이맘때쯤 12억 WAU, 그 다음 해엔 14억 WAU까지밖에 기대하기 어려움. 구글, 페이스북 대비 여전히 낮은 수치임
-
OpenAI가 임대를 통해 ‘버티는 구조’인 만큼, 실질적으로 위험 부담은 점점 더 후순위 투자자나 국민·연금 가입자 등에게 넘어감 Turtles all the way down 참조
-
-
Sora 2, 애니메이션 논란을 보며, 평균적인 방송 애니 한 시즌/영화가 $1,000~2,000만이면 제작 가능하다고 확인함. 실제 Sora 2 개발비가 얼마일지 몰라도, 천억~조단위라면 이런 애니 수천 편을 만들 수 있겠음. LLM과는 거리가 있지만, 결국 AI가 전문 인력을 대체한다 해도 그만큼 투자 대비 이득이 합리적일지 의문임
-
사실 Sora 2의 개발비는 수십억 단위가 아닌 훨씬 적을 것 같음
-
Sora 2로 실제 ‘쇼’를 제작할 수 있는지 의문임. 항상 숏폼 영상 얘기만 들었지, 정식 시리즈 만드는 건 아직 기술적 도약이 필요해 보임
-
Sora, Google Flow 같은 도구로 앞으로 아마추어도 저렴하게 전문적인 퀄리티의 콘텐츠를 생산할 수 있음. 수천 개 애니를 만드는 것이 불가능한 영역이 아님
-
이런 초대형 투자는 단순한 챗봇 ROI 이상의 무언가로 상쇄되어야만 옳다고 생각함
-
-
이렇게 많은 돈이 실제로 얼마나 빨리 전원공장, 데이터센터, 실리콘 설계·생산 등에 투입될 수 있을지, 인프라 산업도 급격한 버블 뒤 대조정 국면을 겪을지, 아니면 진짜 산업혁명급 대전환이 올지 궁금함. 고보안 임베디드 시스템 인프라 스타트업 공동창업 제안도 있음
- 금 재활용 말고는 테크 산업에서 진정한 의미의 ‘지속 가능’은 존재하지 않는다고 생각함
-
Anthropic은 왜 비슷한 자본 수요가 없는가에 대한 질문 있음
-
Anthropic은 비용 공개에 더 보수적임. Ed Zitron이 지금 GCP 비용을 집중적으로 추적 중임
-
‘AGI’ 구축 관련된 논의라 Anthropic의 현 서비스와는 별개임. 또 지능이 연산량에 따라 무한정 늘어난다는 보장도 없음
-
Anthropic도 사실 비슷한 투자 필요가 있을 것 같음. 다만 필자가 OpenAI 중심으로 다루는 듯함
-
성장세가 이어진다면 Anthropic도 대규모 투자가 필요해질 것임
-
Anthropic은 overflow 시 TPU를 더 적극적으로 쓰는 듯함. 최근 Claude 성능 저하는 TPU 및 구현차 버그 때문이었고, 이들의 Nvidia/TPU 혼합 운용에 대해 어느정도 추정할 수 있었음. OpenAI가 Google 인프라에 가중치를 배포했다는 얘기는 아직 없는 듯함
-
-
데이터센터의 capex 모델도 목표가 100% 활용도이고, node uptime(가용성)보단 capex 효율이 중요하다면 어떻게 바뀔 수 있을지 묻고 싶음. NVidia 등 마진 조절에 따라 1~2자릿수까지 비용이 내려갈 여지가 있다고 봄. OpenAI가 기존과 다른 낮은 신뢰도의 데이터센터를 값싼 입지에 건설한다면, 현실성이 조금은 있다고 생각함. 다만, OpenAI는 내년까지 400억 달러 이상을 데이터센터에 쏟아부을 가능성이 높음. 기존 데이터센터는 가용성에 매우 민감하지만, 이 정도 규모에서 OpenAI는 랙 uptime이나 시설 전체 uptime에 그렇게 신경 쓰지 않을 거라고 봄
- 직접 수치 계산해본 사람들은 여전히 Tier IV급 신뢰도를 원함. ‘Tier 0’급(최저가 신뢰도)의 암호화폐 마이닝 데이터센터가 실제로 AI 용도로 전환된 사례는 본 적 없음