5P by GN⁺ 2일전 | ★ favorite | 댓글 2개
  • AI 데이터센터 자본지출이 미국 및 글로벌 경제에서 전례 없이 큰 비중을 차지하게 되었음
  • 미국 2025년 AI 관련 데이터센터 투자가 GDP의 약 2% 에 달하며, 이는 0.7%의 GDP 성장 기여로 추정됨
  • 이 거대한 투자금은 기존 제조업, 인프라, 기타 벤처 투자에서 빠져나와 AI 중심으로 집중되고 있음
  • 이러한 현상은 철도, 통신 인프라 투자 붐에 비견될 정도로 빠르게 확산 중이며, 이미 과거 통신 인프라 투자 피크를 넘어섬
  • 결과적으로 AI 데이터센터 투자가 경기 하강을 완화하는 동시에, 다른 산업의 자금 고갈 및 대규모 구조조정, 고용 감소 현상까지 유발하고 있음

Updates & Erasures

  • 미국 연준 의사당 리노베이션 관련 논란이 지속되는 가운데, 공공 지출에 대한 비판이 이어짐
  • 최근 기사에서 중앙은행 건물 리노베이션을 두고 정부 관계자들이 불만을 표시하고 있음
  • Powell 연준 의장의 리더십과 건물 리노베이션 사이에서 풍자와 불만이 오가는 상황임

Honey, AI Capex Ate the Economy

AI 데이터센터 자본지출 현황

  • AI 데이터센터 투자 규모가 너무 커서, 중국의 시진핑조차 각 지방 정부에 AI, 컴퓨팅, 신에너지 산업 투자를 경계하라는 경고를 했음
  • 중국 내 데이터센터 신설 건수만 250개가 넘으며, 전 세계적으로 AI 인프라에 대한 투자 열기가 확산 중임
  • 미국의 경우 Nvidia 데이터센터 매출을 근거로 추정 시, 2025년 AI 자본지출(Capex)미국 GDP의 2% 수준, AI로 인한 GDP 성장 기여도는 0.7% 에 이를 전망임

AI 투자 규모의 하한선 검토

  • 2025년 예상 미국 GDP$25T(3경 4000조원) 규모로 추산됨
  • Nvidia의 데이터센터 대상 연간 매출: 약 $156.4B(216조원), 이 중 99%가 AI 관련으로 집계됨
  • Nvidia가 전체 데이터센터 자본지출에서 차지하는 비율: 25~35%
  • 경제적 파급력(멀티플라이어): 1.5~2배 적용 시, 연간 전체 데이터센터 capex는 약 $520B로 확대 추정됨
  • 2022년 이전 AI capex는 GDP의 0.1% 미만이었으나 3년 만에 10배 이상 성장
  • 철도, 텔레콤 등 과거 대규모 인프라 투자와 비교해도 그 규모가 크게 증가 중임
  • 특히 닷컴버블 당시 텔레콤 투자 피크를 이미 초과했으며 계속 상승 추세임
  • 데이터센터 투자액은 19세기 철도 전성기 대비 20% 수준이지만 짧은 기간에 급증함

AI 자본지출은 어디서 오는가

  • 데이터센터 및 AI 인프라 투자금의 출처는 다음과 같음
    • 내부 현금흐름 (Microsoft, Google, Amazon, Meta 등 주요 테크 기업)
    • 부채 발행 (채권 등, 비중 증가 추세)
    • 주식 및 추가공모
    • 벤처캐피털/사모펀드 (CoreWeave, Lambda 등 AI 인프라 스타트업)
    • SPV(특수목적법인), 리스, 자산담보형 대체금융 (Meta 등)
    • 클라우드 사용량 약정 (주로 하이퍼스케일러 기업)
  • AI 중심 투자로 인해 타 산업의 자금 유입이 위축되고 있음
    • 벤처캐피털 자금이 AI 외 영역엔 거의 흐르지 않는 현상
    • 비생명과학 VC는 사실상 현재 오직 AI 투자를 중심으로만 운용함
    • 클라우드 컴퓨트 기업은 기존 클라우드 사업 대신 GPU 중심 IDC에 투자를 집중함
    • Amazon, Microsoft 등 주요 기업에서 AI 데이터센터 비용 증가로 인건비 및 사업 구조조정이 나타남
    • AI 관련 상장기업의 주가수익비율은 급등했으나, 다른 분야의 기업들은 자본조달이 어려워짐
    • AI 기업에 투자금이 몰리며, 제조업/기타 인프라는 상대적으로 자금 부족

AI 투자로 인한 경제 구조 변화

  • AI 투자 붐은 다른 인프라 부문 투자 위축과 산업 구조 재편을 촉진하고 있음
  • 과거 통신 인프라 버블이 다른 인프라 투자 급감으로 이어진 선례와 유사함
  • 이번 AI 데이터센터 투자 열풍도 비AI 분야 자본 고갈, 대규모 구조조정, 일자리 감소 등 부정적 파급효과가 우려됨

경제적 미스터리 해소

  • 최근 경제에서 무역분쟁, 정치 불확실성, 관료 리스크 등 불안 요인에도 불구하고 경기 침체 우려가 상대적으로 적다는 점이 수수께끼였음
  • 이유는 민간 부문 주도의 AI 데이터센터 투자라는 대규모 "사설 경기부양책" 이 진행 중이기 때문임
  • 이미 dot-com 버블 시기 텔레콤 투자 피크를 초월했으며 19세기 철도 투자 피크에 근접
  • 역산 시, AI 데이터센터 투자가 없었다면 2025년 1분기 미국 GDP 성장률은 –2.1%까지 하락했을 가능성이 높음
  • 결과적으로, AI 자본지출경기 하락을 상쇄하며, 실제로는 경제적 취약성을 은폐하는 역할을 함

결론

  • 단기간 내 AI 및 데이터센터에 대한 투자 폭증은 경제사적으로도 드문 이례적 순간
  • AI 및 데이터센터의 폭발적 성장에 대해 찬반과는 별개로, 급격한 기술발전과 자본투입의 속도는 비정상적으로 큼
  • AI 데이터센터는 철도나 도로처럼 수십~수백년 쓰이는 인프라가 아니라, 짧은 수명빠른 감가상각이 특징
  • 이처럼 단기 기술 사이클에 맞춰 대규모 투자가 이뤄지면서, 기타 산업 투자 위축, 대규모 해고, 비AI 분야의 성장 둔화가 병행되고 있음
  • 자본은 현재 벤처와 내부예산 등에서 IT 중심으로 빠르게 재할당되는 중이며, 결과적으로 일부 분야는 장기적인 투자고갈대규모 구조조정의 영향을 받고 있음
  • 아직 AI가 실질적으로 널리 활용되기 전임에도, 일자리 감소산업 재편빠르게 진행되는 아이러니한 상황

Rougher Notes

댓글 요약 보니 지금 2%는 많지 않다고 생각하는 거 같은데, 이 속도로 증가하면 26년에 얼마가 될지를 생각해야 하는거 같습니다. AGI가 초근미래에 가능한게 아니라면, 26년, 어쩌면 27년까지도 낙관론자와 비관론자의 대립으로 정말 혼란스러울거 같아요.

Hacker News 의견
  • 시진핑의 발언은 FT의 과장된 기사에서 나온 것으로 보임. 원문 중국어 기사는 훨씬 더 온화한 어조임. AI와 EV는 회의나 보고서에서 주요 주제가 아니라 언급만 됐을 뿐임. 시진핑의 경고는 AI와 EV 산업에서 또다시 관찰되는 “정치적 업적 경쟁”에 대한 것임. 중앙정부가 산업정책 목표를 정하면 지방정부가 기업들과 결탁해 보여주기식 “프로젝트”를 추진하고, 결국 대부분은 공장만 짓고 멈추는 전형적인 일들임. 이는 예전부터 중앙정부에 큰 골칫거리였고, AI·EV 분야에도 같은 문제가 있다는 게 시진핑의 핵심 경고 내용임. 원문 기사: https://paper.people.com.cn/rmrb/pc/…

  • GDP의 1.2%는 그렇게 극단적으로 느껴지지 않음. 다른 혁신적인 프로젝트와 비교하면 훨씬 낮은 수준임. 예시로 아폴로 프로그램은 4%, 철도는 6%, 코로나 경기부양책은 27%, 2차 대전 국방 지출은 40%까지 갔던 경험이 있음

    • 나도 처음 반응은 비슷함. 1.2%면 별로 많아 보이지 않음. 그냥 언론이 자극적으로 헤드라인을 뽑는 듯함. 만약 물과 에너지 소비량 같은 걸 수치로 보면 더 걱정이 될지도 모르겠음. 다소 주제에서 벗어나지만 미국 GDP의 약 9%가 금융 서비스에서 발생하는데, 개인적으로 더 경계할 만한 수치라고 생각함

    • 전체 GDP 대비로 보면 적어 보이지만, 우리 GDP 자체가 워낙 크기 때문임. 이 1.2%라는 액수도 노르웨이의 GDP 전체만큼임. 별거 아닌 것처럼 보이지만, 올해 군사 지출인 3.4%와 비교해도 큰 금액임

    • 지금은 수치만 보지 말고 변화의 추이와 흐름, 그리고 그 기울기의 의미에 주목해야 한다고 생각함. 자본이 여러 분야에서 AI로 이동하고 있고, 자산 가치의 지속시간(철도는 수십년에서 수세기, AI는 몇 년이나 될지 등)도 다름. “AI 데이터센터 투자가 없었으면 1분기 GDP 하락 폭이 –2.1%까지 갔을 것”이라는 저자의 논점도 있음

    • 이제 겨우 시작된 지 2년밖에 안 됐음! 1.2%도 엄청난 수치임. 이런 비교가 가능한 것 자체가 놀라움

    • 기사 핵심은 이렇게 거대한 투자가 정당화될 수 있느냐는 질문임. 단순히 GDP의 몇 %니 괜찮다는 식의 반박은 본질을 피하는 셈임

  • 철도는 자본을 사회 전체로 분산시키고, 다수의 장기적 부의 증가로 이어졌음. 그러나 AI는 기존 부자에게 자본이 집중되고, 결국 중산층에게 장기적으로 부의 감소를 가져올 여지가 있음. 인구의 구매력이 줄면 경제 성장에 도움 되지 않아서 이런 AI 투자 붐에는 의문이 있음

    • “철도가 자본 분산인가?”라는 점에 의문이 있음. 과거 철도도 벤더빌트 같은 대형 독점이었음. 정부의 반독점 규제가 생길 정도로 가격 담합과 농민들의 운송비 인상이 만연했음. “AI가 자본 집중을 심화시킨다”는 점은 맞지만, 사실 모든 자본집약적 산업이 그러함. AI만 집어서 말할 이유는 없고, AI는 자연 독점도 아니며 경쟁도 가능함
  • AI와 데이터센터에 대해 밴드웨건이 끝나면 그 용량을 좀 더 유용한 곳(예: 신약 개발 등)으로 쓸 수 있으면 좋겠음

    • 1990년대 닷컴 붐 때에도 무분별하게 광섬유 네트워크를 과다하게 깔았고, 닷컴 버블 이후 이 자산들이 헐값에 처분되어, 새로운 스타트업들이 저가로 전국망을 구축함. 이러한 거품의 ‘유물’이 차세대 회사들의 저렴한 연료가 되어왔음. 데이터센터 역시 이 패턴을 따라 지금 당장 과잉이더라도 나중에는 반드시 새로운 용도로 쓰일 것임

    • 유행과 관련해서, 왜 그렇게 많은 사람이 개발자 및 기타 화이트칼라 일자리를 AI가 100% 대체한다는 것에 집착하는지 모르겠음. 이상하리만큼 종말적이고 허무주의적인 환상 같고, 나는 이런 과대광고에 동의하지 않음. 나만 그런 것인지 궁금함

    • 글로벌 기준으로 현재 LLM(대형언어모델) 역량조차 충분히 도입되지 않았음. 만약 지금 이 수준에서 더 지능적인 걸 못 만든다 해도 향후 수년간 다양한 업계에서 반복적인 작업 자동화가 계속될 가능성 있음

    • 이곳에서 AI와 그 멈출 수 없는 발전을 가볍게 보는 사람이 자꾸 나와서 놀라움. 체스, 바둑, 전략 게임, 단백질 구조 예측 등 이미 일어난 예시만 봐도, 형식화하고 검증 가능한 거의 모든 문제는 결국 AI가 풀 수 있음은 분명함. 분야별 특화 ASI(인공지능 초지능) 역시 시간 문제라고 생각함. 모두에게 The Bitter LessonVerifier’s Law 읽어볼 것을 강력 추천함

    • 우리는 그럴 수 없음. 결국 기준에 맞춰 엔지니어를 구조조정하고 남는 설비 역시 없앨 것임

  • 새로운 데이터센터가 무조건 재생에너지로 지어지도록 강제로 했으면 좋겠음. 전체 비용 대비 추가비용도 그렇게 크지 않을 텐데, 이 정도 대기업은 충분히 감당 가능하다고 봄. 어쩌면 이런 정책이 차세대 소형모듈 원자로 발전기술의 진보를 이끌지도 모름

    • 많은 대기업이 이미 데이터센터 동력원으로 소형 원자력 기술에 관심을 갖고 있음. 가장 큰 문제는 이런 시설을 구동할 수 있는 전력망의 부지 선정임. 관련 업계 사람과 30분만 이야기해도 결국 핵심 주제는 원자력임. 풍부한 투자금이 쏟아지는 이 유행이 충분히 지속돼서 실제 필드에 우라늄 원자로가 깔리는 게 큰 긍정 효과가 될 것임. 철도, 광섬유처럼 남는 물리 인프라가 생길 수 있길 바람. 예전의 ‘도적 백만장자(robber barons)’들은 최소한 물리적 인프라라도 남겼으나, 최근의 붐은 거의 남는 게 없었음

    • 유럽에서는 이미 모든 신규 데이터센터가 재생에너지를 의무화하고 있음. 미국에서도 Google, Microsoft, Meta, AWS가 전 세계에서 가장 많은 재생에너지 구매 계약을 체결함. MS만 해도 약 200억 달러를 투자함. 미국은 수요 부족이 아니라 인허가·구획 문제 등으로 재생에너지 설치가 병목임. 전력망에 들어가길 기다리는 용량만 100GW로, 미국 전체 전력의 10% 규모임. 많이 주문한다고 오래 걸리는 병목 자체가 해결되진 않는 구조임. 예외적으로 xAI/Grok 같은 곳은 대형 클러스터를 100% 가스로 돌림. 전력도, 냉각화도 열악한 곳에서 트레일러 가스터빈 35대와 냉장 트럭 50여 대를 동원함. 효율도 낮고 환경 저해가 너무 크다고 생각하고, 이런 시스템은 불법화해야 된다고 봄

    • 미국에서는 강제하지 않아도 이미 시장이 변하는 중임. 2024년 신규 발전 설비의 94%, 2025년 93%가 재생에너지 또는 배터리 저장이고, 앞으로도 비슷한 추세임. 신규 화석연료 발전소는 천연가스만 조금 추가되고, 이마저도 옛 석탄 발전소를 전환하는 경우가 많음. 천연가스 신규 증설 계획도 셰일 붐 이후 최저임. 재생에너지가 이미 승리함

    • 데이터센터는 값비싼 자산이 놀게 되는 걸 피하기 위해 ‘확실한’(firm) 전력을 선호함. 태양광과 풍력은 간헐적임. 신규 가스 발전소는 수년이 걸리는 계획임. 겨울철 태양 대비 12시간 이상 배터리를 확보하는 것도 완전히 공짜는 아님

    • 하드웨어 자체도 재생 가능이면 좋겠음

  • AI 설비투자(CapEx)로 쓴 많은 자금이 다른 산업에서 빠져와서 그쪽은 투자 감소로 ‘굶는다’는 식의 논리와, 동시에 이 돈이 전체 GDP에 곱해진다고 주장하는 건 어불성설임. 자금이 이동한 거라면 곱셈효과는 양쪽에 동일하게 적용해야 함

    • 그래서 기사의 제목이 “Honey, AI Capex is Eating the Economy.”임
  • 글의 주된 주장은 경제가 제로섬이라는 가정에 기반함. 하지만 경제는 명백히 제로섬이 아님. AI에 투자가 몰린다고 해서 똑같이 다른 분야로 바로 전환시킬 수 있는 게 아님. 지금 AI에 투자되는 것은 그만한 가치가 기대되기 때문임. 개인적으론 그 가치가 철도보다 훨씬 클 거라고 생각함. 일부 하드웨어나 특정 지역에서 거품 과잉/과잉투자가 있을 수는 있지만, 아직 본문의 저자가 말하는 ‘붕괴 직전’ 상황은 아닌 것 같음

    • 경제가 항상 복합적으로 작용하므로 지나치게 낙관적으로만 보면 안 됨. 저자의 지적대로 단기적으로 AI 투자를 위해 다른 분야 투자가 줄어드는 것은 사실임

    • 대규모 투자가 과잉이 되더라도 결국 장기적으로 쓸모 있어질 확률이 높음. pets.com을 위해 처음 인터넷 인프라를 과다하게 깔았지만 이후 Amazon, YouTube, Zoom 같은 실제 ‘킬러 앱’이 나타나서, 당시 실수 투자가 미래 사회 기반이 된 것과 같음. 현재의 AI 투자도 비슷하게 역사적 의미가 남을 수 있음. 관련해서 Carlota Perez의 Technological Revolutions and Financial Capital 추천함

  • 그래서 트랜지스터 발전, 즉 Moore’s Law (무어의 법칙)는 앞으로 10년은 더 갈 것임. 스마트폰 성장기(2008~2023)를 이끌었으며, 이미 현재 투자금은 앞으로 2~3년 반도체 생산(2nm, A20, 곧이어 A18/14)으로 투자됨. 2030~2032년에는 A10, A8까지 모멘텀 충분히 보장 가능함. 설사 속도가 느려져도 2035년까지는 끌고 갈 여력임. 만약 2035년에 A5까지 간다 해도, 그때 12배 정도의 집적도 증가임. 패키징, 칩릿, 인터커넥트 개선 등을 포함해봐야 30~40배 수준임. 많은 AI 기업이 요구하는 1000~10000배 컴퓨트에는 아직 한참 부족함. 메모리 대역폭 확장도 그만큼 따라줘야 함

  • 자동화의 역설적 측면은 경제 규모를 늘리는 대신 일부 산업을 없애는 현상임. 재화는 더 많아질 수 있지만, 그것들이 사회적 지위를 올려주지 않게 되면 그 가치는 오히려 낮아짐. 예전엔 못 하나가 경제의 0.5%를 차지했지만 지금은 못 공장 주인도 저마진에 사회적 위상 없듯, 소프트웨어 프론트엔드 개발도 자동화되면 경제 및 사회적 비중 모두 줄어들 것임. 사회적 지위는 결국 제로섬이라, 사람들은 다른 곳에 사회적 지위를 찾으려 씀

    • “자동화가 경제의 일부를 없앤다”는 점을 들었는데, 나는 오히려 새로운 역량이 잠재된 수요를 자극해 전체 파이를 키운다고 봄. 욕구에는 제한이 없고, AI 자동화조차 그러한 수요를 따라잡기 어려움
  • FPGA로 재구성 가능한 컴퓨팅을 최적화해 LLM 연산비용을 90% 이상 낮출 방법이 나올 때를 기대하고 있음

    • 이 분야에서 이론 컴퓨터과학(이론CS) 연구가 더 많아졌으면 좋겠음. 모든 머신러닝(Machine Learning) 기법은 결국 ‘압축’ 기법임을 인식하면, 주어진 파라미터 크기에 인코딩 가능한 정보량, 정보 손실과 성능의 관계, 원 데이터셋의 정보량만 알면 LLM의 최소 사이즈 추정도 가능해야 함. LLM의 크기가 과하다고 생각하지만, 동시에 담고자 하는 데이터 자체가 방대해서 실제론 생각보다 커야 한다고 봄. 손실 압축(loose compression)이 LLM의 ‘일반화’ 원리인 만큼, 정보를 온전히 담으려면 굉장히 큰 용량이 필요함

    • 그 성능 향상의 원천이 어디서 오는지 궁금함. 하드웨어는 이미 GEMM(일반 행렬-행렬 곱셈)을 최대한 빠르게 연산할 수 있는 수준임

    • 주변 칩 친구들은 Qualcom이 FPGA 관련 특허를 다수 갖고 있어서 실제로 의미 있는 FPGA 혁신이 가로막히고 있다는 푸념이 많음

    • 기다릴 필요 없음. FPGA는 이런 아키텍처를 위한 설계가 아님. 전력 효율은 높지만, 배치 및 배선 오버헤드, 제한적인 메모리(시장에 나온 FPGA 대부분은 HBM 없음), 느린 클럭, 불편한 개발 경험 등으로 메인솔루션이 되기 어려움

    • 이미 ASIC이 출시됨. 예시로 Google TPU를 참고하면 비용 가늠 가능함. HBM(고대역폭 메모리) 자체도 매우 비쌈