# IBM CEO, “AI 데이터센터 투자가 수익으로 돌아올 가능성은 없다”

> Clean Markdown view of GeekNews topic #24798. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=24798](https://news.hada.io/topic?id=24798)
- GeekNews Markdown: [https://news.hada.io/topic/24798.md](https://news.hada.io/topic/24798.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2025-12-03T14:33:53+09:00
- Updated: 2025-12-03T14:33:53+09:00
- Original source: [businessinsider.com](https://www.businessinsider.com/ibm-ceo-big-tech-ai-capex-data-center-spending-2025-12)
- Points: 8
- Comments: 7

## Summary

글로벌 **AI 데이터센터 투자 급증**에 대해 IBM CEO 아르빈드 크리슈나는 수익성에 근본적 의문을 제기합니다. 그는 1기가와트 규모 구축에 약 800억 달러가 들고, 전 세계적으로 100기가와트 이상이 추진 중이라며 연간 8천억 달러의 이익 없이는 감당이 불가능하다고 분석했습니다. 또한 **AI 칩의 5년 감가상각**과 막대한 자본비용이 ROI를 악화시키고 있다며, 현재 기술로는 **AGI 달성 확률이 0~1%** 에 불과하다고 평가했습니다.

## Topic Body

- 글로벌 **AI 기업들의 데이터센터 투자 급증**에 대해 IBM CEO 아르빈드 크리슈나가 수익성에 강한 의문을 제기  
- 그는 현재 비용 기준으로 **1기가와트 데이터센터 구축에 약 800억 달러**가 필요하며, 주요 기업들이 20~30기가와트를 추진 중이라고 언급  
- 전 세계적으로 약 **100기가와트 규모의 AI 인프라 투자**가 진행 중이며, 총액은 **8조 달러**에 달한다고 계산  
- 크리슈나는 **AI 칩의 5년 감가상각**과 막대한 자본비용을 고려할 때, 연간 8천억 달러의 이익이 필요하지만 현실적으로 불가능하다고 평가  
- 그는 현재 기술로는 **AGI(범용 인공지능)** 달성 가능성이 0~1%에 불과하다고 보며, **LLM만으로는 한계**가 있다고 강조  

---

### AI 데이터센터 투자 급증과 수익성 논란
- 주요 **AI 기업들이 AGI 경쟁** 속에서 데이터센터에 수십억 달러를 투입 중  
  - Meta는 최근 실적 발표에서 “용량(capacity)”과 “AI 인프라”를 반복 언급  
  - Google은 장기적으로 **우주 기반 데이터센터** 건설 계획을 발표  
- 크리슈나는 “이런 투자가 수익으로 돌아올 **가능성은 거의 없다**”고 발언  
  - 그는 “오늘 기준의 계산”이라며, 미래 비용은 불확실하다고 전제  

### 크리슈나의 비용 계산과 수익성 분석
- 1기가와트 데이터센터 구축에 **약 800억 달러**가 필요하다고 설명  
  - 한 기업이 20~30기가와트를 추진하면 **1.5조 달러의 자본지출(capex)** 발생  
- 전 세계적으로 약 **100기가와트 규모의 투자**가 진행 중이며, 총액은 **8조 달러** 수준  
  - 이 경우 연간 **8천억 달러의 이익**이 있어야 이자만 감당 가능  
- 그는 “이런 수익을 낼 방법은 없다”고 단언  

### 감가상각과 투자 리스크
- **AI 칩의 5년 감가상각**을 주요 리스크로 지적  
  - “5년 후에는 칩을 버리고 다시 채워야 한다”고 언급  
- 투자자 마이클 버리도 **Nvidia 감가상각 문제**를 지적하며 AI 주가 하락을 촉발  
- 크리슈나는 이러한 감가상각 구조가 **ROI(투자수익률)** 를 더욱 악화시킨다고 평가  

### AGI 달성 가능성에 대한 회의
- 크리슈나는 현재 기술로 **AGI 달성 확률을 0~1%** 로 제시  
  - “추가적인 기술적 돌파구 없이는 불가능”하다고 언급  
- 그는 **LLM(대형 언어 모델)** 만으로는 한계가 있으며, **‘하드 지식’과의 융합**이 필요하다고 제안  
- OpenAI의 일론 서츠케버도 “스케일링의 시대는 끝났다”며 **연구 중심 전환**을 강조  

### 업계 내 다른 회의적 시각
- **Marc Benioff**는 AGI 추진을 “최면과 같다”고 표현하며 회의적 태도  
- **Andrew Ng**은 AGI가 “과대평가됐다”고 발언  
- **Mistral CEO Arthur Mensch**는 AGI를 “마케팅 전략”으로 규정  

### IBM CEO의 최종 평가
- 크리슈나는 현재 AI 도구들이 **기업 생산성에서 수조 달러 규모의 가치**를 창출할 것이라고 평가  
- 그러나 AGI 달성을 위해서는 **현재 LLM 경로를 넘어선 기술적 진전**이 필요하다고 강조  
- “그렇게 해도 가능성은 ‘아마도(maybe)’ 수준”이라며 신중한 입장 유지

## Comments



### Comment 47213

- Author: un0haep337
- Created: 2025-12-04T17:01:33+09:00
- Points: 1

현재 AI 데이터 센터 투자 규모와 계획이 과하다는 것은 공감하지만, 계획은 계획일 뿐이고 기술의 발전 속도와 방향을 아무도 예측할 수 없는 상황에서 단정적인 판단을 내리는 건 위험하며, CEO로서 좋은 판단은 아닌 것 같습니다.

### Comment 47188

- Author: halfenif
- Created: 2025-12-04T10:55:12+09:00
- Points: 1

(어느 인터뷰에서) SKT 최태원 회장에게 AI가 거품이라고 생각하는지에 대해 질문과 그 답변이 인상적이었음  
> 내가 기억하는 뉘앙스는 "그것이 설사 거품이라고 하더라도, 남들 다 하는데 안 할 수 없다."

### Comment 47287

- Author: aer0700
- Created: 2025-12-06T08:46:31+09:00
- Points: 1
- Parent comment: 47188
- Depth: 1

솔직하시네요

### Comment 47170

- Author: mhj5730
- Created: 2025-12-04T08:21:22+09:00
- Points: 1

들어가는 돈을 보면 효율화 할 수 있는 전분야에 효율화가 들어갈 것 같습나다.  
[전력 비용, LLM 파라미터 효율, 캐싱 등등] 이런게 최종적으로 예상보다 적은 돈이 소요되게끔 만들지 않을까 합니다. 흠흠..인공지능에 대해서 비관적인 스탠스(~~ 절대 안된다)는 항상 깨지더라구요.  
  
LLM만 보더라도 저는 기적처럼 느껴집니다.

### Comment 47162

- Author: bus710
- Created: 2025-12-04T03:03:06+09:00
- Points: 1

숫자 상으로는 그렇긴 하지만...  
LLM과 데이터센터 말고 미국 경제를 견인할만한 것도 없지 않나 싶습니다.

### Comment 47145

- Author: love7peace
- Created: 2025-12-03T17:28:59+09:00
- Points: 1

내 생각이랑 거의 같구만... 우리는 걍 메모리 많이 팔아먹으면 그만이긴 함

### Comment 47130

- Author: neo
- Created: 2025-12-03T14:33:54+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=46124324) 
- 1958년 IBM이 **xerography** 기술을 놓치고, 10년 뒤 **미니컴퓨터**를 무시했으며, 또 10년 뒤 **Apple II**를 과소평가했다는 스티브 잡스의 말을 인용함  
  지금 IBM CEO가 “AI 데이터센터 투자는 수익이 안 난다”고 말하는 걸 보면, IBM은 여전히 미래를 잘 못 읽는 듯함  
  관련 자료: [Steve Jobs 1983 Keynote](https://archive.org/details/1983-10-22-steve-jobs-keynote), [Xerox 발명사](https://theinventors.org/library/inventors/blxerox.htm)
  - IBM은 1975년에 이미 **IBM 5100**이라는 개인용 컴퓨터를 출시했음. 문제는 가격이 너무 비쌌다는 점임  
    이후 IBM PC(5150)는 상용 부품을 써서 가격을 낮췄고, 그게 성공의 비결이었음  
    [IBM 5100 위키](https://en.wikipedia.org/wiki/IBM_5100)
  - 이런 과거 사례들이 지금 CEO의 판단과 무슨 관련이 있는지 모르겠음  
  - 메시지보다 메신저에 집중하는 건 의미 없다고 봄. Xerox는 이미 한물갔고, IBM은 여전히 **3000억 달러 규모**의 기업임  
    Apple II도 기업 시장에서는 영향이 미미했음. 게다가 이건 50년 전 이야기로, 지금의 **AI 투자 수익률(ROI)** 논의와는 별개임  
  - DEC는 사라졌고 Xerox는 IBM 시가총액의 1/1000 수준임. IBM의 **PC 아키텍처 개방성**은 오히려 시장을 지배하게 만든 요인이었음  

- IBM CEO가 “AI 칩은 5년 지나면 버려야 한다”고 말했는데, 그건 너무 단정적인 가정 같음  
  하드웨어가 5년 지나도 안정적이라면, **구형 모델을 저가로 돌려 수익을 낼 여지**가 있음  
  - **Michael Burry**는 오히려 5년이 너무 관대한 감가상각 기간이라고 주장함. 실제로는 2~3년이 맞다고 함  
    [Burry의 트윗](https://x.com/michaeljburry/status/1987918650104283372)  
  - 서버 하드웨어의 표준 감가상각 기간이 5년이라서 GPU만의 문제는 아님  
  - 구형 서버도 잘 작동하지만, **전력 효율** 때문에 최신 기술 대비 경제성이 떨어짐  
  - **암호화폐 채굴** 사례처럼 GPU 수요는 ASIC 등장으로 교체 주기가 빨라질 수 있음.  
    결국 5년 주기는 투자 판단에 큰 영향을 줄 것임  
  - 경쟁사가 더 효율적인 칩을 쓰면, 결국 구형 하드웨어를 버리고 업그레이드해야 함  

- AI 데이터센터 투자가 전부 실현되긴 어렵다고 봄. **전력 수요**만으로도 한계가 있음  
  - 서방 국가들은 전력 예비율이 낮지만, **중국은 100% 예비율**을 유지해 수요 급증에도 대응 가능함  
  - 하지만 CEO들이 이미 충분히 조사했을 텐데, 그보다 더 잘 안다고 말하기는 어려움  

- **Gartner**는 2025년 전 세계 AI 지출이 **1.5조 달러**에 이를 것으로 예측함  
  전 세계 GDP(2024년 기준 111조 달러) 대비 그리 과도하지 않다고 봄  
  AI 투자 수명은 **6~8년** 정도로 추정되며, 지나치게 비관적이지 않다면 합리적인 규모임  
  [Gartner 보고서](https://www.gartner.com/en/newsroom/press-releases/2025-09-17-gartner-says-worldwide-ai-spending-will-total-1-point-5-trillion-in-2025)  
  [세계은행 GDP 데이터](https://data.worldbank.org/indicator/NY.GDP.MKTP.CD)
  - 하지만 그 **추가 GDP 이익을 투자자들이 실제로 가져갈 수 있을지**는 별개의 문제임  
  - GPU는 6~8년보다 훨씬 빨리 **구식화**되므로, 투자 회수 기간이 짧을 수 있음  

- LLM 서비스가 기본적으로 **짧은 응답 모드(200토큰 이하)** 를 사용하고, 프롬프트 캐싱과 소형 모델 라우팅을 적용하면  
  **에너지 사용량을 70% 이상 절감**할 수 있다고 봄  
  ChatGPT 규모에서 연간 전기료가 5천만~1억 달러인데, 이 방식이면 5~10백만 달러로 줄어듦  
  EU나 캘리포니아가 이런 모드를 의무화하면 **데이터센터 경제**에도 큰 변화가 생길 것임  
  - 그렇다면 왜 이런 **90% 절감 최적화**가 아직 구현되지 않았는지 궁금함  

- 10년 전 IBM은 “**Watson**”을 내세워 “Cognitive Finance” 같은 광고를 쏟아냈지만, 지금은 아무도 언급하지 않음  
  혹시 지금의 AI 붐을 남들이 주도하는 게 **못마땅한 것** 아닐까 싶음  
  - IBM은 과거에도 **AI, 클라우드**에 일찍 뛰어들었지만, 시장 점유율을 확보하지 못했음  
    기술 시연은 멋졌지만, **실제 수익 모델**이 없었음  
  - 외부 컨설턴트들이 Watson을 모든 문제의 해법처럼 밀어붙였지만, 실제로는 **비싸고 쓸모없었음**  
    직접 PoC를 만들어서 안 된다는 걸 증명해야 했던 기억이 있음  
  - IBM이 이런 실패를 겪었기에 지금은 더 **회의적인 시각**을 가질 수도 있음  
    그래도 시장 내 입지를 고려하면 완전히 무시할 의견은 아님  
  - Watson 실패가 지금 CEO의 판단을 무효화하는 건 아님  
  - 어쩌면 IBM은 단순히 “**10억 달러 단위 투자**는 ROI가 안 나온다”는 현실적 판단을 하는 것일 수도 있음  

- IBM CEO의 말처럼 AI가 **수익을 내기 어렵다**는 점에는 일리가 있음  
  NVIDIA 기준으로 1GW급 전력으로 연간 6.29×10^16 토큰을 생성할 수 있는데,  
  인터넷 전체 텍스트가 10^14 토큰 수준이라면, 데이터 자체가 한계에 부딪힐 수 있음  
  - 하지만 그 수치가 너무 작게 잡힌 것 같음. 이미지나 영상 데이터를 포함하면 **몇 자릿수 이상 차이**가 날 것임  
  - 이미지 토큰을 포함하면 최소 **5자릿수 이상** 차이 날 것으로 봄  
  - 그런데 이런 계산이 왜 “AI가 수익을 못 낸다”는 결론으로 이어지는지 잘 모르겠음  

- 지금의 AI 논의에는 세 가지 **공포 요인**이 있음  
  1) 버블일지도 모른다는 두려움  
  2) 진짜 혁명이 올지도 모른다는 두려움  
  3) 그 혁명에서 **놓칠까 봐 두려움(FOMO)**  
  IBM은 특별한 통찰이 있다기보다, 이런 공포의 일부를 반영하고 있을 뿐임  

- AI 인프라 투자가 **닷컴 버블 시절의 광케이블 과잉 투자**와 비슷하다고 봄  
  장기적으로는 가치가 있지만, 개별 기업은 크게 실패할 수 있음  
  **GPU 수량보다 활용률과 수익 모델**이 더 중요함  
  - 이에 반대하는 입장으로, 비슷한 주제를 다룬 [블로그 글](https://martinalderson.com/posts/are-we-really-repeating-the-telecoms-crash-with-ai-datacenters/)을 소개함  
  - 하지만 광케이블은 장기 가치가 명확했지만, GPU는 **AI 외의 활용처가 제한적**이라 더 위험함  

- IBM은 소비자 하드웨어, 운영체제, 클라우드 모두에서 **기회를 놓친 기업**임  
  CEO의 말이 맞을 수도 있지만, **미래 예측의 기준**으로 삼기엔 부적절함
