Hacker News 의견
  • 1958년 IBM이 xerography 기술을 놓치고, 10년 뒤 미니컴퓨터를 무시했으며, 또 10년 뒤 Apple II를 과소평가했다는 스티브 잡스의 말을 인용함
    지금 IBM CEO가 “AI 데이터센터 투자는 수익이 안 난다”고 말하는 걸 보면, IBM은 여전히 미래를 잘 못 읽는 듯함
    관련 자료: Steve Jobs 1983 Keynote, Xerox 발명사

    • IBM은 1975년에 이미 IBM 5100이라는 개인용 컴퓨터를 출시했음. 문제는 가격이 너무 비쌌다는 점임
      이후 IBM PC(5150)는 상용 부품을 써서 가격을 낮췄고, 그게 성공의 비결이었음
      IBM 5100 위키
    • 이런 과거 사례들이 지금 CEO의 판단과 무슨 관련이 있는지 모르겠음
    • 메시지보다 메신저에 집중하는 건 의미 없다고 봄. Xerox는 이미 한물갔고, IBM은 여전히 3000억 달러 규모의 기업임
      Apple II도 기업 시장에서는 영향이 미미했음. 게다가 이건 50년 전 이야기로, 지금의 AI 투자 수익률(ROI) 논의와는 별개임
    • DEC는 사라졌고 Xerox는 IBM 시가총액의 1/1000 수준임. IBM의 PC 아키텍처 개방성은 오히려 시장을 지배하게 만든 요인이었음
  • IBM CEO가 “AI 칩은 5년 지나면 버려야 한다”고 말했는데, 그건 너무 단정적인 가정 같음
    하드웨어가 5년 지나도 안정적이라면, 구형 모델을 저가로 돌려 수익을 낼 여지가 있음

    • Michael Burry는 오히려 5년이 너무 관대한 감가상각 기간이라고 주장함. 실제로는 2~3년이 맞다고 함
      Burry의 트윗
    • 서버 하드웨어의 표준 감가상각 기간이 5년이라서 GPU만의 문제는 아님
    • 구형 서버도 잘 작동하지만, 전력 효율 때문에 최신 기술 대비 경제성이 떨어짐
    • 암호화폐 채굴 사례처럼 GPU 수요는 ASIC 등장으로 교체 주기가 빨라질 수 있음.
      결국 5년 주기는 투자 판단에 큰 영향을 줄 것임
    • 경쟁사가 더 효율적인 칩을 쓰면, 결국 구형 하드웨어를 버리고 업그레이드해야 함
  • AI 데이터센터 투자가 전부 실현되긴 어렵다고 봄. 전력 수요만으로도 한계가 있음

    • 서방 국가들은 전력 예비율이 낮지만, 중국은 100% 예비율을 유지해 수요 급증에도 대응 가능함
    • 하지만 CEO들이 이미 충분히 조사했을 텐데, 그보다 더 잘 안다고 말하기는 어려움
  • Gartner는 2025년 전 세계 AI 지출이 1.5조 달러에 이를 것으로 예측함
    전 세계 GDP(2024년 기준 111조 달러) 대비 그리 과도하지 않다고 봄
    AI 투자 수명은 6~8년 정도로 추정되며, 지나치게 비관적이지 않다면 합리적인 규모임
    Gartner 보고서
    세계은행 GDP 데이터

    • 하지만 그 추가 GDP 이익을 투자자들이 실제로 가져갈 수 있을지는 별개의 문제임
    • GPU는 6~8년보다 훨씬 빨리 구식화되므로, 투자 회수 기간이 짧을 수 있음
  • LLM 서비스가 기본적으로 짧은 응답 모드(200토큰 이하) 를 사용하고, 프롬프트 캐싱과 소형 모델 라우팅을 적용하면
    에너지 사용량을 70% 이상 절감할 수 있다고 봄
    ChatGPT 규모에서 연간 전기료가 5천만~1억 달러인데, 이 방식이면 5~10백만 달러로 줄어듦
    EU나 캘리포니아가 이런 모드를 의무화하면 데이터센터 경제에도 큰 변화가 생길 것임

    • 그렇다면 왜 이런 90% 절감 최적화가 아직 구현되지 않았는지 궁금함
  • 10년 전 IBM은 “Watson”을 내세워 “Cognitive Finance” 같은 광고를 쏟아냈지만, 지금은 아무도 언급하지 않음
    혹시 지금의 AI 붐을 남들이 주도하는 게 못마땅한 것 아닐까 싶음

    • IBM은 과거에도 AI, 클라우드에 일찍 뛰어들었지만, 시장 점유율을 확보하지 못했음
      기술 시연은 멋졌지만, 실제 수익 모델이 없었음
    • 외부 컨설턴트들이 Watson을 모든 문제의 해법처럼 밀어붙였지만, 실제로는 비싸고 쓸모없었음
      직접 PoC를 만들어서 안 된다는 걸 증명해야 했던 기억이 있음
    • IBM이 이런 실패를 겪었기에 지금은 더 회의적인 시각을 가질 수도 있음
      그래도 시장 내 입지를 고려하면 완전히 무시할 의견은 아님
    • Watson 실패가 지금 CEO의 판단을 무효화하는 건 아님
    • 어쩌면 IBM은 단순히 “10억 달러 단위 투자는 ROI가 안 나온다”는 현실적 판단을 하는 것일 수도 있음
  • IBM CEO의 말처럼 AI가 수익을 내기 어렵다는 점에는 일리가 있음
    NVIDIA 기준으로 1GW급 전력으로 연간 6.29×10^16 토큰을 생성할 수 있는데,
    인터넷 전체 텍스트가 10^14 토큰 수준이라면, 데이터 자체가 한계에 부딪힐 수 있음

    • 하지만 그 수치가 너무 작게 잡힌 것 같음. 이미지나 영상 데이터를 포함하면 몇 자릿수 이상 차이가 날 것임
    • 이미지 토큰을 포함하면 최소 5자릿수 이상 차이 날 것으로 봄
    • 그런데 이런 계산이 왜 “AI가 수익을 못 낸다”는 결론으로 이어지는지 잘 모르겠음
  • 지금의 AI 논의에는 세 가지 공포 요인이 있음

    1. 버블일지도 모른다는 두려움
    2. 진짜 혁명이 올지도 모른다는 두려움
    3. 그 혁명에서 놓칠까 봐 두려움(FOMO)
      IBM은 특별한 통찰이 있다기보다, 이런 공포의 일부를 반영하고 있을 뿐임
  • AI 인프라 투자가 닷컴 버블 시절의 광케이블 과잉 투자와 비슷하다고 봄
    장기적으로는 가치가 있지만, 개별 기업은 크게 실패할 수 있음
    GPU 수량보다 활용률과 수익 모델이 더 중요함

    • 이에 반대하는 입장으로, 비슷한 주제를 다룬 블로그 글을 소개함
    • 하지만 광케이블은 장기 가치가 명확했지만, GPU는 AI 외의 활용처가 제한적이라 더 위험함
  • IBM은 소비자 하드웨어, 운영체제, 클라우드 모두에서 기회를 놓친 기업
    CEO의 말이 맞을 수도 있지만, 미래 예측의 기준으로 삼기엔 부적절함