3P by GN⁺ 1일전 | ★ favorite | 댓글 1개
  • 구글은 자사 Gemini 앱이 프롬프트 처리 시 소비하는 전력·물·탄소 배출량을 공개하며 AI 에너지 사용에 대한 최초의 구체적 데이터 제시
  • 평균적인 텍스트 프롬프트는 0.24Wh 전력을 소비해 전자레인지 1초 사용과 비슷하며, 0.26ml 물0.03g 이산화탄소를 발생시킴
  • 이 수치는 AI 칩(58%), CPU·메모리(25%), 백업 장비(10%), 데이터센터 운영(8%) 등 모든 인프라를 포함한 포괄적 분석 결과
  • 2024년 5월 대비 2025년 5월에는 에너지 효율이 33배 개선되었으며, 구글은 소프트웨어 최적화와 모델 개선을 이유로 꼽았음
  • 이번 발표는 대형 AI 기업의 투명성 확대라는 점에서 의의가 크지만, 전체 쿼리 수와 같은 핵심 정보는 여전히 공개되지 않아 표준화된 AI 에너지 평가 체계 필요성이 제기됨

구글의 Gemini 프롬프트 에너지 사용량 공개

  • 구글은 Gemini 모델이 텍스트 프롬프트 처리 시 소비하는 전력·탄소 배출·물 사용량을 공개한 첫 대형 AI 기업임
  • 평균 프롬프트 1개는 0.24Wh 전력, 0.26ml 물, 0.03g CO₂를 발생시키며 이는 전자레인지 1초 가동이나 물방울 다섯 방울 수준과 유사함
  • 이번 발표는 MIT Technology Review와의 인터뷰를 통해 상세 데이터와 산출 방식을 설명함

에너지 사용 세부 구조

  • 총 전력 소비 중 AI 칩(TPU) 이 58%, CPU·메모리가 25%, 백업 장비가 10%, 데이터센터 운영(냉각·전력 변환) 이 8%를 차지함
  • 구글은 하드웨어 전체 인프라를 포함하는 포괄적 방식으로 분석했다고 설명함
  • 이는 연구자들이 접근하기 어려운 내부 데이터를 공개한 것으로, 산업계 연구 기여로 평가받음

프롬프트별 차이와 한계

  • 공개된 수치는 중간값(median) 으로, 일부 쿼리는 훨씬 높은 에너지를 소모할 수 있음
    • 예: 수십 권의 책을 요약하거나 reasoning 모델을 활용한 복잡한 연산
  • 이번 보고서는 텍스트 프롬프트만 대상으로 했으며, 이미지·영상 생성은 포함되지 않았음
  • 따라서 전체 Gemini 활용에서의 실제 총량을 파악하기에는 여전히 제한이 존재함

효율 개선과 탄소 배출 추정

  • 구글은 2024년 5월 대비 2025년 5월에 프롬프트당 에너지 소비가 33배 감소했다고 발표함
  • 이는 모델 아키텍처 개선과 소프트웨어 최적화의 결과로 설명됨
  • 배출량 추정은 미국 전력망 평균이 아닌, 구글이 구매한 청정에너지 비중을 반영한 시장 기반 방식을 사용해, 일반 전력망 대비 약 1/3 수준으로 산정됨

연구자 및 업계 반응

  • University of Michigan의 ML.Energy 프로젝트 관계자들은 이번 발표를 가장 포괄적이고 중요한 분석으로 평가함
  • Hugging Face의 연구자들은 표준화된 AI 에너지 등급제 필요성을 강조하며, 현재는 기업이 선택적으로 공개하는 수준임을 지적함
  • 이번 보고서는 AI 사용의 실제 자원 소비에 대한 이해를 확장했지만, 총 쿼리 수와 같은 핵심 데이터 부재는 여전히 큰 한계로 남아 있음
Hacker News 의견
  • 원문 기사에서 관련 보도자료와 보고서 링크를 찾을 수 없어서 직접 첨부함

    전체적으로, 중간값 프롬프트(에너지 소비량 중간에 해당하는 프롬프트)가 0.24와트시 전기를 소모한다고 명시되어 있음
    RTX 6000 두 개 사용 가정 시 총 600와트, 이론상 응답 시간 1.44초임
    즉 실제로 이 중간값 프롬프트는 고성능/비용 높은 AI 모델이 아니라는 점이 명확함
    상당히 작은 수치임
    참고로 전기차가 363마일 달리는데 82kWh를 쓰면, 0.24Wh는 전기차로 1.7미터(5.6피트) 이동하는 에너지와 비슷함
    AI 전기 수요로 전력망이 과부하된다는 보도를 볼 때마다 생각드는 점은, AI 붐 이전에도 이미 전기차, 인덕션 레인지, 히트펌프 등 도입을 위해 잉여 발전 용량을 준비했어야 하는 것 아닌가 하는 의문임
    구글 공식 블로그 참고

    • 전력 인프라 과부하 관련 보도들을 보면, 기술 기업들이 환경에 해롭다는 뉘앙스를 부각하는 ‘도그 휘슬’ 전략처럼 느껴짐
      물 사용량, 전기 사용량을 문제 삼지만 지나치게 자극적으로 부각하는 경향임
      Dalles 데이터센터의 물 소비를 비판하는 사례가 대표적임
      이 건물들은 콜럼비아 강 옆에 있고, 근처에는 평균 700메가와트 발전하는 Dalles 댐이 있음
      강물을 쿨링에 쓰고, 조금 온도를 올려서 강으로 돌려보내는 방식임
      물이 내리막길로 흘러가며 가져올 열을 되돌려주는 셈이므로, 완전히 낭비되는 게 아님
      관련 기사, Dalles 댐 정보

    • 구글의 공식 기술 보고서 PDF는 여기에서 확인 가능함

    • 왜 평균값이 아니라 중간값 프롬프트 에너지 소비를 발표했는지 의문임
      평균값이 실제 평균 소비를 더 직관적으로 보여줄 것임

    • EV 관련해서는, 2030년까지 전기차가 대세가 될 것이라는 기대는 현실적이 아니었음
      배터리 생산 확장부터 인프라까지 전혀 준비되지 않았음

    • 데이터센터는 특정 소규모 지역에 갑자기 대량의 전력이 필요한 경우가 발생함
      전기차, 히트펌프 등 다른 항목들은 점진적으로 도입되므로 연간 소폭 용량 증가로 대응할 수 있음
      데이터센터는 분산이 어려우므로 인프라 부담이 더 큼

  • 최근 Gen Z 세대가 AI가 물을 ‘파괴하고 있다’고 이야기하는 걸 듣고 놀랐음
    데이터센터 작업을 해봐서 쿨링에 물을 쓴다는 건 알고 있었지만, 대규모로 물을 파괴했다는 느낌은 들어본 적 없음
    생각보다 GenAI와 물에 대한 인식이 깊음
    “AI 때문에 앞으로 가뭄 지옥에서 살게 된다”라는 식으로 이야기하는 경우도 있었음
    난 TikTok 1개 동영상의 에너지 소비가 어느 정도인지가 오히려 궁금하지만, 그런 비교는 논점이 다른 듯함
    실제로 물이 사라진다는 게 어떤 경로를 통해서인지, 수증기인지 묻는데, 많은 사람들이 그냥 증발하면 ‘영영 사라졌다’고 받아들이는 게 의아함

    • 물 분자가 ‘파괴’되는 건 아니지만, 유용하게 사용할 수 있던 장소에서 완전히 사라지는 경우가 많음
      아랄 해는 농업용 관개로 인해 사라진 대표 사례임
      유튜브 영상

    • 물 부족 문제는 극히 지역적인 현상임
      예를 들어 애리조나에서 데이터센터를 운영하면 진짜 물 문제를 겪을 수 있지만, 폐수 재활용 등으로 완화 가능함
      Palo Verde 발전소도 히트익스체인저에 폐수를 사용함

    • 나 역시 최근 AI의 물 소비에 대해 질문받아서 놀랐음
      간단히 검색해 봤더니 데이터센터가 생각보다 꽤 많은 물을 소비함. 전기 1kWh 당 1리터 정도임
      하이퍼스케일러들이 이 수치보다 더 나은 성과를 내고 넷포지티브 달성을 노린다는 이야기는 들었지만, 진짜로 이 값 자체가 허구라는 자료는 거의 없음
      “1리터/kWh”는 체감이 어렵지만, 대형 데이터센터라면 278L/s임. 샤워기 수량 0.16L/s, 캘리포니아 아몬드 산업 전체는 연평균 20만L/s임
      4평방마일 아몬드 농장에 해당하는 수준이지만, 실제로 그렇게까지 극단적이라고는 느껴지지 않고, 하이퍼스케일러 데이터는 더 나을 것 같음

    • 데이터센터는 증발식 쿨링을 사용함
      단순히 물을 데워 돌려보내는 게 아니라, 대기를 통해 완전히 증발시킴
      (물분자 자체는 남지만, 대기 중 수증기는 재활용이 힘든 형태임)

    • AI가 물을 파괴한다는 주장은 NIMBY(지역이기주의) 논점에서 출발했고, 이후 반자본주의 성향이 강한 Gen Z 내 그룹에 의해 AI 반대 논리로 흡수됨

  • 2011년 구글이 검색 쿼리당 0.3Wh를 쓴다고 발표했고, 올해 초 Sam Altman도 OpenAI 쿼리가 평균 0.3Wh라고 말함
    두 수치가 비슷한 게 놀라움
    LLM 쿼리가 단순 구글 검색보다 에너지 집약적일 거라 생각했는데, 구글 검색 자체도 엄청난 인프라임을 실감함
    예를 들어 단어 의미 같은 간단한 질문만 할 경우, 아이폰에서 소형 LLM이 동작한다면 0.03Wh면 충분해서 구글 검색보다 10배 적은 수준임
    (A16 칩이 20초간 5와트로 동작 가정 시 0.03Wh)
    여기서 궁금한 점은 트레이닝 비용(특히 실패한 학습 런)도 이런 추정치에 포함되는지임
    구글 공식 블로그 포스트

    • 14년간의 에너지 효율성 발전 역시 영향이 크다는 점 참고함

    • 2008년 경에는 검색의 핵심 과정이 모든 문서를 grep하는 방식이었음
      분산 방식으로 문서를 램에 올려두고 1000대에 걸쳐 grep을 돌렸음
      인버티드 인덱스는 "단어 순서가 중요한 쿼리"엔 부적합해서 잘 안 썼음
      랭킹 프로세스 등은 더 복잡함

    • 0.3Wh는 1080줄임. 휘발유 1리터엔 3천만 줄 이상이 들어있으니, 실제론 0.034밀리리터의 휘발유에 해당
      다만 전기는 내연기관보다 훨씬 효율적임

    • 내 로컬 LLM에 쿼리를 입력할 때면 사무실 불빛이 깜빡이고 오히려 오븐 1초 돌릴 때보다 더 많은 에너지가 들어가는 느낌임

    • 2008년 경, 구글이 벌써 딥러닝 기반 검색을 썼는지 의문임
      기능 도입 시 단위 쿼리당 전력 소비가 변동이 있었을 것 같음

  • 전체 보고서에서 어떤 프롬프트가 '중간값'인지를 설명하지 않아 아쉬움
    프롬프트의 토큰 수, 길이 분포가 어떻게 되는지, 연도별로 같을 수 있는지도 궁금함
    이런 정보 없이 단순히 중간값만 명시하는 게 실질적으로 의미가 떨어짐
    평균값이라면 쿼리 수 곱해서 전체 사용량 추정이라도 가능함

  • Sam Altman이 최근 블로그에서 ChatGPT 평균 쿼리당 전력 소모량도 공개함
    ChatGPT 쿼리 1개당 평균 0.34Wh, 오븐 1초 반, 고효율 전구 수분 사용량에 해당
    물 소비는 쿼리당 0.000085갤런(15분의 1티스푼)임
    Altman 블로그

  • 개인적으로 진짜 중요한 건 인퍼런스가 아니라, 트레이닝, 파인튜닝, 데이터 긁어오기라 생각함
    "프롬프트가 환경을 파괴한다"는 논리는 너무 선정적이라는 인상이 들었음
    점점 팩트 체크가 잘 되고 있다는 점은 반가움
    하지만 현실적으로 새 데이터센터가 송배전망에 미치는 영향도 무시 못할 수준임
    기술이 근본적으로 에너지 효율적이라면 지금처럼 대기업이 민간 원전 투자나 에너지 경쟁까지 하게 되진 않았을 것임

    • 목표 기준을 제대로 잡으려면, 단순히 전체 물·에너지 소모량이 아니라 해당 지역의 물과 에너지 자원이 충분한지 상대적으로 따져봐야 함
      구글은 데이터센터 전체 물 사용량을 공식 보고함
      2024년 기준 약 100억 갤런(미국 전체 사용의 0.03% 수준, 모든 데이터센터가 미국에 있지 않음을 감안)
      수치 자체는 엄청나 보이지 않지만, Council Bluffs, IA에서만 10억 갤런 이상이며, 이런 지역의 에코시스템이 감당 가능한지, 책임 있게 관리되고 있는지 확인이 필요함
      구글은 "물 고갈 또는 희소 위험이 중간이상인 지역"에서 28% 쓴다고 인정함
      구글 2025 환경보고서

    • 웹사이트 접속만 해도 의도치 않게 프롬프트가 서버로 전송됨
      대규모로 서비스가 저렴하게 공급될수록 더욱 과하게 사용되는 경향이 아쉬움

    • 에너지 소비가 근본적으로 낮았다면, 이렇게 신규 데이터센터와 에너지 인프라 경쟁이 치열하지 않을 거라는 주장에 대해선 동의하지 않음
      미국 전력망은 오랫동안 추가 여유 용량이 없었음
      에너지 효율 개선과 산업침체 때문임
      데이터센터 자체보다는 전력 분배 인프라가 더 큰 문제임
      발전은 할 수 있으나, 필요한 위치로 분배하는 데에 문제가 많음
      민간 발전소 논란도 발전보다는 분배 이슈 때문임

  • 중간값 프롬프트가 0.24Wh라고 할 때,

    • 토스터 1초 작동
    • 스마트폰 80분의 1 충전
    • 100파운드 6피트 들어올리기
    • 9mm 총알 탄두의 운동 에너지
    • 테슬라로 6피트 주행
      과 같은 에너지임
    • 2022년에 마법같아 보였던 기술치고는 전력효율이 굉장히 높게 느껴짐
  • 내가 계산이 맞다면, 1kWh로 약 4천 번 쿼리가 가능함
    산업용 전기 단가로 $0.04/kWh 잡으면, $1에 10만 번 쿼리 가능함
    데이터센터 구축비용 등 고려하면, 월 $20 구독제도 과하게 비싸진 않은 느낌임
    계산이 맞게 한 걸까

    • 맞게 계산함
      AI 에너지·물 관련 비관론의 근본적 오류는, 전기·물·부지가 모두 비용으로 연결되는데, AI가 공짜로 서비스 제공되고 있다는 점임
      만약 진짜로 AI가 전체 전기와 물을 다 잡아먹는다면, 기업들이 손해만 보고 운영할 리 없음

    • 그런데 트레이닝 비용은 따로 생각해야 하는 것 아님?

  • 3자 기사 건너뛰고 싶다면,
    구글 블로그 포스트
    공식 논문 PDF 참고 가능함

  • Gemini 하루 총 쿼리 수 등 전체량이 더 궁금함
    중간값 프롬프트 수치만으론 총 에너지 요구량 추정이 불가함
    전체 쿼리 수치가 없으면 중간값 자체가 큰 의미가 없음

    • 평균값이 더 직관적이지 않나 싶음
      아마도 평균이 더 높아서 일부러 공개하지 않는 것일 수도 있음