# AGI 환상은 실제 엔지니어링을 가로막는 요인

> Clean Markdown view of GeekNews topic #24373. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=24373](https://news.hada.io/topic?id=24373)
- GeekNews Markdown: [https://news.hada.io/topic/24373.md](https://news.hada.io/topic/24373.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2025-11-15T09:45:28+09:00
- Updated: 2025-11-15T09:45:28+09:00
- Original source: [tomwphillips.co.uk](https://www.tomwphillips.co.uk/2025/11/agi-fantasy-is-a-blocker-to-actual-engineering/)
- Points: 1
- Comments: 3

## Topic Body

- 실리콘밸리에서는 **AGI(인공 일반 지능)** 을 실현 가능한 목표로 믿는 문화가 확산되어 있음  
- OpenAI 내부에서는 **‘순수 언어 가설’** 을 기반으로, 언어 모델의 확장이 AGI로 이어질 수 있다는 신념이 형성됨  
- 이러한 믿음은 **막대한 데이터센터 확장** 과 **환경·노동 착취 문제** 를 정당화하는 근거로 작용함  
- AGI의 **기대값(Expected Value)** 논리는 근거 없는 확률과 가치 추정에 의존하며, 현실의 환경 피해와 사회적 비용을 무시함  
- AGI 환상을 버리고 **작고 목적 지향적인 모델** 로 문제를 해결하는 **실질적 엔지니어링 접근** 이 필요함  

---

### AGI 신념과 OpenAI의 문화
- OpenAI와 관련된 인물들은 실제로 **AGI가 인류의 번영 또는 파멸을 초래할 수 있다**고 믿음  
  - Elon Musk는 Demis Hassabis를 “세상을 지배하려는 악당”으로 묘사하며, OpenAI를 “선”으로, DeepMind를 “악”으로 규정  
  - Ilya Sutskever는 직원들에게 “AGI를 느껴라(Feel the AGI)”라고 말하며, **AGI를 상징하는 나무 인형을 불태우는 의식** 을 진행  
- 이러한 행위는 **공상과학적 상상** 이 실리콘밸리의 **주류 신념** 으로 자리 잡았음을 보여줌  

### ‘순수 언어 가설’과 LLM 확장
- Karen Hao의 저서 *Empire of AI* 에 따르면, GPT-2는 **‘순수 언어 가설(pure language hypothesis)’** 에 기반함  
  - 인간이 언어로 사고하고 소통하므로, 언어 데이터만으로 AGI가 가능하다는 전제  
  - 이에 반해 **‘그라운딩 가설(grounding hypothesis)’** 은 AGI가 세상을 인식해야 한다고 주장  
- GPT에서 GPT-2로의 성공적 확장은 OpenAI 내부에서 **더 많은 데이터·모델 파라미터·컴퓨팅 자원** 이면 AGI에 도달할 수 있다는 믿음을 강화함  

### 확장 경쟁과 환경·노동 문제
- AGI 신념과 LLM 성과는 **대규모 데이터센터 건설** 을 정당화함  
  - 일부 시설은 **초당 수백 리터의 물** 을 사용하고, **전력 부족으로 오염된 가스 발전기** 를 가동  
  - **도시 전체 수준의 전력 소비** 와 **CO₂ 배출 증가** 가 발생  
- ChatGPT의 안전한 출력을 위해 **데이터 검열·정제 작업을 수행하는 노동자** 들이 **착취와 정신적 트라우마** 를 겪음  
  - 데이터 수요가 커지면서 **인터넷 전체를 무차별적으로 수집** 하고, **RLHF(Reinforcement Learning from Human Feedback)** 으로 결과를 제어  

### 기대값 논리의 문제
- AGI 개발의 정당화 근거로 **기대값(Expected Value)** 이 자주 인용됨  
  - “0.001%의 확률로 엄청난 가치가 발생해도 EV는 매우 크다”는 논리  
- 그러나 이러한 계산은 **확률과 가치가 임의적이며 검증 불가능** 함  
  - 반면, **환경 파괴와 사회적 비용** 은 **확실한 부정적 가치** 와 **현재적 피해** 로 존재  

### 실제 엔지니어링으로의 전환
- 기술자는 문제를 **효과적·효율적·무해하게** 해결해야 함  
- **LLM을 AGI로 간주하는 접근** 은 세 기준 모두에서 실패  
  - **과도한 연산 낭비**, **노동 착취**, **환경 피해** 가 발생  
- **AGI 환상에서 벗어나**, LLM과 생성 모델을 **특정 문제 해결용 도구** 로 평가해야 함  
  - **작고 목적 지향적인 생성 모델** 또는 **비생성형(판별형) 모델** 활용  
  - **비용-효익 분석** 과 **기술적 절충** 을 통한 **실질적 엔지니어링 수행** 필요

## Comments



### Comment 46344

- Author: neo
- Created: 2025-11-15T09:45:28+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=45926469) 
- AI 회의론자들에게 조언하자면, **데이터센터의 물 사용량** 논쟁은 피하는 게 좋겠음  
  “연간 수백만 리터” 같은 표현은 맥락 없이 들으면 무섭게 느껴지지만, 농업이나 골프장과 비교하면 미미한 수준임  
  에너지 사용량, CO₂ 배출 같은 논의는 괜찮지만, 물 사용만 강조하면 전체 주장의 신뢰도가 떨어짐  
  다만 이후에 알게 된 건, 데이터센터는 종종 농업에 쓸 수 없는 **음용수**를 사용한다는 점이었음  
  그래도 ‘수백만 갤런’ 같은 숫자를 맥락 없이 제시하는 건 여전히 **반패턴**이라 생각함
  - 사람들이 스스로를 “AI 회의론자”로 분류하는 현상 자체가 흥미로움  
    이건 기술 논의가 아니라 **정체성 정치**로 변질된 결과 같음  
    HN에서는 정치적 입장을 버리고 기술적 근거로 토론해야 함  
    아마도 과장된 **AI 홍보**에 대한 반작용으로 이런 태도가 생긴 듯함
  - 글의 저자 Andy Masley에게 물 사용 문제를 물어봤는데, 그는 [“The AI Water Issue is Fake”](https://andymasley.substack.com/p/the-ai-water-issue-is-fake) 글에서  
    오히려 대규모 수요가 생기면 지역 수도 시설이 확충되어 **음용수 가격이 내려갈 수 있다**고 주장했음  
    그의 [추가 의견](https://bsky.app/profile/andymasley.bsky.social/post/3m5mqcegcps2z)에 따르면, “AI가 귀중한 물만 쓴다”는 비판은 오히려 상황을 거꾸로 본 것이라 함
  - 나는 원래 비슷한 입장이었지만, **Hao의 책**을 읽고 생각이 바뀌었음  
    칠레의 한 도시에서 Google 데이터센터가 지역의 **가뭄을 악화**시킨 사례가 있었고,  
    다른 지역에서는 바닷물을 식수에 섞을 정도로 심각했다고 함  
    도시 전체 소비량에 맞먹는 물을 쓰는 건 분명 문제라고 생각함
  - “다른 산업이 더 나쁘다”는 이유로 데이터센터가 면죄부를 받을 순 없음  
    골프장과 데이터센터 모두 **외부비용**을 지불해야 하며,  
    건조 지역에서 비경제적이라면 그게 더 낫다고 봄
  - 데이터센터 냉각탑은 **담수**를 써야 하지만, 농업용수와 크게 다르지 않음  
    농업에 쓸 수 있는 물이라면 냉각에도 쓸 수 있음  
    에너지 사용 문제도 과장된 면이 있음 — 결국 **저렴한 재생에너지**가 경쟁력을 가질 것임

- LLM의 한계는 **하드웨어 문제**라고 생각함  
  인간 뇌의 뉴런은 수천 개의 입력과 출력을 동시에 처리하지만, LLM 뉴런은 단일 입출력만 가짐  
  인간 뇌는 20W 정도로 작동하지만, LLM은 수 MW를 써야 함  
  GPU나 TPU로는 **AGI**에 도달하기 어렵고, 완전히 새로운 **하드웨어 패러다임**이 필요함
  - 벌 한 마리조차 자율적으로 비행하고 협력하는데, 우리는 아직 그런 AI를 만들지 못함  
    단순히 **연산량 부족**의 문제가 아님
  - 인간의 복잡한 하드웨어는 생존을 위해 진화한 결과임  
    지적 활동만을 위한 환경에서는 그렇게 많은 뉴런이 필요 없을 수도 있음
  - 반도체 기술로 보면 3nm 공정의 100mm² 다이에 **1~10조 개의 피처**를 넣을 수 있음  
    문제는 규모가 아니라 **배치 구조(Electronic Design Automation)** 임  
    [EDA 위키 문서](https://en.wikipedia.org/wiki/Electronic_design_automation) 참고
  - 요약이 훌륭함. 인간은 고차원 데이터를 다루는 데 약하지만, **샌드위치 몇 개**로 작동함
  - LLM은 뇌와 구조적으로 완전히 다름  
    뇌는 여러 입력 경로와 다양한 신호 방식을 가지며, **설계 복잡성**이 훨씬 큼

- AGI 담론은 **종교적 충동**의 연장선 같음  
  인간은 여전히 모든 문제를 해결해줄 **절대적 해답**을 갈망함
  - 나도 무신론자지만, 인간에게 **영성**은 필수적이라 생각함  
    억누르면 더 나쁜 형태로 되돌아옴  
    명상, 절제, 타인에 대한 윤리 같은 개인적 신념이 나의 ‘종교’임
  - “태양의 힘을 지상에” 같은 **핵융합 담론**도 비슷한 종교적 언어를 씀  
    태양이나 뇌처럼 자연 시스템을 기술로 재현하려는 시도임
  - G.K. 체스터턴이 1924년에 “20세기는 어떤 종교 권위라도 가지려 한다”고 썼음
  - AI 버블은 **광기 어린 투기**와 다를 바 없음  
    종교처럼 권력 구조가 신념을 이용해 **통제**를 유지함  
    인간의 **맹신과 사기**는 시대를 막론하고 반복됨  
    [참고: *Extraordinary Popular Delusions and the Madness of Crowds*](https://en.wikipedia.org/wiki/Extraordinary_Popular_Delusions_and_the_Madness_of_Crowds)
  - Emmanuel Todd의 “좀비 종교” 개념이 인상 깊음  
    종교가 사라진 사회는 먼저 **가치만 남은 껍데기** 단계를 거치고,  
    이후 **무(無) 종교** 단계로 빠지며 **도덕적 공백**이 생김  
    일부는 AI에게 복종하려 하지만, “AI가 말했으니까”는 **영감 없는 신앙**임

- 나도 기술자로서 **효율적이고 무해한 문제 해결**을 원하지만, 현실은 복잡함  
  Raspberry Pi에서 Bluetooth 설정을 하다 GPT와 Claude의 도움으로 해결했음  
  Stack Overflow나 포럼은 예전만큼 활발하지 않고, 문서도 흩어져 있음  
  기술이 너무 복잡해져서 결국 **LLM에 의존**해야만 하는 상황이 됨
  - 단기적으로는 genAI의 도움이 필요하지만,  
    장기적으로는 **AI 없이는 유지 불가능한 사회**는 지속될 수 없음  
    기술은 다시 **단순함**으로 돌아가야 함
  - 요즘은 배포판마다 **위키 매뉴얼**이 있음  
    예를 들어 [ArchWiki Bluetooth](https://wiki.archlinux.org/title/Bluetooth)나 [Debian BluetoothUser](https://wiki.debian.org/BluetoothUser) 참고
  - 진짜 위험은 기술 복잡성이 AI로 인해 더 심화되는 것임  
    이미 회사에서도 **AI 에이전트가 도구를 대신 실행**하는 구조가 생기고 있음  
    결국 인간은 내부 로직을 이해하지 못하게 될 위험이 큼
  - LLM은 Google이나 Stack Overflow의 **대체재**로는 훌륭함  
    다만 인간을 완전히 대체하기엔 아직 **근본적 한계**가 있음
  - 검색이 AI보다 나쁜 이유는 **엔시티피케이션(enshittification)** 때문임  
    결국 LLM도 같은 길을 갈 가능성이 큼

- 업계의 일부는 LLM을 **근본적 막다른 길**이라 주장하지만,  
  주식과 명성에 얽매여 현실을 인정하지 않음
  - AGI 관점에서는 막다른 길일 수 있지만, **경제적 가치**는 여전히 큼
  - 증기기관이 비행에는 부적합했지만, **내연기관 발전**의 기반이 된 것처럼  
    LLM도 AGI로 가는 **중간 단계 기술**일 수 있음
  - “근본적 막다른 길”이라는 표현은 과장임  
    AGI 시스템의 **핵심 구성요소**가 될 수도 있음
  - 이렇게 빠른 발전을 보고도 “환상”이라 부르는 건 이해하기 어려움
  - “월급이 걸린 사람은 설득할 수 없다”는 말이 딱 들어맞음

- 나는 Whisper 덕분에 영상 자막 작업이 **혁신적으로 단축**되었음  
  예전엔 몇 시간 걸리던 걸 몇 분 만에 끝냄  
  좋은 UI를 가진 **MacWhisper** 덕분에 접근성도 높아졌음  
  - 저자도 동의함. 딥러닝과 트랜스포머는 분명 **실질적 가치**를 만들어냈음  
    예를 들어 변호사들이 LLM으로 **무죄 입증 자료를 발굴**하는 사례도 있음  
    과도한 확장 대신 **실용적 활용**이 중요함
  - 컴퓨터 비전 분야도 여전히 중요하지만, **산업 규모의 응용**이라 대중에게 덜 보임
  - AI 발전의 **방향성**에 대해 어떻게 생각하는지 궁금함
  - Whisper처럼 많은 AI 도구가 결국 **로컬·무료화**될 것임  
    몇 년 안에 개인용 LLM이 **노트북 수준**에서 돌아가는 시대가 올 것임

- 콘텐츠 조정자를 **착취한다**는 표현은 과장이라 생각함  
  이건 30년 전부터 존재한 **인터넷 모더레이션 업무**임  
  불쾌할 수는 있지만, 새롭거나 끔찍한 일은 아님  
  AGI 추구와는 별개로 **필요한 역할**임

- 현실적인 AI 논의가 반갑게 느껴짐  
  트랜스포머 기술 자체가 쓸모없다는 게 아니라,  
  “곧 AGI가 온다”는 **과도한 과장**이 문제임  
  HN은 대부분의 유행을 잘 견뎌왔지만, 이번엔 예외처럼 보임
  - HN에서 AGI가 곧 온다고 믿는 분위기는 느끼지 못했음

- 우리는 **쉽기 때문이 아니라 어렵기 때문에** 도전해야 함  
  AGI가 환상일지라도 그 과정에서 유용한 문제들이 해결될 수 있음  
  데이터센터의 **탄소 배출**은 과장된 면이 많고,  
  장기적으로 **청정에너지 기반 데이터센터**가 더 경제적임
  - 하지만 AI 데이터센터의 전력 소비가 **전기요금 상승**을 유발하고 있음  
    이는 서민에게 직접적인 부담임
  - 어려운 일이라도 **인간 행복에 실질적 도움이 되는가**를 따져야 함  
    지금의 AI는 그 점에서 설득력이 부족함

- DeepMind와 Demis Hassabis는 실제로 **과학적 성과**를 내고 있음  
  예: [AlphaFold](https://arxiv.org/abs/2511.02864), AlphaEvolve 등  
  이런 연구가 있는데 “AI는 환상”이라고만 말하는 건 불공정함
  - AlphaFold나 AlphaEvolve는 **AGI 추구가 목적이 아님**  
    글의 요지는 AGI 집착을 비판하는 것임
  - DeepMind는 다른 기업보다 **과학 연구 중심**으로 보임  
    Hassabis는 진심으로 과학 발전에 관심 있는 듯함  
    반면 일부 기업은 단순히 **돈벌이용 PR**에 가깝게 보임
  - Hao는 단순한 “AI 비판서”가 아니라 **신뢰받는 기자의 저작**임
  - 인용한 사례들을 보면 AGI 개념을 **혼동한 듯**함

### Comment 46514

- Author: manist67
- Created: 2025-11-19T09:28:38+09:00
- Points: 1
- Parent comment: 46344
- Depth: 1

agi 얘기 하는데 다들 지가 뭐 했는지 얘기하고있네

### Comment 46412

- Author: kandk
- Created: 2025-11-17T14:14:41+09:00
- Points: 2

엔지니어링에 대해 환경·노동 착취 문제 같은 이상한거 들고 올지 말고,   
차라리 망할거라고 리포팅 내고, 숏을 치는 행동을 보여주는게 어떨까 싶음..
