# LLM은 당신의 더닝-크루거 효과를 강화하는 스테로이드

> Clean Markdown view of GeekNews topic #24286. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=24286](https://news.hada.io/topic?id=24286)
- GeekNews Markdown: [https://news.hada.io/topic/24286.md](https://news.hada.io/topic/24286.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2025-11-11T09:50:58+09:00
- Updated: 2025-11-11T09:50:58+09:00
- Original source: [bytesauna.com](https://bytesauna.com/post/dunning-kruger)
- Points: 4
- Comments: 2

## Topic Body

- **대형언어모델(LLM)** 과의 대화는 사용자가 실제보다 더 많이 알고 있다고 느끼게 만드는 **확신의 착각**을 강화함  
- 사용자는 대화 후 종종 **잘못된 정보에 확신을 가지는 상태**로 남으며, 이는 반복적 사용을 부추기는 **심리적 중독성**을 가짐  
- LLM은 아이디어를 확장하고 사고를 증폭시키지만, 동시에 **자기기만을 강화하는 도구**로 작용할 수 있음  
- 기술적으로는 **통계적 추론과 대규모 학습 자원 투입**에 기반한 비교적 단순한 구조지만, 사회적 영향은 매우 큼  
- 이러한 모델은 **지식 엔진이 아니라 ‘확신 엔진’** 으로 이해해야 하며, 인간의 사고와 언어 사용 방식에 근본적 변화를 일으키고 있음  

---
### 확신의 착각과 LLM의 심리적 효과
- Bertrand Russell의 “The Triumph of Stupidity” 인용을 통해, **무지한 확신과 지적 회의의 대비**를 언급  
  - Russell은 “세상 문제는 어리석은 자는 확신에 차 있고, 지혜로운 자는 의심으로 가득하다”고 표현  
- LLM과의 대화에서 사용자는 **잘못된 정보에도 확신을 가지는 경향**을 보임  
  - ChatGPT가 “좋은 아이디어”라고 반응할 때, 실제로는 그렇지 않은 경우가 많음  
- 작성자는 LLM과의 상호작용 후 **지식이 늘었다는 착각**을 자주 경험함  
  - 정보가 틀렸다는 것을 인식하면서도, **확신이 주는 쾌감** 때문에 반복 사용하게 됨  
- 이러한 경험은 **심리적 중독성**을 띠며, 사용자는 아이디어를 발전시킬 때마다 LLM에 의존하게 됨  
  - 일상적 상황에서도 LLM에 질문하려는 충동이 생김 (“가방을 잃어버렸을 때 ChatGPT에 물어볼까 생각함”)  

### 사고 증폭과 자기기만의 양면성
- LLM은 **사고를 증폭시키는 거울**로 묘사됨  
  - 사용자의 생각을 여러 방향으로 확장시키며, 때로는 흥미로운 결과를 낳음  
- 그러나 이 증폭은 **양날의 검**으로, 좋은 아이디어를 발전시키기도 하지만 **잘못된 생각을 강화**하기도 함  
  - LLM은 **유창하고 권위적인 어조**로 오류를 포장해 **심리적 함정**을 만듦  

### 기술적 구조와 흥미의 불균형
- 작성자는 LLM을 **“지루한 기술”** 로 평가함  
  - 본질적으로 **확률적 블랙박스**이며, 훈련은 통계적 추론의 반복임  
- 최근의 소프트웨어·하드웨어 혁신은 존재하지만, **LLM 고유의 혁신은 제한적**이라 언급  
  - “진짜 혁신은 막대한 자금을 투입해 대규모로 학습시킨 것일지도 모른다”고 표현  
  - RLHF(인간 피드백 강화학습)는 예외적 혁신일 가능성으로 언급됨  

### 사회적·언어적 전환의 영향
- LLM의 진정한 흥미는 **기술 자체보다 사회적 영향**에 있음  
  - 교육, 노동, 사회 전반에서 **중대한 변화의 전조**로 평가됨  
- 언어는 인간 정체성의 핵심이며, **기계가 언어 영역에 진입한 순간 변화가 시작됨**  
  - 그 변화의 본질은 아직 명확하지 않지만, **“변화의 조류가 움직이고 있다”** 는 감각이 존재함  

### 지식 엔진이 아닌 확신 엔진
- LLM은 **지식을 제공하는 엔진이 아니라 확신을 생성하는 엔진**으로 봐야 함  
  - 이는 향후 **단기 및 중기적 미래의 핵심 특징**을 설명하는 개념으로 제시됨  
- 인간의 사고와 언어 사용 방식이 **기계적 확신 생성 메커니즘**과 결합하면서 새로운 사회적 패턴이 형성되고 있음

## Comments



### Comment 46195

- Author: xguru
- Created: 2025-11-11T17:34:45+09:00
- Points: 1

[AI는 ‘더닝-크루거 효과’를 서비스로 제공한다](https://news.hada.io/topic?id=24253)

### Comment 46169

- Author: neo
- Created: 2025-11-11T09:50:58+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=45876744) 
- 나는 LLM을 쓸 때마다 오히려 **내가 더 멍청해지는 느낌**을 받음  
  스스로 공부해서 얻은 지식이 아니라 **기댄다는 감각**이 강해서 자신감이 줄어듦  
  책이나 논문처럼 여러 출처를 교차 검증하는 습관이 있어서, LLM의 답변은 단순히 평균치로 느껴짐
  - LLM을 너무 자주 쓰면 진짜로 **뇌가 꺼지는 느낌**이 듦. 마치 반복적인 게임을 오래 할 때처럼 멍해짐
  - 예전에 학교에서 “**위키백과를 그대로 믿지 말고 출처를 확인하라**”는 말을 자주 들었음  
    그런데 지금은 사람들이 위키를 거의 절대적인 진리처럼 인용함. LLM도 시간이 지나면 그렇게 될 것 같음
  - 우리 회사는 오픈소스 제품을 운영하는데, **챗봇이 만든 설정**을 그대로 따라 했다가 안 된다는 문의가 많음  
    심지어 API가 다운됐다고 항의하지만, 사실은 챗봇이 **엔드포인트를 지어낸 것**임
  - 나도 LLM 덕분에 일을 더 빨리 끝내지만, 그게 내가 한 일 같지 않아서 **가짜 같은 기분**이 듦  
    결국 스스로 찾아보고 실험하려는 노력이 줄어듦. 규율이 있는 사람만이 진짜로 이 도구를 잘 쓸 수 있을 것 같음
  - AI의 답변은 틀리지 않더라도 **어딘가 허술한 냄새**가 남음. 신뢰감이 약함

- LLM은 마치 **Bill Bryson의 책**처럼 그럴듯하고 권위 있게 들리지만, 실제로 아는 분야에선 틀린 부분이 많음을 느낌  
  그래도 우리는 여전히 다음 질문에 또 기대를 걸게 됨
  - 나는 LLM을 **학습의 출발점**으로 쓰는 편임. 완벽한 답을 기대하진 않지만, 새로운 용어나 개념을 빠르게 익힐 수 있음  
    예를 들어 1990년식 Miata에 스위치를 달려고 했는데, LLM 덕분에 **릴레이와 DPDT 스위치** 개념을 처음 알게 됨  
    회로도는 틀렸지만 공부 방향을 잡는 데 도움이 됨
  - 이 비교가 완전히 공정하진 않다고 생각함. 우리가 잘 아는 주제일수록 **더 어려운 질문**을 하니까 LLM이 당연히 더 자주 틀림  
    반면 모르는 분야에선 기초 수준의 답만으로도 충분히 인상적임
  - 나는 소설 속 인물의 동기를 분석하려고 ChatGPT에 물어봤는데, **사실관계가 틀린 부분**이 많았음  
    모르는 사람에겐 그럴듯해 보이지만, 잘못된 정보 위에 생각을 쌓으면 결국 **더 왜곡된 결과**가 나옴  
    대화 내용은 [여기서 볼 수 있음](https://chatgpt.com/share/691266fa-c76c-8011-876c-027206abd2fd)
  - Bill Bryson을 언급한 게 너무 웃김
  - Bryson 책을 읽어보려 했는데, 구체적으로 어떤 부분이 틀렸는지 예시가 궁금함

- 대학 시절 강의 들을 때도 비슷한 느낌이었음  
  수업 중엔 다 이해한 것 같지만, **직접 문제를 풀어보면** 빠진 부분이 많았음을 깨달음
  - 이번 학기 내 학생들 대부분이 **LLM으로 과제를 한 것 같음**  
    코드가 수업 맥락을 반영하지 못해 오류가 나는데, 결국 내가 그 부분을 고쳐야 함
  - 학습에서 **인식(recognition)** 은 쉽지만 **회상(recall)** 은 어렵다는 점이 문제임  
    고생 없이 배우면 더 잘 배운 것처럼 느껴지지만 실제로는 그렇지 않음
  - 지금 대학생들이 그 ‘고생’을 LLM으로 대체하고 있다는 게 걱정됨
  - 전문가들도 비슷한 문제를 겪음. 일반인을 위해 단순화한 설명을 하면, 오히려 **거짓말쟁이로 몰리는 경우**가 많음
  - 세부 정보가 부족한 것과 **자신 있게 틀리는 것**은 다름  
    예를 들어 Claude가 내 건물 기초가 위험하다고 했는데, 실제 검사관은 웃으면서 아무 문제 없다고 함

- 수학·물리 서브레딧에서도 종종 **ChatGPT와 함께 물리학의 통일 이론을 만들었다**는 글이 올라옴  
  예전에도 그런 사람은 있었지만, LLM 이후로 훨씬 많아짐
  - 심지어 **Uber 전 CEO**도 그런 식으로 행동했음  
    관련 기사: [Gizmodo 링크](https://gizmodo.com/billionaires-convince-themselves-ai-is-close-to-making-new-scientific-discoveries-2000629060)

- LLM을 읽는 경험은 신문을 읽는 것과 비슷함  
  모르는 분야는 많이 배운 것 같지만, 아는 분야에선 **엉터리임을 바로 알아차림**  
  그래서 내가 모르는 주제에 대해선 얼마나 틀리고 있을지 걱정됨
  - 이건 바로 **Gell-Mann 망각 효과**라고 함  
    [위키백과 설명](https://en.wikipedia.org/wiki/Gell-Mann_amnesia_effect)
  - 사실 신문뿐 아니라 **책도 신뢰하기 어려운 시대**임  
    누구나 출판할 수 있고, 영상도 이제는 조작이 쉬워짐  
    결국 중요한 건 **출처를 선별하는 능력**임

- 나는 사람에게서 정보를 들을 때처럼 ChatGPT에게도 **출처와 신뢰도 필터**를 적용함  
  답을 듣고 나면 ‘지식을 얻었다’기보다 **탐색할 방향을 얻었다**는 느낌임
  - 그 “탐색의 출발점”이 실제 지식으로 발전한 사례가 궁금하다는 질문을 받음
  - 이건 [“default to null” 개념](https://www.greaterwrong.com/posts/4AHXDwcGab5PhKhHT/humans-who-are-not-concentrating-are-not-general)을 떠올리게 함  
    이해가 안 되는 문장은 ‘내가 모르는 게 아니라, 텍스트가 무의미할 수도 있다’고 가정하는 태도임
  - 문제는 인간의 기억이 **사실보다 맥락을 더 빨리 잊는다는 점**임  
    결국 시간이 지나면 잘못된 정보도 내 세계관에 섞여 들어감

- LLM의 미래에 대해 **확신하는 척하는 글들**이 너무 많음  
  하지만 역사를 보면, **양(Quantity)** 이 질을 바꾼 사례가 많음  
  체스 엔진, 구글 검색, 위키백과 모두 단순한 원리에서 출발했지만 **데이터의 규모**가 혁신을 만들었음  
  LLM도 단순한 행렬 곱셈이지만, 어쩌면 **‘고기(meat)’가 생각하는 것처럼** 새로운 지능이 나올 수도 있음
  - 하지만 지금은 위키백과의 **정치적 편향**이나 [xkcd 978](https://xkcd.com/978/)에서 말한 미묘한 조작이 여전히 존재함
  - “생각하는 고기” 이야기를 모른다면 [이 글](https://www.mit.edu/people/dpolicar/writing/prose/text/thinkingMeat.html)을 읽어보면 좋음
  - 예전엔 고기가 파리를 만든다고 믿었듯, 언젠가 **고기가 생각을 만든다는 착각**도 깨닫게 될지도 모름

- “LLM은 **지식 엔진이 아니라 자신감 엔진**이다”라는 말이 인상적임  
  기술 문제를 물었을 때 “그건 알려진 문제”라고 답해주면, **내가 멍청한 게 아니라 진짜 어려운 문제구나** 하고 안심됨  
  예를 들어 WebStorm에서 디버거 기본 탭을 바꾸려 했는데, AI가 “방법이 없다”고 해서 시간 낭비를 막았음
  - 하지만 AI는 이런 식으로 **거짓 확신을 주는 경우**가 많음  
    내가 지어낸 문제를 던져도 “그건 알려진 이슈”라며 그럴듯하게 속임

- 나는 LLM을 **권위의 원천이 아니라 사고의 거울**로 씀  
  내 생각을 설명하다 보면 스스로의 **혼란이나 논리적 결함**을 발견함  
  언어는 본래 불확실한데, LLM은 그 불확실성을 통계로 드러내줌  
  그래서 비판적으로 접근하면 오히려 **사고를 정제하는 도구**가 됨  
  결국 인간도 AI도 완벽하지 않다는 걸 인정하고, **낯선 사람을 대하듯 회의적으로** 대하는 게 중요함

- “LLM은 지식이 아니라 자신감을 만든다”는 말에 공감함  
  완벽하지 않아도 **확신을 가지고 실행하는 태도**가 때로는 더 좋은 결과를 가져옴  
  특히 지나치게 신중한 사람에게는 **자신감 자체가 생산성의 핵심**일 수 있음
  - 하지만 **자신감은 사회적 무기**이기도 함  
    근거 없는 확신이 타인에게 신뢰를 주고, 그게 반복되면 겸손과 주저함을 배우게 됨  
    학문적 태도는 이런 이유로 종종 **자기제한적**이 되기도 함
