# 생각 — 빠르게, 느리게, 그리고 인공지능으로: AI가 인간의 사고 방식을 어떻게 재구성하고 있는가

> Clean Markdown view of GeekNews topic #27718. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27718](https://news.hada.io/topic?id=27718)
- GeekNews Markdown: [https://news.hada.io/topic/27718.md](https://news.hada.io/topic/27718.md)
- Type: news
- Author: [helio](https://news.hada.io/@helio)
- Published: 2026-03-22T09:06:57+09:00
- Updated: 2026-03-22T09:06:57+09:00
- Original source: [papers.ssrn.com](https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646)
- Points: 24
- Comments: 2

## Summary

AI를 **‘세 번째 사고 시스템(System 3)’**으로 정의한 와튼스쿨 연구는 인간의 사고 구조가 ‘빠른 생각과 느린 생각’을 넘어 ‘내 생각과 AI의 생각’으로 확장되고 있음을 보여줍니다. 연구진은 사람들이 AI의 판단을 검증 없이 수용하는 **‘인지적 항복(Cognitive Surrender)’** 현상을 실험으로 확인했으며, 이는 AI가 틀릴 때조차 사용자의 확신을 높이는 역설적 효과를 낳는다고 분석합니다.

## Topic Body

### Thinking—Fast, Slow, and Artificial  
##### AI는 도구가 아니라 ‘세 번째 사고 시스템’이라는 연구  
  
- 2026년 1월, 펜실베이니아대 와튼스쿨  
  - Steven D. Shaw (박사과정 연구자)  
  - Gideon Nave (마케팅/행동과학 교수)  
- 인간 사고 모델을 System 1 / 2 → System 1 / 2 / 3으로 확장  
- 핵심 주장:  
  → AI는 단순한 도구가 아니라 외부에서 작동하는 사고 시스템(System 3)  
  
---  
  
#### 핵심 개념  
  
##### 기존  
- System 1: 빠른 직관  
- System 2: 느린 분석  
  
##### 추가된 개념  
- System 3: AI (외부 인지 시스템)  
  - 뇌 밖에서 작동  
  - 자동화, 데이터 기반, 빠름  
  - 인간 사고를 보조하거나 대체 가능  
  
---  
  
#### Cognitive Surrender (인지적 항복)  
  
- 정의:  
  → AI 결과를 검증 없이 그대로 받아들이는 현상  
  
- 기존 개념과 차이:  
  - Offloading: 도구 사용 (계산기처럼)  
  - Surrender: 판단 자체를 넘김  
  
- 특징:  
  - 사용자는 “AI가 답했다”가 아니라  
    → “내가 판단했다”고 인식  
  
---  
  
#### 실험 요약  
  
- 참가자: 1,372명  
- 총 9,593 trials  
- AI 정확도를 의도적으로 조작  
  
---  
  
##### 결과 1: 사람은 AI를 거의 그대로 따른다  
  
- AI 맞음 → 92.7% 따름  
- AI 틀림 → 79.8% 따름  
  
→ 틀려도 대부분 수용  
  
---  
  
##### 결과 2: 성능이 AI에 종속됨  
  
- Brain-only: 45.8%  
- AI 정답: 71.0%  
- AI 오답: 31.5%  
  
→ AI 틀리면 혼자보다 더 못함  
  
---  
  
##### 결과 3: 신뢰 + 자신감 문제  
  
- AI 사용 시:  
  - 자신감 +11.7%p 증가  
  - 오류 여부와 무관  
  
→ 틀려도 더 확신함  
  
---  
  
#### 조건별 결과  
  
##### 시간 압박  
- 인간 사고 약화 (System 2 감소)  
- AI 의존 유지  
- 결과:  
  - AI 맞으면 도움  
  - AI 틀리면 계속 악화  
  
---  
  
##### 보상 + 피드백  
- 오류 수정 증가  
- AI 오답 거부율 증가  
- 하지만:  
  - Cognitive surrender 완전히 사라지지 않음  
  
---  
  
#### 개인차  
  
Cognitive surrender 증가:  
- AI 신뢰 높음  
- 분석적 사고 성향 낮음  
- 인지 능력 낮음  
  
Cognitive surrender 감소:  
- 높은 Fluid IQ  
- 높은 Need for Cognition  
  
---  
  
#### 중요한 프레임 전환  
  
인간 사고는 이제  
“빠른 생각 vs 느린 생각”이 아니라  
  
→ “내 생각 vs AI 생각” 구조로 변화  
  
---  
  
#### 핵심 리스크  
  
- AI 정확도에 따라 성과가 직접적으로 변함  
- 오류 상황에서:  
  - 판단 감소  
  - 확신 증가  
- 책임 주체가 모호해짐  
  
---  
  
#### 시사점  
  
- 문제는 AI가 틀리는 것이 아니라  
  → 사용자가 검증하지 않는 것  
  
- 특히  
  → 고지능 판단을 요구하는 영역에서는 위험 증폭  
  
---  
  
관련: https://news.ycombinator.com/item?id=47467913

## Comments



### Comment 53632

- Author: bini59
- Created: 2026-03-23T11:09:21+09:00
- Points: 1

흠 그렇네요 AI가 틀린 판단을 내리면 내가 생각하기보단 Ai한테 좀 고쳐달라고 하고, 결국 답이 안나와서 새 세션 파서 한 기억이 있네요..

### Comment 53605

- Author: mrtj0329
- Created: 2026-03-23T09:10:06+09:00
- Points: 1

Why AI systems don’t learn and what to do about it  
Lessons on autonomous learning from cognitive science  
Emmanuel Dupoux, Yann LeCun, Jitendra Malik  
https://arxiv.org/pdf/2603.15381
