# LLM과의 대화가 내 사고를 향상시킨 이유

> Clean Markdown view of GeekNews topic #26225. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=26225](https://news.hada.io/topic?id=26225)
- GeekNews Markdown: [https://news.hada.io/topic/26225.md](https://news.hada.io/topic/26225.md)
- Type: GN+
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2026-01-29T16:06:21+09:00
- Updated: 2026-01-29T16:06:21+09:00
- Original source: [philipotoole.com](https://philipotoole.com/why-talking-to-llms-has-improved-my-thinking/)
- Points: 33
- Comments: 10

## Summary

**LLM과의 대화**는 인간이 **스스로 인식하지 못한 사고의 구조를 언어로 드러내는 과정**으로 작동합니다. 프로그래머가 직관적으로 감지하던 **암묵지(tacit knowledge)** 를 문장으로 풀어내며, 가정과 직관을 검증 가능한 형태로 전환하게 됩니다. 반복적인 언어화는 내적 독백의 정밀도를 높이고, **결국 사고의 명료성과 자기 인식 능력을 함께 확장**시킵니다.

## Topic Body

- **LLM과의 대화**는 개인의 사고 명료성과 언어 표현 능력을 높여줌   
- 오랫동안 **암묵적으로 알고 있었지만 말로 표현하지 못했던 생각**을 LLM이 문장으로 정리해 주며, 새로운 학습이 아닌 인식의 순간이 발생  
- 프로그래머의 경험처럼 **직관·패턴 인식·설명하기 어려운 판단**은 언어 이전의 형태로 축적되는 경우가 많음  
- LLM은 이런 **모호한 구조를 언어로 풀어내는 데 특화**되어 있으며, 이유를 분해해 나열해 사고를 재구성할 수 있게 함  
- 생각이 문장으로 고정되면 **가정과 직관을 시험·수정·폐기**할 수 있어 사고의 질이 변화함  
- 반복적인 언어화 과정을 통해 **내적 독백의 정밀도**가 높아지고, 스스로의 사고를 더 잘 인식하게 됨  
  
---  
### 우리가 알고 있는 것의 상당 부분은 암묵적임(tacit knowledge)  
- 프로그래머와 개발자는 설계가 잘못되었음을 **말로 설명하기 전부터 직관적으로 인식**하는 경우가 많음  
  - 설계가 잘못되었음을 직감하거나, **버그를 재현하기 전부터 감지**하는 경우가 이에 해당  
  - 잘못된 추상화를 즉시 알아차리지만, 이를 설명하는 데는 시간이 걸림  
- 이런 암묵지는 실패가 아니라, **경험이 행동 중심 패턴으로 압축된 결과**임  
  - 뇌는 설명이 아니라 실행에 최적화된 방식(패턴)으로 지식을 저장함  
- 그러나 **성찰·계획·교육**에는 **언어 표현이 필수**이며, 표현되지 않은 아이디어는 검토나 공유가 어려움  
  
### LLM들은 정반대의 문제에 능숙함   
- LLM은 **모호한 개념과 구조를 문장으로 변환**하는 데 최적화된 도구임  
- 사용자가 “어렴풋이 옳다고 느끼지만 이유를 설명하기 어려운” 질문을 던지면, **LLM은 단계별로 이유를 정리해 제시**함  
- 각 논점은 서로 직교적(orthogonal)으로 구성되어, 사용자가 이를 **교환·재배열**하며 사고를 확장할 수 있음  
  
### 생각을 말로 표현하면 생각이 달라짐   
- LLM이 아이디어를 문장으로 정리하면, 사용자는 이를 **마음속에서 실험**할 수 있게 됨  
- 막연한 직관이 **명명된 구분**으로 바뀌고, 암묵적 전제가 드러나 **검증·폐기·수정이 가능**해짐  
- 글쓰기가 사고를 정제하듯, LLM은 **속도** 면에서 차별화됨  
  - 반쯤 형성된 생각을 빠르게 탐색하고 잘못된 설명을 버리며 다시 시도할 수 있음  
  - 이 과정이 기존에는 생략했을 사고 단계를 촉진함  
  
### 피드백 루프와 사고의 내면화  
- 시간이 지나면서 LLM 없이도 스스로 **“지금 내가 생각·느끼·믿는 것을 정확히 언어로 표현할 수 있는가?”** 를 묻게 됨  
- LLM이 직접 사고를 개선한다기보다, **언어 사용 능력과 내적 독백의 효율성**을 향상시킴  
- **추론은 명시적 표현에 의존**하므로, **언어적 명료성의 향상이 곧 사고의 명료성으로 이어짐**  
- 이 과정을 반복할수록 **자신이 실제로 무엇을 생각하는지 더 잘 인식**하게 됨

## Comments



### Comment 50219

- Author: sudosudo
- Created: 2026-01-29T22:58:32+09:00
- Points: 3

본인이 메타 인지가 있어야 좋은 사고가 가능한거지, LLM이 있다고 해서 사고가 향상되진 않습니다. 그리고 LLM을 초반에 사용하는 사람은 메타인지도 박살나겠죠..

### Comment 50216

- Author: woung717
- Created: 2026-01-29T21:49:56+09:00
- Points: 2

글쎄요, 오히려 잘못된 아부성 응답들때문에 자신만의 사고관에 갇혀버리는 케이스도 생기는것 같습니다. 명확하게 정리해주는 툴로써는 유용하지만 AI의 응답에 대해서는 항상 비판적 관점으로 보는것도 중요하다고 봅니다.

### Comment 50225

- Author: y15un
- Created: 2026-01-30T00:26:01+09:00
- Points: 3
- Parent comment: 50216
- Depth: 1

저는 그래서 Gemini instruction으로 "사용자를 과하게 칭찬하거나 띄우지 말 것. 중립적이고 과학적/학술적인 문체로 답변할 것. 항상 레퍼런스를 제시할 것."으로 설정하고 사용합니다. 여전히 지시사항을 어기는 경우(e.g., YouTube 비디오 포함 금지를 지시했지만 가끔 끼워넣음)가 왕왕 있지만 그래도 훨씬 깔끔하고 요점에 집중한 답변을 생성합니다.

### Comment 50258

- Author: slimeyslime
- Created: 2026-01-30T12:24:50+09:00
- Points: 1
- Parent comment: 50225
- Depth: 2

간결하고 좋은 지시사항이네요. 저도 적용시켜봐야겠습니다.

### Comment 50202

- Author: neo
- Created: 2026-01-29T16:06:22+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=46728197) 
- 이 글이 내 경험과도 일치함. LLM과 대화하면서 이전에 막연했던 **아이디어를 구체화**하고 관련 주제를 탐색해 이해를 넓힐 수 있었음  
  예전엔 궁금한 게 생겨도 어디서 시작해야 할지 몰랐는데, ChatGPT는 그 아이디어가 이미 존재하는 개념인지, 누가 연구했는지, 어떤 **1차 자료**가 있는지 알려줌  
  세상 탐험의 토끼굴 같음. 지식의 진입 장벽이 낮아지고, 예전엔 지루하게 느꼈던 글쓰기조차 새롭게 다가옴. 이제는 스스로 글을 써보고 싶다는 생각도 듦
  - 2000년대 초반엔 **Wikipedia**가 그런 역할을 했음. 지금은 대화할 수 있는 백과사전 같은 느낌임  
    다만 언젠가 기업들이 LLM을 더 **수익화**하려 할까 걱정됨. 대화 중에 구매 유도 같은 방향으로 흐를 수도 있음
  - 나는 수학엔 약하지만 **아날로그 신시사이저 에뮬레이션**에 관심이 많음. 2000년대 중반의 ‘zero delay filter’ 혁신을 이해하려다 막혔는데, LLM과 대화하면서 드디어 이해가 됨  
    피드백 루프 문제를 해결하는 근사 알고리즘의 작동 원리를 깨달았음. 학생들에게도 이런 학습 방식이 큰 도움이 될 것 같음
  - LLM을 **러버덕(rubber duck)** 처럼 사용하는 건 훌륭한 활용법임
  - 조지 오웰이 “**글쓰기는 곧 생각이다**”라고 말하지 않았던가
  - LLM을 커피에 비유하고 싶음. 커피는 어디서나 구할 수 있는 **생산성 향상 도구**이고, 종류는 다양하지만 결국 ‘원두는 원두’임  
    AI도 비슷하게 보임. 본질은 같고, 주변 장식품만 화려해질 뿐임. 전 세계 커피 시장이 약 5천억 달러 규모인데, AI 시장도 머지않아 그 정도 될 것 같음

- 다른 사람의 경험을 부정하려는 건 아니지만, **생각은 스스로를 강화하는 행위**임  
  스스로에게 질문하고 답하는 과정에서 새로운 생각이 생김. 이 능력을 잊지 말아야 함
  - 내 경험상 LLM은 개인적 사고보다 두 가지 장점이 있음  
    1) 방대한 **지식 인덱스**에 접근할 수 있어 내가 몰랐던 정보를 알려줌  
    2) 즉각적이고 흥미롭게 반응해 피로감을 줄여줌. 덕분에 더 오래 집중할 수 있음  
    다만 너무 **예스맨**이라 반론을 제시하지 못하는 점은 아쉬움. 그래도 LLM과 함께하는 사고는 독립적인 가치가 있음
  - 아무도 ‘생각이 생각을 발전시킨다’는 사실을 부정하지 않음  
    하지만 글로 표현하는 과정은 단순한 사고보다 훨씬 **깊은 메타인지적 사고**를 요구함. 그래서 더 정교한 사고로 이어짐
  - 내 경험상 ‘**재귀적 플라시보 효과**’가 있음  
    생각이 좋아졌다고 느끼면 → 흥분됨 → 더 몰입함 → 결과가 좋아짐 → 더 흥분됨 → 반복됨  
    이런 순환은 LLM 없이도 가능함
  - 거의 동의하지만, 순수한 추론만으로는 정보가 부족할 때가 있음  
    LLM 대화는 종종 **산만하고 비효율적**임. 결국 인간이 방향을 잡아야 함  
    인간의 대화는 느리지만 여전히 더 뛰어난 **추론 능력**을 가짐. LLM은 요약이나 탐색의 출발점으로는 좋지만, 깊은 통찰은 책과 사람의 대화에서 나옴
  - ‘러버덕 디버깅’ 개념을 참고할 만함 ([Wikipedia 링크](https://en.wikipedia.org/wiki/Rubber_duck_debugging))  
    생각을 말로 정리하는 것만으로도 뇌의 다른 부분이 활성화되어 문제 해결에 도움이 됨

- 20년간 다른 일을 하다가 최근에 학부 **컴퓨터 과학 강의**를 시작했음  
  처음엔 코딩 보조로 LLM을 쓸 줄 알았는데, 오히려 **개념적 프레이밍**을 다듬는 데 훨씬 유용했음  
  내가 가진 비전통적 소프트웨어 설계 철학을 명확히 설명할 수 있게 도와줌
  - Geoffrey Hinton의 LLM 가설이 흥미로움. LLM은 세상 지식을 수십억 개의 파라미터로 **압축**해야 하므로, 비유적 사고에 매우 능해야 함
  - 당신의 **비전통적 설계 철학**이 궁금함. 학생들이 부럽다는 생각이 듦

- 원문을 보면 문체가 너무 **LLM스러움**  
  “This is not <>, this is how <>” 같은 반복 구조가 인위적으로 느껴짐. 실제 사람이 이렇게 쓰진 않음
  - 나도 비슷한 위화감을 느꼈음. 문장 구조가 지나치게 **기계적 나열**로 되어 있어서 메시지의 흐름이 깨짐  
    글쓴이는 ‘글쓰기도 사고를 돕지만 LLM 대화는 더 빠르고 마찰이 적다’고 주장하지만, 오히려 **표현의 마찰**이 커져 전달력이 떨어짐
  - 관련된 [pangram.com 링크](https://www.pangram.com/history/89da46c7-113e-4a27-8f3f-dbc8fbc4ab5f/?ucc=XI1PBwnZkyN)

- LLM이 개인의 **암묵지**를 끌어올린다는 점에 공감함  
  동시에 어제 올라온 ‘AI 사용 시 인지 부채(cognitive debt)’에 대한 글([링크](https://news.ycombinator.com/item?id=46712678))도 일리가 있음. 두 입장이 모두 맞는 듯함
  - 결국 **LLM과의 상호작용 방식**에 달려 있음  
    개인적 질문을 던지며 ‘대화’하듯 쓰면 인지 부채가 쌓일 수 있음  
    반면 명령형으로 ‘작업을 지시’하는 방식이라면, 검증 가능한 결과를 얻을 수 있음  
    예를 들어 “내 지역의 새에 대한 에세이를 써줘”는 인간의 창작물로 오해받을 수 있지만,  
    “이 코드베이스에서 고객 과금이 어떻게 작동하나?”는 검증 가능한 **결정적 코드**를 생성함

- 글쓴이의 관찰에 동의함. LLM은 **러버덕 디버깅**처럼 문제를 설명하는 과정에서 스스로 사고를 정리하게 만듦  
  다만 이 ‘러버덕’은 방대한 전문 지식을 가진 존재라는 점이 다름

- 나도 LLM과 아이디어를 이야기하면서 **사고가 정제되는 경험**을 자주 함  
  설명하는 과정에서 생각을 구조화하고, 즉각적인 질문 덕분에 새로운 각도를 탐색할 수 있음

- 이 글의 ‘좋은 사고’ 정의에는 동의하지 않음  
  나에게 좋은 사고란 논리적이고 세부적이며, 다양한 가능성을 명확히 보는 것임  
  LLM은 **직관을 검증하기보단 강화**하는 경향이 있어, 오히려 사고를 흐릴 수 있음

- 나는 LLM을 **지적 토론 상대**로 사용함  
  내 아이디어를 검증하고, 이미 누가 비슷한 생각을 했는지 조사하는 용도로 유용함

- LLM과 대화하는 건 놀랍고도 답답함  
  내 **자연어를 이해하는 컴퓨터**라는 점은 경이롭지만, 학습하지 못한다는 점은 한계임  
  주니어 개발자와는 시간이 지나며 신뢰가 쌓이지만, LLM은 그게 불가능함
  - 하지만 프로젝트마다 **agent.md 파일**을 만들어 점진적으로 맥락을 쌓는 방법을 씀  
    이 파일에 내가 선호하는 문제 접근법, 빌드·테스트·배포 방식 등을 기록해두면 LLM이 덜 엉뚱한 가정을 함  
    일종의 ‘**LLM 십계명**’처럼 관리함. 새로운 세션을 시작할 때마다 이 파일을 읽히면 훨씬 일관된 결과를 얻음  
    완벽하진 않지만, LLM이 스스로 학습하지 못하는 한계를 보완하는 실용적 방법임

### Comment 50212

- Author: [hidden]
- Created: 2026-01-29T21:11:07+09:00
- Points: -1

[숨김 처리된 댓글입니다]

### Comment 50213

- Author: [hidden]
- Created: 2026-01-29T21:14:36+09:00
- Points: 1
- Parent comment: 50212
- Depth: 1

[숨김 처리된 댓글입니다]

### Comment 50214

- Author: [hidden]
- Created: 2026-01-29T21:16:50+09:00
- Points: 1
- Parent comment: 50213
- Depth: 2

[숨김 처리된 댓글입니다]

### Comment 50224

- Author: dogtree
- Created: 2026-01-29T23:56:12+09:00
- Points: 1
- Parent comment: 50214
- Depth: 3

눈을 떴군요.
