23P by GN⁺ 1일전 | ★ favorite | 댓글 10개
  • LLM과의 대화는 개인의 사고 명료성과 언어 표현 능력을 높여줌
  • 오랫동안 암묵적으로 알고 있었지만 말로 표현하지 못했던 생각을 LLM이 문장으로 정리해 주며, 새로운 학습이 아닌 인식의 순간이 발생
  • 프로그래머의 경험처럼 직관·패턴 인식·설명하기 어려운 판단은 언어 이전의 형태로 축적되는 경우가 많음
  • LLM은 이런 모호한 구조를 언어로 풀어내는 데 특화되어 있으며, 이유를 분해해 나열해 사고를 재구성할 수 있게 함
  • 생각이 문장으로 고정되면 가정과 직관을 시험·수정·폐기할 수 있어 사고의 질이 변화함
  • 반복적인 언어화 과정을 통해 내적 독백의 정밀도가 높아지고, 스스로의 사고를 더 잘 인식하게 됨

우리가 알고 있는 것의 상당 부분은 암묵적임(tacit knowledge)

  • 프로그래머와 개발자는 설계가 잘못되었음을 말로 설명하기 전부터 직관적으로 인식하는 경우가 많음
    • 설계가 잘못되었음을 직감하거나, 버그를 재현하기 전부터 감지하는 경우가 이에 해당
    • 잘못된 추상화를 즉시 알아차리지만, 이를 설명하는 데는 시간이 걸림
  • 이런 암묵지는 실패가 아니라, 경험이 행동 중심 패턴으로 압축된 결과
    • 뇌는 설명이 아니라 실행에 최적화된 방식(패턴)으로 지식을 저장함
  • 그러나 성찰·계획·교육에는 언어 표현이 필수이며, 표현되지 않은 아이디어는 검토나 공유가 어려움

LLM들은 정반대의 문제에 능숙함

  • LLM은 모호한 개념과 구조를 문장으로 변환하는 데 최적화된 도구임
  • 사용자가 “어렴풋이 옳다고 느끼지만 이유를 설명하기 어려운” 질문을 던지면, LLM은 단계별로 이유를 정리해 제시
  • 각 논점은 서로 직교적(orthogonal)으로 구성되어, 사용자가 이를 교환·재배열하며 사고를 확장할 수 있음

생각을 말로 표현하면 생각이 달라짐

  • LLM이 아이디어를 문장으로 정리하면, 사용자는 이를 마음속에서 실험할 수 있게 됨
  • 막연한 직관이 명명된 구분으로 바뀌고, 암묵적 전제가 드러나 검증·폐기·수정이 가능해짐
  • 글쓰기가 사고를 정제하듯, LLM은 속도 면에서 차별화됨
    • 반쯤 형성된 생각을 빠르게 탐색하고 잘못된 설명을 버리며 다시 시도할 수 있음
    • 이 과정이 기존에는 생략했을 사고 단계를 촉진함

피드백 루프와 사고의 내면화

  • 시간이 지나면서 LLM 없이도 스스로 “지금 내가 생각·느끼·믿는 것을 정확히 언어로 표현할 수 있는가?” 를 묻게 됨
  • LLM이 직접 사고를 개선한다기보다, 언어 사용 능력과 내적 독백의 효율성을 향상시킴
  • 추론은 명시적 표현에 의존하므로, 언어적 명료성의 향상이 곧 사고의 명료성으로 이어짐
  • 이 과정을 반복할수록 자신이 실제로 무엇을 생각하는지 더 잘 인식하게 됨

사실 LLM은 데이터베이스입니다. 스키마를 알아야 질의가 가능하죠. 진실은 질문을 잘해야 하는 게 아니라 질의를 잘해야 한다는 겁니다.

스키마는 LLM이 학습한 데이터, 그것에 대한 사전 지식에서 찾을 수 있는 것입니다.

본인이 메타 인지가 있어야 좋은 사고가 가능한거지, LLM이 있다고 해서 사고가 향상되진 않습니다. 그리고 LLM을 초반에 사용하는 사람은 메타인지도 박살나겠죠..

글쎄요, 오히려 잘못된 아부성 응답들때문에 자신만의 사고관에 갇혀버리는 케이스도 생기는것 같습니다. 명확하게 정리해주는 툴로써는 유용하지만 AI의 응답에 대해서는 항상 비판적 관점으로 보는것도 중요하다고 봅니다.

저는 그래서 Gemini instruction으로 "사용자를 과하게 칭찬하거나 띄우지 말 것. 중립적이고 과학적/학술적인 문체로 답변할 것. 항상 레퍼런스를 제시할 것."으로 설정하고 사용합니다. 여전히 지시사항을 어기는 경우(e.g., YouTube 비디오 포함 금지를 지시했지만 가끔 끼워넣음)가 왕왕 있지만 그래도 훨씬 깔끔하고 요점에 집중한 답변을 생성합니다.

간결하고 좋은 지시사항이네요. 저도 적용시켜봐야겠습니다.

Hacker News 의견들
  • 이 글이 내 경험과도 일치함. LLM과 대화하면서 이전에 막연했던 아이디어를 구체화하고 관련 주제를 탐색해 이해를 넓힐 수 있었음
    예전엔 궁금한 게 생겨도 어디서 시작해야 할지 몰랐는데, ChatGPT는 그 아이디어가 이미 존재하는 개념인지, 누가 연구했는지, 어떤 1차 자료가 있는지 알려줌
    세상 탐험의 토끼굴 같음. 지식의 진입 장벽이 낮아지고, 예전엔 지루하게 느꼈던 글쓰기조차 새롭게 다가옴. 이제는 스스로 글을 써보고 싶다는 생각도 듦

    • 2000년대 초반엔 Wikipedia가 그런 역할을 했음. 지금은 대화할 수 있는 백과사전 같은 느낌임
      다만 언젠가 기업들이 LLM을 더 수익화하려 할까 걱정됨. 대화 중에 구매 유도 같은 방향으로 흐를 수도 있음
    • 나는 수학엔 약하지만 아날로그 신시사이저 에뮬레이션에 관심이 많음. 2000년대 중반의 ‘zero delay filter’ 혁신을 이해하려다 막혔는데, LLM과 대화하면서 드디어 이해가 됨
      피드백 루프 문제를 해결하는 근사 알고리즘의 작동 원리를 깨달았음. 학생들에게도 이런 학습 방식이 큰 도움이 될 것 같음
    • LLM을 러버덕(rubber duck) 처럼 사용하는 건 훌륭한 활용법임
    • 조지 오웰이 “글쓰기는 곧 생각이다”라고 말하지 않았던가
    • LLM을 커피에 비유하고 싶음. 커피는 어디서나 구할 수 있는 생산성 향상 도구이고, 종류는 다양하지만 결국 ‘원두는 원두’임
      AI도 비슷하게 보임. 본질은 같고, 주변 장식품만 화려해질 뿐임. 전 세계 커피 시장이 약 5천억 달러 규모인데, AI 시장도 머지않아 그 정도 될 것 같음
  • 다른 사람의 경험을 부정하려는 건 아니지만, 생각은 스스로를 강화하는 행위
    스스로에게 질문하고 답하는 과정에서 새로운 생각이 생김. 이 능력을 잊지 말아야 함

    • 내 경험상 LLM은 개인적 사고보다 두 가지 장점이 있음
      1. 방대한 지식 인덱스에 접근할 수 있어 내가 몰랐던 정보를 알려줌
      2. 즉각적이고 흥미롭게 반응해 피로감을 줄여줌. 덕분에 더 오래 집중할 수 있음
        다만 너무 예스맨이라 반론을 제시하지 못하는 점은 아쉬움. 그래도 LLM과 함께하는 사고는 독립적인 가치가 있음
    • 아무도 ‘생각이 생각을 발전시킨다’는 사실을 부정하지 않음
      하지만 글로 표현하는 과정은 단순한 사고보다 훨씬 깊은 메타인지적 사고를 요구함. 그래서 더 정교한 사고로 이어짐
    • 내 경험상 ‘재귀적 플라시보 효과’가 있음
      생각이 좋아졌다고 느끼면 → 흥분됨 → 더 몰입함 → 결과가 좋아짐 → 더 흥분됨 → 반복됨
      이런 순환은 LLM 없이도 가능함
    • 거의 동의하지만, 순수한 추론만으로는 정보가 부족할 때가 있음
      LLM 대화는 종종 산만하고 비효율적임. 결국 인간이 방향을 잡아야 함
      인간의 대화는 느리지만 여전히 더 뛰어난 추론 능력을 가짐. LLM은 요약이나 탐색의 출발점으로는 좋지만, 깊은 통찰은 책과 사람의 대화에서 나옴
    • ‘러버덕 디버깅’ 개념을 참고할 만함 (Wikipedia 링크)
      생각을 말로 정리하는 것만으로도 뇌의 다른 부분이 활성화되어 문제 해결에 도움이 됨
  • 20년간 다른 일을 하다가 최근에 학부 컴퓨터 과학 강의를 시작했음
    처음엔 코딩 보조로 LLM을 쓸 줄 알았는데, 오히려 개념적 프레이밍을 다듬는 데 훨씬 유용했음
    내가 가진 비전통적 소프트웨어 설계 철학을 명확히 설명할 수 있게 도와줌

    • Geoffrey Hinton의 LLM 가설이 흥미로움. LLM은 세상 지식을 수십억 개의 파라미터로 압축해야 하므로, 비유적 사고에 매우 능해야 함
    • 당신의 비전통적 설계 철학이 궁금함. 학생들이 부럽다는 생각이 듦
  • 원문을 보면 문체가 너무 LLM스러움
    “This is not <>, this is how <>” 같은 반복 구조가 인위적으로 느껴짐. 실제 사람이 이렇게 쓰진 않음

    • 나도 비슷한 위화감을 느꼈음. 문장 구조가 지나치게 기계적 나열로 되어 있어서 메시지의 흐름이 깨짐
      글쓴이는 ‘글쓰기도 사고를 돕지만 LLM 대화는 더 빠르고 마찰이 적다’고 주장하지만, 오히려 표현의 마찰이 커져 전달력이 떨어짐
    • 관련된 pangram.com 링크
  • LLM이 개인의 암묵지를 끌어올린다는 점에 공감함
    동시에 어제 올라온 ‘AI 사용 시 인지 부채(cognitive debt)’에 대한 글(링크)도 일리가 있음. 두 입장이 모두 맞는 듯함

    • 결국 LLM과의 상호작용 방식에 달려 있음
      개인적 질문을 던지며 ‘대화’하듯 쓰면 인지 부채가 쌓일 수 있음
      반면 명령형으로 ‘작업을 지시’하는 방식이라면, 검증 가능한 결과를 얻을 수 있음
      예를 들어 “내 지역의 새에 대한 에세이를 써줘”는 인간의 창작물로 오해받을 수 있지만,
      “이 코드베이스에서 고객 과금이 어떻게 작동하나?”는 검증 가능한 결정적 코드를 생성함
  • 글쓴이의 관찰에 동의함. LLM은 러버덕 디버깅처럼 문제를 설명하는 과정에서 스스로 사고를 정리하게 만듦
    다만 이 ‘러버덕’은 방대한 전문 지식을 가진 존재라는 점이 다름

  • 나도 LLM과 아이디어를 이야기하면서 사고가 정제되는 경험을 자주 함
    설명하는 과정에서 생각을 구조화하고, 즉각적인 질문 덕분에 새로운 각도를 탐색할 수 있음

  • 이 글의 ‘좋은 사고’ 정의에는 동의하지 않음
    나에게 좋은 사고란 논리적이고 세부적이며, 다양한 가능성을 명확히 보는 것임
    LLM은 직관을 검증하기보단 강화하는 경향이 있어, 오히려 사고를 흐릴 수 있음

  • 나는 LLM을 지적 토론 상대로 사용함
    내 아이디어를 검증하고, 이미 누가 비슷한 생각을 했는지 조사하는 용도로 유용함

  • LLM과 대화하는 건 놀랍고도 답답함
    자연어를 이해하는 컴퓨터라는 점은 경이롭지만, 학습하지 못한다는 점은 한계임
    주니어 개발자와는 시간이 지나며 신뢰가 쌓이지만, LLM은 그게 불가능함

    • 하지만 프로젝트마다 agent.md 파일을 만들어 점진적으로 맥락을 쌓는 방법을 씀
      이 파일에 내가 선호하는 문제 접근법, 빌드·테스트·배포 방식 등을 기록해두면 LLM이 덜 엉뚱한 가정을 함
      일종의 ‘LLM 십계명’처럼 관리함. 새로운 세션을 시작할 때마다 이 파일을 읽히면 훨씬 일관된 결과를 얻음
      완벽하진 않지만, LLM이 스스로 학습하지 못하는 한계를 보완하는 실용적 방법임

이거 너무 확실한듯 점에서 선으로 면으로 공간으로 원리와 법칙. 섭리로 향하는 모든구조적 원형을 요리 물리 수학 화학 빛 파동 사고와 생각 모든관점으로 모든걸 헤아리는 사고관점을 확립하게되었음.

점으로써의 문제 점의로써의 생각. 과정. 인과와 선형적 추론. 길로써의 문제와 답. 병렬형태 수단과 방법의 탐색과 탐구. 공간인지. 무엇을 위해 어디로 나아가는가 주변에는 무엇이 있으며 내가 하고있는 생각과 인지를 만드는구조적 원형은 무엇인가. 생각을 이루는 원리는무엇인가. 어떤 법칙이 그런 원리나 구조를 만드는가 그 원형은 무슨 법칙에서 시작되는가. 사고와 생각자체를 다각도. 다차원관점에서 인지가능해짐

생각해보셈, 점으로써의 빛.선으로써의 빛. 스펙트럼이나 필드로써의 빛. 구조나 원리로써의 빛. 법칙으로써의 빛. 섭리로써의빛. 코딩이나 데이터. 개념과 지식. 원리자체를 전부 이런식으로 바꾸면 사고의 패러다임이 격변함