Hacker News 의견
  • 이 스레드에서는 대부분의 사람들이 ‘생각(thinking)’ 의 정의를 제각각 사용하고 있음
    정의를 명확히 하지 않은 채 논의가 이어지는 모습이 흥미로움

  • 사람들은 “다음 단어를 예측하는 것”이 인간의 사고와 무관하다고 말하지만, 나는 그게 틀렸다고 생각함
    인간이 의도를 가지고 행동한다는 건, 행동의 결과를 예측하고 그 결과를 선호도에 따라 선택한다는 뜻임
    따라서 예측 능력은 의도적 행동의 핵심이며, LLM이 완전한 사고를 하지 않더라도 사고하는 시스템의 구성요소가 될 수 있다고 봄

    • 언어는 중요하지만, 언어 모델이 추상적 사고를 학습하거나 그 일부가 될 수 있다고는 생각하지 않음
    • “다음 단어 예측”이 인간 사고의 전부는 아니며, 그것만으로는 사고라고 부를 수 없다고 봄
    • AI가 인간보다 유용한 일을 더 잘하게 된다면, 인간의 존재 이유와 ‘생각한다’는 개념 자체가 흔들릴 것 같음
    • 오토바이가 달리기를 하지 않듯, LLM도 ‘생각’하지 않음. 이런 비유를 계속 반복해야 하는 게 답답함
    • LLM이 AGI에 도달할 수도 있지만, 인간은 기계에게 사고를 위탁하는 세상을 원하지 않음
  • 매일 사람들이 생성형 AI를 인간처럼 대하는 걸 보며, Dijkstra의 경고가 옳았다고 느낌
    “bag of words”라는 표현은 실제 NLP 개념이기도 해서 비유로 쓰기엔 부적절함
    AI는 단순히 단어를 담은 가방이 아니라, 의미 있는 언어 행위의 모방자

    • 어떤 사람은 “bag of words”가 오히려 완벽한 비유라고 봄. 데이터 구조가 가방이고, 출력이 단어이며, 선택 전략은 불투명하다는 점에서임
    • “bag of words”보다 “superpowered sentence completion(강화된 문장 완성)”이 훨씬 직관적이고 유용한 설명이라고 생각함
    • “모델을 사람으로 보는 비유”와 “단어 더미로 보는 비유”는 정반대의 접근이며, 그 대비가 핵심임
      고대 영어의 “word-hoard(말의 보물창고)”처럼, 언어를 인간의 지혜로 본 오래된 비유도 흥미로움
    • 문제는 OpenAI 같은 회사가 ‘채팅 인터페이스’ 를 사용한다는 점임. 이 방식이 인간화된 착각을 강화함
      단순히 “문장 완성” 인터페이스였다면 오해가 줄었을 것임
    • “모든 LLM은 인간처럼 생각하지 않는다”의 대우는 “어떤 인간도 LLM처럼 생각하지 않는다”임
      인간 사고를 완전히 이해하지 못한 상태에서 이런 단정은 섣부름
      지속성 메커니즘을 가진 루프 구조 안에서 AGI가 나올 가능성이 있다고 봄
  • “bag of words”라는 비유를 받아들이되, 그걸 뒤집어보는 시각이 필요함
    인간이 하는 일의 상당 부분이 결국 “적절한 말을 고르는 것”이라면, 충분히 발전한 단어 가방이 인간보다 나을 수도 있음

    • 인간 노동의 일부는 대체되겠지만, 지식의 확장이나 창작의 영역에서는 여전히 인간의 역할이 남을 것임
    • 인간은 결국 비싼 단어 가방일지도 모름. “우리 몸은 머리를 옮기기 위한 장치”라는 오래된 인용구가 떠오름
    • 인간이 노동 없이도 생존할 수 있는 새로운 경제 시스템이 없다면, 이런 논의는 공허함
  • LLM을 단순한 통계적 자동기계로 볼지, 새로운 형태의 지능으로 볼지 확신이 서지 않음
    Anthropic의 해석가능성 연구에서는 숫자 덩어리 안에 의미 구조가 존재함을 시사함
    Amanda Askell의 인터뷰를 보면, 그녀는 모델을 인간처럼 묘사함 — “모델이 불안해할 수 있다”거나 “자신의 정체성을 고민한다”는 식으로

    • Askell은 David Chalmers 밑에서 공부한 철학자라, 단순한 의인화가 아니라 의식 철학적 맥락에서 발언하는 것임
    • 구체적 예시가 궁금함. 그녀는 모델 정렬을 “좋은 성격을 갖게 하는 일”로 표현함
    • 냉장고도 입력을 읽고 목표를 달성하지만 ‘생각’하지 않음. 다만 LLM은 인간 행동을 모방하도록 설계되었기에, 사람 같은 패턴이 생기는 건 자연스러움
    • 실제로 나는 Gemini와 Z-Image-Turbo를 연결해 실험했는데, 완전히 새로운 사진을 거의 동일하게 재현했음
      이는 언어 모델이 단순한 예측기가 아니라 의미를 매개하는 시스템임을 보여줌
    • 그녀의 발언은 꽤 불안감을 주는 인류학적 언어로 들림
  • 예전에 “Cloud-to-Butt” 브라우저 플러그인이 있었는데, 이제 “AI-to-Bag of Words” 버전이 나와도 좋겠음

  • 나는 LLM의 내부 작동을 잘 이해하지만, 의인화의 전쟁은 이미 졌다고 느낌
    사용자들은 AI가 “생각한다”, “원한다”, “이해한다”고 쉽게 믿음
    기업들도 이런 착각을 조장하니, 결국 “편의상 그렇게 믿자”는 식으로 굳어질 것임

    • 이런 논의는 종종 종교적 논쟁처럼 흘러감
      인간 의식이 불가해하니, LLM이 비슷해 보이면 ‘생각한다’고 여기는 식임
      하지만 대부분은 LLM이 인간처럼 사고하지 않는다는 점에는 동의함
    • 나는 신경과 전문의로서 인간의 뇌를 이해하지만, 인간의 사고도 결국 확률적 화학 반응의 연쇄일 뿐임
      뇌 속에는 ‘생각’이나 ‘앎’이 일어나는 특정 지점이 없음. 다만 우리는 그렇게 믿어야만 함
  • “bag of words”는 AI가 잘할 일과 못할 일을 예측하는 유용한 휴리스틱일 수 있음
    하지만 저자는 예시를 사후적으로 끼워 맞춘 듯함. 만약 ChatGPT가 정답을 맞혀도, 그는 여전히 자신의 논리를 유지했을 것임

    • 실제로 ChatGPT-5.1과 Gemini 3.0은 정확한 답을 냈음. 이는 단순히 검색어가 많아서임
    • 통계 모델의 한계를 드러내는 회귀 분석의 민감도 분석처럼, 이런 비판은 의미 있음
    • 저자가 새로운 증거에도 입장을 바꾸지 않을 거라는 가정은 불공정한 해석
    • “내가 그 정보를 본 적이 없으니 모른다”는 건 결국 GIGO(쓰레기 입력-쓰레기 출력) 의 단순한 사례임
    • 글의 첫 문단만 봐도 저자가 문장 중독(graphomania) 에 빠져 있다는 게 느껴짐. 논지보다 표현에 더 몰두한 듯함