Hacker News 의견들
  • Stallman이 MIT AI Lab 시절 symbolic AI를 다뤘고 GCC까지 만든 걸 보면, 기술계 유명인 중에서도 질문의 본질을 깊이 이해하고 있는 사람이라 생각함

    • Symbolic AI와 neural network는 같은 문제를 전혀 다른 방식으로 푸는 기술임. 포토샵 전문가가 회화 전반을 논하는 것과 비슷한 비유임
    • 현대 접근법은 Chomsky식 결정론적 방법론과는 완전히 겹치지 않음
    • 그는 이번엔 빗나간 것 같음. “ChatGPT는 이해하지 못하므로 지능이 아니다”라는 식의 발언은 분석이 아니라 이념적 주장에 가까움. 사실 인간도 비슷하게 직관에서 출발해 논리를 사후에 덧붙이는 존재임. 다만 Stallman의 자유 소프트웨어 철학에는 공감함. 거대 자본의 폐쇄적 모델 독점은 분명 부작용을 낳을 것임
  • 그는 틀리지 않았음. ChatGPT는 지능의 모사체(simulacrum) 일 뿐이며, 유용하지만 완전히 신뢰할 수는 없음. 자유와 개방성의 관점에서도 긍정적이라 보기 어려움

    • “지능의 모사체”라는 표현은 결국 인공 지능을 좀 더 화려하게 표현한 것에 불과함
    • “지능처럼 행동하는 것” 정도로 부르는 게 적절하다고 생각함
    • 그 모사체가 훨씬 강력해진다면, 그때는 지능이라 부를 수 있는지 궁금함
    • 사실 너도 “지능의 모사체”가 아닐까 하는 생각이 듦
  • 나는 LLM이라는 용어를 선호함. 하지만 대부분은 그게 뭔지 몰라서 결국 AI라고 설명하게 됨. LLM은 bullshit generator가 아님. 의미를 모르더라도 결과물이 유용하면 충분함. 마치 요리사가 달걀의 본질을 몰라도 삶을 수 있는 것처럼. 다만 이런 모델이 자체 하드웨어나 제3자 클라우드에서 자유롭게 실행될 수 있어야 함. 지금은 중국 모델이 시장을 장악한 상태임. ChatGPT는 내부의 “code red” 상황을 해결하지 못하면 오래 못 갈 수도 있음

    • 나도 내가 생성하는 것의 의미를 모를 때가 많음. 감정이나 생각 같은 내면 상태는 시간이 지나야 이해되는 경우가 많음. 그래서 저널링이란 과정이 존재함
    • “의미를 모르지만 결과가 중요하다”는 말은 사실 bullshit의 정의와 비슷함
    • ChatGPT가 틀린 걸 모른다는 점에서야말로 bullshit이라는 표현이 완벽함. 거짓말이 아니라, 진실 여부에 상관없이 목표 달성에 집중하는 행위임
    • “결과가 중요하다”는 말은 틀림. 그 결과는 CIA에만 중요할 뿐임
  • Stallman의 사이트에 “What’s bad about” 섹션이 있는 게 웃김. 꽤 자기 인식이 있는 구성임

    • “Reddit에 글을 올리려면 비자유 자바스크립트를 실행해야 한다”는 식의 주장은 존경스럽지만, 이제는 노인 잔소리처럼 들림. 비판은 더 구체적이어야 함
    • 진정한 자기 인식이라면 “What’s bad about Richard Stallman / GPL / GNU / Emacs” 같은 항목도 넣었을 것임
  • 계산기가 숫자를 이해하지 못한다고 해서 수학을 못한다고 말할 수 없는 것처럼, AI도 단어를 다루는 방식이 인간과 유사함. 창의성은 부족하지만 일상적 업무는 충분히 처리 가능함. 예를 들어 독일 세금 제도를 묻는다면, 약간의 부정확함이 있더라도 내가 두 시간 조사한 결과보다 정확할 가능성이 높음

    • 하지만 그 비유는 적절하지 않음. AI는 이해나 추론을 하지 않기 때문에 진리를 생성하지 않음. 계산기는 수학 연산에 대해 정확히 설계되어 있지만, 세금 신고는 못 하는 것과 같음
  • 지능을 “낯선 현상을 이해하고 정신적 모델을 만드는 능력”으로 정의한다면, 현재 모델은 추론 시점에 가중치를 갱신하지 못하므로 지능이 아님. gradient descent 학습은 비효율적이기에, 현재 inference 전용 모델의 지능은 사실상 0에 가까움

    • 하지만 지능과 학습은 구분되어야 함. 단기 기억만 있는 사람도 여전히 지능적일 수 있음. Stallman은 단순한 시스템도 AI로 본다고 했으니, 인간형 지능만을 말하는 건 아님
  • LLM은 결국 환각(hallucination) 을 만들어내는 존재임. 다만 어떤 환각은 유용함

    • 나도 인생의 많은 부분을 환각처럼 살아왔음 (약물은 아님)
    • 언젠가 의식과 퀄리아 자체가 환각임을 인정하게 될지도 모름
  • “ChatGPT는 아무것도 이해하지 못하므로 지능이 아니다”라는 주장은, 오히려 ChatGPT를 인간화(anthropomorphize) 하면서 깎아내리는 논리임. 다만 “남의 서버에서 돌아가는 소프트웨어는 컴퓨팅 자유를 훼손한다”는 부분에는 동의함. 이런 AI 발전이 자유롭게 실행하거나 개발할 수 없는 환경에서 이루어지는 건 아쉬움

  • LLM은 진짜 지능은 아니지만 인공 지능(artificial intelligence) 이라 부를 수 있음. 인공 잔디가 진짜 잔디는 아니지만 여전히 “잔디”라 부르는 것처럼, 이름 자체는 타당함

    • 그래서 나는 “AI” 대신 LLM이라는 정확한 용어를 씀. “인공”이란 단어는 인간이 만든 것을 뜻하지만, Stallman은 그것이 인간 지능과 같은 목적을 수행하지 않기 때문에 부적절하다고 봄. CEO가 챗봇으로 직원을 대체한다면, 그것은 인공 지능이 아니라 인공 지원 인력
    • LLM이 실제 경험이 없다고 하지만, 인간도 직접 감각하지 못한 영역이 많음. 예를 들어 오르트 구름에 대해 우리가 아는 것도 결국 간접 경험임
  • LLM의 본질은 단순함. 지능의 정의는 중요하지 않음. 나는 LLM을 “** Associator**”라 부름. 생각하거나 이해하지는 않지만, 언어적 패턴을 연관시켜 유용한 결과를 만들어냄

    • 이 관점이 마음에 듦. 사람들은 LLM을 신비화하거나 지능 논쟁에 빠지지만, 그냥 있는 그대로 보면 됨. 문제는 우리가 인간을 더 잘 모른다는 점임

인공 지능이 궁극적으로 영혼을 가질 수 없다면 그들의 지능이 반드시 진실을 추구하는 인간의 지능과 닮아야 할 이유가 있을까요? 심지어 우리가 지적 활동이라고 부르는 행위 중 상당수는 거짓과 환각에 기반하고 있습니다. 현대사회의 인간들도 현상을 인식하지 못해서 (또는 일부러) 거짓으로 타인의 삶에 영향을 끼치고 있습니다.