# 마르코프 체인, LLM보다 더 재미난 기술

> Clean Markdown view of GeekNews topic #16374. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=16374](https://news.hada.io/topic?id=16374)
- GeekNews Markdown: [https://news.hada.io/topic/16374.md](https://news.hada.io/topic/16374.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2024-08-19T17:33:35+09:00
- Updated: 2024-08-19T17:33:35+09:00
- Original source: [emnudge.dev](https://emnudge.dev/blog/markov-chains-are-funny/)
- Points: 5
- Comments: 1

## Topic Body

### 마르코프 체인이란 무엇인가

- LLMs(대형 언어 모델)이 처음 등장했을 때, 사람들은 이를 매우 똑똑한 마르코프 체인이라고 설명했음
- 요즘 사람들은 마르코프 체인보다 LLMs에 더 익숙함
- 마르코프 체인은 매우 작은, 매우 단순한, 매우 순진한 LLM이라고 할 수 있음
- 마르코프 체인은 현재 문맥을 기반으로 다음 단어를 예측하지만, 의미론, 차원성, 기타 복잡한 벡터 수학을 고려하지 않음
- 마르코프 체인은 원시적인 통계 모델임
- 휴대폰 키보드의 "다음 단어 제안" 기능은 일반적으로 마르코프 체인을 사용함
- 마르코프 체인은 실행 비용이 저렴하고 사용자의 텍스트 스타일에 맞게 쉽게 업데이트할 수 있음
- LLMs와 마르코프 체인의 작동 방식을 깊이 있게 설명할 수 있지만, 여기서는 마르코프 체인이 LLMs보다 작업 수행 능력이 떨어진다는 것만 알면 됨

### 재미란 무엇인가

- 유머는 진지하지 않은 놀라움에 관한 것임
- 최고의 농담은 즐겁고 중요한 "스냅"을 포함함
- "스냅"은 놀라움에서 오는 충격을 의미함
- 놀라움이 적을수록 덜 웃김
- 농담을 많이 들으면 덜 웃기게 되는 이유임
- "랜덤" 유머는 예측 가능성이 예측 가능하기 때문에 웃기지 않음
- 농담 작성은 패턴을 위반하는 것에 관한 것임
- "장면의 실현"을 통해 스냅을 강화할 수 있음
- 더 독창적이거나 묘사적인 언어를 사용하면 장면이 더 현실적으로 보임
- 농담은 다양하고 유머는 주관적임

### LLMs의 예측 가능성

- 문장을 성공적으로 예측하려면 많은 문맥이 필요함
- LLMs는 많은 문맥을 가지고 있음
- LLMs는 많은 수학적 계산을 통해 가장 가능성 있는 다음 토큰을 찾음
- "더 나은" LLM은 더 예측 가능함
- LLMs는 창의적인 글쓰기에는 적합하지 않음
- LLMs는 평균적인 결과를 생성함
- 농담을 생성하려면 LLM이 놀라움을 주어야 함
- 좋은 LLM은 이를 잘 하지 않음
- LLMs는 예술적 표현에 적합하지 않음
- LLMs는 흥미로운 개념을 놓칠 수 있음
- 이 프레임워크를 통해 새로운 언어 모델을 만들 수 있을 것임

### 왜 이것이 흥미로운가

- 이는 더 깊은 무언가를 나타냄
- 이는 영혼 대 기계의 논쟁이 아님
- 이는 모델의 내재된 결함을 보여줌
- ChatGPT의 메시지는 고등학교 에세이처럼 보임
- 이는 평균적인 출력을 재현한 것임
- 이는 성격이 제거되고 학문적 엄격함으로 강화된 것임
- 이는 밋밋하고 기업적인 말투임
- 가짜 아마존 리뷰를 쉽게 식별할 수 있음
- LLM 감지 모델은 곧 성격을 검사해야 할 것임

### GN⁺의 정리

- 이 글은 마르코프 체인과 LLMs의 차이점을 설명하고, 유머의 본질을 탐구함
- 마르코프 체인은 단순한 통계 모델로, LLMs보다 예측 능력이 떨어짐
- 유머는 진지하지 않은 놀라움에 기반하며, 농담 작성은 패턴을 위반하는 것에 관한 것임
- LLMs는 예측 가능성이 높아 창의적인 글쓰기에는 적합하지 않음
- 이 글은 LLMs의 한계를 보여주며, 새로운 언어 모델의 가능성을 제시함

## Comments



### Comment 28113

- Author: neo
- Created: 2024-08-19T17:33:36+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=41286203) 
- 몇 년 전 사이드 프로젝트를 하면서 같은 결론에 도달했음
  - AWS 블로그 게시물을 생성하는 사이트를 만들었음
  - 마코프 체인 생성기를 사용해 AWS 발표 게시물을 학습시켰음
  - HTML과 CSS를 복사해 Python과 JS로 결합했음
  - 결과가 꽤 재미있었음
  - GPT를 사용해 업그레이드하려 했으나 덜 재미있었음
  - 현대 LLM은 너무 현실적이라서 재미가 덜함
  - 초기 마코프 생성기의 유머는 터무니없음에서 나왔음
  - 현대 LLM은 가끔 틀리지만 터무니없지는 않음

- Claude 3.5 Sonnet에게 마코프 체인이 LLM보다 더 재미있다는 주제로 10개의 짧은 농담을 작성해달라고 요청했음
  - 마코프 체인이 도로를 건넌 이유는 예측 불가능성의 다른 쪽으로 가기 위해서임
  - LLM과 마코프 체인이 바에 들어갔을 때, LLM은 통계적으로 가능한 음료를 주문하고 마코프 체인은 치즈로 만든 전등갓을 주문함
  - 마코프 체인이 아빠 농담을 하면 "Mark-ov Twain"이라고 부름
  - LLM이 전구를 갈아끼우는 데 20분 동안 최적의 방법을 설명함
  - 마코프 체인이 "Markov chain reaction of nonsensical hilarity"라고 말함
  - LLM, 마코프 체인, GPT-4가 바에 들어갔을 때, GPT-4는 떠나고 LLM은 윤리 문제를 논의하며 마코프 체인은 스파게티로 만든 자전거를 주문함
  - LLM의 좋아하는 영화는 "Predictable and Furious 17: The Safest Driving Yet"임
  - 마코프 체인이 "바나나로 만든 성에 살고 있는 공주와 감정이 있는 토스터 왕국" 이야기를 함
  - 마코프 체인이 LLM에게 "너의 어머니는 주판이고 아버지는 실리콘 냄새가 난다"고 말함
  - 마코프 체인이 좋은 상담사가 아닌 이유는 "감정을 바나나로 만들어 모자처럼 만들라"고 조언하기 때문임

- 마코프 체인이 더 낫다는 의미는 아님
  - 예측을 위해 훈련된 모델은 우리의 내부 예측 엔진과 크게 다르지 않아야 함
  - 텍스트의 언캐니 밸리에 가까워지는 것이 문제임

- 대학 시절 친구들이 대학 신문의 "경찰 보고서" 섹션에 마코프 체인 생성기를 사용했음
  - 결과물의 10%가 가장 재미있었음
  - 현대 LLM은 높은 수준의 의미를 유지하려고 하기 때문에 이런 터무니없음을 피함

- 성경을 이런 실험에 사용하는 것이 불편함
  - 예수의 십자가 이미지를 AI 이미지 수정 모델에 사용하는 것과 같음

- 실증적 증거로 /r/subreddit simulator는 마코프 기반의 Reddit 패러디임
  - /r/SubSimulatorGPT2는 LLM 기반의 버전임
  - 마코프 버전이 더 많은 업보트를 받았고 더 재미있었음

- Reddit에 "AI가 작성한 가짜 XYZ"를 몇 번 게시했음
  - 가장 좋은 반응을 얻은 모델은 GPT-2였음
  - 마코프 체인은 한두 문장 이상 흥미롭지 않음
  - GPT-3 이후 모델은 너무 깔끔하고 지루함
  - GPT-2는 문법을 대체로 맞추고 일관된 아이디어를 유지하면서도 특정 주제에 대한 지식이 부족해 더 재미있음

- 약 10년 전 학교 다닐 때 마코프 트위터 봇을 만들었음
  - Linus Torvalds의 LKML 메일과 예수의 킹 제임스 성경 인용문을 학습시켰음
  - 두 훈련 세트가 거의 겹치지 않아 히스테릭을 추가해야 했음

- AI weirdness 블로그의 진화가 이 아이디어를 지지함
  - 초기 LLM, 특히 GPT-3 이전 버전이 더 재미있었음
  - 예를 들어, Ada 버전의 GPT가 생성한 시리얼 이름이 Da Vinci 버전보다 더 재미있었음

- 개인 디스코드 서버에 두 개의 봇이 있음
  - 하나는 전체 채팅 기록을 학습한 기본 마코프 체인 봇임
  - 다른 하나는 적절한 LLM 봇임
  - 마코프 체인 봇이 항상 더 재미있음
