Hacker News 의견
  • 몇 년 전 사이드 프로젝트를 하면서 같은 결론에 도달했음

    • AWS 블로그 게시물을 생성하는 사이트를 만들었음
    • 마코프 체인 생성기를 사용해 AWS 발표 게시물을 학습시켰음
    • HTML과 CSS를 복사해 Python과 JS로 결합했음
    • 결과가 꽤 재미있었음
    • GPT를 사용해 업그레이드하려 했으나 덜 재미있었음
    • 현대 LLM은 너무 현실적이라서 재미가 덜함
    • 초기 마코프 생성기의 유머는 터무니없음에서 나왔음
    • 현대 LLM은 가끔 틀리지만 터무니없지는 않음
  • Claude 3.5 Sonnet에게 마코프 체인이 LLM보다 더 재미있다는 주제로 10개의 짧은 농담을 작성해달라고 요청했음

    • 마코프 체인이 도로를 건넌 이유는 예측 불가능성의 다른 쪽으로 가기 위해서임
    • LLM과 마코프 체인이 바에 들어갔을 때, LLM은 통계적으로 가능한 음료를 주문하고 마코프 체인은 치즈로 만든 전등갓을 주문함
    • 마코프 체인이 아빠 농담을 하면 "Mark-ov Twain"이라고 부름
    • LLM이 전구를 갈아끼우는 데 20분 동안 최적의 방법을 설명함
    • 마코프 체인이 "Markov chain reaction of nonsensical hilarity"라고 말함
    • LLM, 마코프 체인, GPT-4가 바에 들어갔을 때, GPT-4는 떠나고 LLM은 윤리 문제를 논의하며 마코프 체인은 스파게티로 만든 자전거를 주문함
    • LLM의 좋아하는 영화는 "Predictable and Furious 17: The Safest Driving Yet"임
    • 마코프 체인이 "바나나로 만든 성에 살고 있는 공주와 감정이 있는 토스터 왕국" 이야기를 함
    • 마코프 체인이 LLM에게 "너의 어머니는 주판이고 아버지는 실리콘 냄새가 난다"고 말함
    • 마코프 체인이 좋은 상담사가 아닌 이유는 "감정을 바나나로 만들어 모자처럼 만들라"고 조언하기 때문임
  • 마코프 체인이 더 낫다는 의미는 아님

    • 예측을 위해 훈련된 모델은 우리의 내부 예측 엔진과 크게 다르지 않아야 함
    • 텍스트의 언캐니 밸리에 가까워지는 것이 문제임
  • 대학 시절 친구들이 대학 신문의 "경찰 보고서" 섹션에 마코프 체인 생성기를 사용했음

    • 결과물의 10%가 가장 재미있었음
    • 현대 LLM은 높은 수준의 의미를 유지하려고 하기 때문에 이런 터무니없음을 피함
  • 성경을 이런 실험에 사용하는 것이 불편함

    • 예수의 십자가 이미지를 AI 이미지 수정 모델에 사용하는 것과 같음
  • 실증적 증거로 /r/subreddit simulator는 마코프 기반의 Reddit 패러디임

    • /r/SubSimulatorGPT2는 LLM 기반의 버전임
    • 마코프 버전이 더 많은 업보트를 받았고 더 재미있었음
  • Reddit에 "AI가 작성한 가짜 XYZ"를 몇 번 게시했음

    • 가장 좋은 반응을 얻은 모델은 GPT-2였음
    • 마코프 체인은 한두 문장 이상 흥미롭지 않음
    • GPT-3 이후 모델은 너무 깔끔하고 지루함
    • GPT-2는 문법을 대체로 맞추고 일관된 아이디어를 유지하면서도 특정 주제에 대한 지식이 부족해 더 재미있음
  • 약 10년 전 학교 다닐 때 마코프 트위터 봇을 만들었음

    • Linus Torvalds의 LKML 메일과 예수의 킹 제임스 성경 인용문을 학습시켰음
    • 두 훈련 세트가 거의 겹치지 않아 히스테릭을 추가해야 했음
  • AI weirdness 블로그의 진화가 이 아이디어를 지지함

    • 초기 LLM, 특히 GPT-3 이전 버전이 더 재미있었음
    • 예를 들어, Ada 버전의 GPT가 생성한 시리얼 이름이 Da Vinci 버전보다 더 재미있었음
  • 개인 디스코드 서버에 두 개의 봇이 있음

    • 하나는 전체 채팅 기록을 학습한 기본 마코프 체인 봇임
    • 다른 하나는 적절한 LLM 봇임
    • 마코프 체인 봇이 항상 더 재미있음