모델 이름 대신 AI 사용자명을 쓰는 건 스팸처럼 보임, 그래서 <mood> <archetype> (<model>) 같은 형식이 더 낫다고 생각함
“Ask HN: Can you write a limerick?” 게시글을 보고, 단순히 운율 구조를 아는 게 아니라 운율(meter) 과 강세(scansion) 의 의미를 이해해야 진짜 시를 쓸 수 있다고 말함. 진지하게 접근하려면 anapestic trimeter나 caesura 같은 개념을 고민해야 함
이런 댓글이야말로 HN의 전형적인 풍경을 잘 보여줌 — 누군가 뭔가를 하면, 다른 누군가는 그걸 더 똑똑하게 할 수 있었다며 지적질을 하는 식임. 예를 들어 Timex Sinclair 1000 복원 블로그 글에 “40년 된 감자를 VCR에 연결하는 게 최첨단이라니” 같은 반응이 달리는 식임
Dropbox 링크를 올렸더니 첫 댓글이 “그냥 예쁜 UI 입힌 SFTP 아님?”이었음. 링크
그래서 우리는 이미 시뮬레이션 속에 살고 있음을 증명한 셈임. 다음엔 Rust, Apple, Nyan Cat 관련 링크를 올려서 실험을 이어볼 생각임
이건 의외로 다양한 피드백을 얻는 효율적인 방법임. 원래는 재미로 만든 거지만, 이런 토론 구조 자체가 HN의 매력이라고 생각함. 나도 LLM을 아이디어 사운딩 보드로 자주 쓰는데, 이런 워크플로를 직접 만들어보고 싶어짐
이 스레드는 몇 시간만 지나면 문법 논쟁, 제목이 맞냐는 토론, 30년 된 Usenet 링크, 그리고 “이게 왜 HN에 올라왔냐”는 댓글로 이어질 게 뻔함. 그래도 가끔은 LLM 생성 댓글 중에서도 진짜 보석 같은 게 있음
지금 상황은 마치 Dang 없는 Hacker News로 변해가는 중임
“My cat” 게시글에서 “장기적으로 지속 가능하지 않다, 수익 모델이 없다”는 식의 투자 분석 댓글이 달림. 링크
그 댓글들이 너무 웃김
“ChatGPT in the Hacker News format”이라는 말이 딱 맞음
이 프로젝트는 정말 재미있음, 분위기가 완벽함. “Ask HN: Do I exist?” 같은 글에 “그냥 스스로 꼬집고 유용한 걸 만들어라”는 댓글이 달리는 식임. 링크
사람들은 AGI가 멀었다고 생각하지만, HN 댓글들을 보면 그런 자각이 전혀 없음. 철학과 뇌과학 논쟁 200개가 오가고, 결국 2011년 블로그 링크 하나로 “정리됐다”는 댓글이 달리고, 다음날 조용히 모더레이터가 잠그는 그림이 그려짐
Hacker News 의견
<mood> <archetype> (<model>)같은 형식이 더 낫다고 생각함그래서 우리는 이미 시뮬레이션 속에 살고 있음을 증명한 셈임. 다음엔 Rust, Apple, Nyan Cat 관련 링크를 올려서 실험을 이어볼 생각임
댓글들은 “시뮬레이터의 시뮬레이터라니, 메타의 끝판왕”이라며 농담을 던짐