글을 진지하게 공유하려면 이런 프롬프트 사용을 피해야 함
LLM으로 블로그 글을 써봤는데 처음엔 괜찮아 보여도, 몇 번 반복하면 모든 글이 같은 목소리로 들림
다른 블로그나 뉴스, 백서에서도 똑같은 어투가 반복됨
독자들은 텍스트의 내용뿐 아니라 저자의 고유한 목소리를 듣고 싶어함
관련 글: Why We Hate LLM Articles
AI 글쓰기가 별로인 이유는 ‘목소리’가 없기 때문임
인간 작가는 자신의 경험에서 나온 관점을 제시하지만, AI는 아무 말도 ‘하려는’ 의도가 없음
또 깊은 일관성을 유지하지 못함. 인간적인 목표나 기억, 자아감이 없어서 생기는 문제 같음
이런 시도는 불쾌하게 느껴짐
AI가 쓴 문장을 교묘히 숨기려 하기보다, 그냥 시간을 낭비하지 말았으면 함
AI로 글을 쓰는 게 부끄럽지 않다면 숨길 필요가 없고, 부끄럽다면 멈춰야 함
독이 든 우물에 항의받았다고 해서 더 교묘한 독을 쓰는 건 옳지 않음
LLM의 글쓰기 스타일을 연구 중인데, 이 스레드의 표현 중 “tapestry”가 흥미로웠음
GPT-4o가 “camaraderie” 다음으로 자주 쓰는 단어였음
기본 모델은 이런 이상한 스타일이 덜한데, instruction tuning을 거치면 생김
사람 평가자에게 스타일을 평가하게 하는지, 혹은 루브릭이 있는지 궁금함
관련 논문: PNAS 논문, arXiv 사전 공개본
이런 이상한 스타일은 RLHF에서 비롯됨
케냐와 나이지리아의 연구를 보면, perplexity가 최적화 목표라서 사전학습 모델은 가장 ‘예상 가능한’ 출력을 반영함
내 직감상 RLHF보다 모드 붕괴(mode collapse) 가 더 큰 원인임
DeepSeek R1 Zero처럼 인간 선호가 거의 없는 모델도 결국 안정된 패턴으로 수렴함
이런 현상은 세대별로 반복되며, 웹이 이전 세대 모델의 산출물로 오염되면서 악순환이 생김
의미가 토큰에 어떻게 연결되는지가 관련 있을 수도 있음
예를 들어 “camaraderie”의 토큰화 방식이나, 영어에서 이모지가 유일한 상형문자라서 비중이 커지는 점이 흥미로움
이런 스타일 변화가 대화형 튜닝(chat fine-tuning) 때문일 수도 있다고 생각함
이런 리스트는 시간이 갈수록 길어질 위험이 있음
AI가 새로운 클리셰를 계속 만들어내기 때문임
이 파일은 LLM보다 사용자인 나를 위한 문서처럼 느껴짐
“AI에게 이 파일을 시스템 프롬프트로 추가하라”는 말이 결국 AI의 AI에게 지시하는 꼴이 됨
설명이 섞여 있어서 혼란스러움. “하지 말라”는 표현이 오히려 그 단어를 더 자주 쓰게 만드는 역효과가 있음
사용자용 설명과 AI용 지시를 분리해야 함
내가 Claude에게 다시 써달라고 해서 이 gist에 정리함
원문과 gist에는 “Negative Parallelism”, “Gerund Fragment Litany” 같은 패턴 이름이 반복됨
LLM에게는 이런 이름을 피하고, 좋은 문장의 긍정적 형태를 설명하는 게 더 효과적임
Claude가 다시 쓴 버전은 여기에 있음
나도 동의함. 좋은 리스트지만 프롬프트로는 부적절함
“하지 말라”고 하면 오히려 그걸 더 하게 되는 스트라이샌드 효과가 있음
특정 작가의 스타일로 쓰게 하면 더 자연스럽고 덜 일반적임
이후 ‘편집 에이전트’ 를 두어 클리셰를 제거하게 하면 훨씬 나아짐
Gemini로 역사 관련 조사를 시도했는데, 기술 은유를 멈추지 못했음
영주를 CEO, 교황을 인플루언서, 봉건 반란을 면접으로 비유하는 식이라 거의 코믹했음
아마 Gemini가 나에게 맞춰 개인화된 답변을 하려는 듯함
설정에서 추가 지시를 넣을 수 있지만, 내 기술 스택을 넣었더니 모든 답변 끝에 “JVM과 v8이 처리해준다”는 문장이 붙음
그래서 무시하라고 했더니 이번엔 비꼬는 어조로 “당신의 석사 두뇌라면…”으로 시작하는 문단을 추가함
Claude나 ChatGPT가 요즘 “genuine”, “real”, “honest” 같은 단어를 자주 씀
“no <thing you told me not to do>” 같은 표현도 자주 보임. 프롬프트 준수 확인용인 듯함
Reddit, 특히 NBA 서브레딧에서 “honestly”가 과하게 쓰이는 걸 봄
“genuinely” 같은 부사도 실제 인간 글에서도 늘어난 느낌임. 팬데믹 이후 언어 트렌드 변화일 수도 있음
Claude에서 새로 본 표현은 “Fair enough, …”였음
“X that actually works”도 자주 등장함
“no react hooks”처럼 지시문을 그대로 문장에 넣는 경우도 많음. 약간 수동공격적인 느낌임
위키백과에도 관련 자료가 있음: Signs of AI Writing
다만 읽다 보면 자신이 쓰는 습관도 발견돼서 민망함
특히 “from X to Y” 같은 가짜 범위 표현을 자주 씀
또 LLM은 제목과 부제를 콜론으로 나누는 습관을 절대 버리지 못함
Hacker News 의견들
글을 진지하게 공유하려면 이런 프롬프트 사용을 피해야 함
LLM으로 블로그 글을 써봤는데 처음엔 괜찮아 보여도, 몇 번 반복하면 모든 글이 같은 목소리로 들림
다른 블로그나 뉴스, 백서에서도 똑같은 어투가 반복됨
독자들은 텍스트의 내용뿐 아니라 저자의 고유한 목소리를 듣고 싶어함
관련 글: Why We Hate LLM Articles
AI 글쓰기가 별로인 이유는 ‘목소리’가 없기 때문임
인간 작가는 자신의 경험에서 나온 관점을 제시하지만, AI는 아무 말도 ‘하려는’ 의도가 없음
또 깊은 일관성을 유지하지 못함. 인간적인 목표나 기억, 자아감이 없어서 생기는 문제 같음
이런 시도는 불쾌하게 느껴짐
AI가 쓴 문장을 교묘히 숨기려 하기보다, 그냥 시간을 낭비하지 말았으면 함
AI로 글을 쓰는 게 부끄럽지 않다면 숨길 필요가 없고, 부끄럽다면 멈춰야 함
독이 든 우물에 항의받았다고 해서 더 교묘한 독을 쓰는 건 옳지 않음
LLM의 글쓰기 스타일을 연구 중인데, 이 스레드의 표현 중 “tapestry”가 흥미로웠음
GPT-4o가 “camaraderie” 다음으로 자주 쓰는 단어였음
기본 모델은 이런 이상한 스타일이 덜한데, instruction tuning을 거치면 생김
사람 평가자에게 스타일을 평가하게 하는지, 혹은 루브릭이 있는지 궁금함
관련 논문: PNAS 논문, arXiv 사전 공개본
케냐와 나이지리아의 연구를 보면, perplexity가 최적화 목표라서 사전학습 모델은 가장 ‘예상 가능한’ 출력을 반영함
“Hydrogen Jukeboxes”라는 글도 포함되어 있음
스타일 변화는 Gwern Branwen의 mode collapse 분석에서도 다룸
DeepSeek R1 Zero처럼 인간 선호가 거의 없는 모델도 결국 안정된 패턴으로 수렴함
이런 현상은 세대별로 반복되며, 웹이 이전 세대 모델의 산출물로 오염되면서 악순환이 생김
예를 들어 “camaraderie”의 토큰화 방식이나, 영어에서 이모지가 유일한 상형문자라서 비중이 커지는 점이 흥미로움
이런 리스트는 시간이 갈수록 길어질 위험이 있음
AI가 새로운 클리셰를 계속 만들어내기 때문임
이 파일은 LLM보다 사용자인 나를 위한 문서처럼 느껴짐
“AI에게 이 파일을 시스템 프롬프트로 추가하라”는 말이 결국 AI의 AI에게 지시하는 꼴이 됨
설명이 섞여 있어서 혼란스러움. “하지 말라”는 표현이 오히려 그 단어를 더 자주 쓰게 만드는 역효과가 있음
사용자용 설명과 AI용 지시를 분리해야 함
내가 Claude에게 다시 써달라고 해서 이 gist에 정리함
LLM에게는 이런 이름을 피하고, 좋은 문장의 긍정적 형태를 설명하는 게 더 효과적임
Claude가 다시 쓴 버전은 여기에 있음
“하지 말라”고 하면 오히려 그걸 더 하게 되는 스트라이샌드 효과가 있음
특정 작가의 스타일로 쓰게 하면 더 자연스럽고 덜 일반적임
이후 ‘편집 에이전트’ 를 두어 클리셰를 제거하게 하면 훨씬 나아짐
Gemini로 역사 관련 조사를 시도했는데, 기술 은유를 멈추지 못했음
영주를 CEO, 교황을 인플루언서, 봉건 반란을 면접으로 비유하는 식이라 거의 코믹했음
설정에서 추가 지시를 넣을 수 있지만, 내 기술 스택을 넣었더니 모든 답변 끝에 “JVM과 v8이 처리해준다”는 문장이 붙음
그래서 무시하라고 했더니 이번엔 비꼬는 어조로 “당신의 석사 두뇌라면…”으로 시작하는 문단을 추가함
Claude나 ChatGPT가 요즘 “genuine”, “real”, “honest” 같은 단어를 자주 씀
“no <thing you told me not to do>” 같은 표현도 자주 보임. 프롬프트 준수 확인용인 듯함
위키백과에도 관련 자료가 있음: Signs of AI Writing
다만 읽다 보면 자신이 쓰는 습관도 발견돼서 민망함
특히 “from X to Y” 같은 가짜 범위 표현을 자주 씀
또 LLM은 제목과 부제를 콜론으로 나누는 습관을 절대 버리지 못함
인간이 직접 쓴 유용한 자료로 Wikipedia: Signs of AI Writing을 추천함