# 생성된 댓글이나 AI가 편집한 댓글은 올리지 마세요. HN은 사람 간의 대화를 위한 공간입니다.

> Clean Markdown view of GeekNews topic #27421. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27421](https://news.hada.io/topic?id=27421)
- GeekNews Markdown: [https://news.hada.io/topic/27421.md](https://news.hada.io/topic/27421.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-03-12T09:38:01+09:00
- Updated: 2026-03-12T09:38:01+09:00
- Original source: [news.ycombinator.com](https://news.ycombinator.com/newsguidelines.html#generated)
- Points: 3
- Comments: 1

## Topic Body

- Hacker News는 **인간 간의 대화와 지적 호기심을 자극하는 주제**를 중심으로 운영되는 커뮤니티임  
- 이제 **AI가 생성하거나 편집한 댓글은 금지**되며, 모든 대화는 사람 간의 상호작용이어야 한다고 가이드라인에 명시함  
- **친절하고 사려 깊은 토론 문화**를 유지하며, 비난·조롱·선동적 발언을 피하는 것이 핵심 원칙  
  
---  
  
### HN의 게시물 제출 규칙 (What to Submit)  
- **주제 적합성**은 ‘좋은 해커들이 흥미롭게 느낄 만한 것’으로 정의되며, 단순한 해킹이나 스타트업을 넘어 **지적 호기심을 자극하는 모든 주제**를 포함  
  - 정치, 범죄, 스포츠, 연예 관련 이야기는 **새로운 현상을 보여주는 경우를 제외하고는 비주제**로 간주  
- **제목 작성 시 금지 사항**  
  - 대문자, 느낌표, 과장된 표현, “훌륭하다” 등의 평가어 사용 금지  
  - 사이트 이름은 링크 뒤에 표시되므로 제목에서 제거  
  - “10 Ways to Do X” 같은 **불필요한 숫자형 제목은 단순화** (“How to Do X”)  
  - 단, “The 5 Platonic Solids”처럼 **숫자가 의미 있는 경우는 예외**  
- **출처 제출 원칙**  
  - 2차 보도보다 **원본 출처를 직접 제출**  
  - 자신의 콘텐츠를 일부 올릴 수 있으나, **홍보 목적의 반복적 사용은 금지**  
- **기타 제출 관련 지침**  
  - 비디오나 PDF는 제목에 [video], [pdf] 표시  
  - 사이트 관련 문의는 게시글이 아닌 **hn@ycombinator.com으로 이메일 전송**  
  - 삭제 후 재게시 금지, **삭제는 부적절한 게시물에 한함**  
  - **업보트·댓글·재게시 요청 금지**, 사용자는 스스로 흥미로운 콘텐츠에 반응해야 함  
  
### 댓글 및 커뮤니티 행동 규칙  
- **친절하고 사려 깊은 대화 유지**  
  - 냉소적이거나 공격적인 어조 금지, **호기심 기반의 대화** 권장  
  - 논쟁이 격화될수록 **더 깊이 있고 성숙한 논의**를 지향  
- **논쟁 시 태도**  
  - 인신공격 대신 **논리적 반박**만 제시 (“That is idiotic” 대신 “1 + 1 is 2, not 3”)  
  - **비판은 구체적이고 유익해야 하며**, 단순 부정적 반응은 지양  
- **AI 관련 규칙**  
  - **AI가 생성하거나 편집한 댓글은 금지**, HN은 **사람 간의 대화 공간**임  
- **토론 품질 유지**  
  - 조롱, 분노 표출, 커뮤니티 비하 금지  
  - 상대의 발언은 **가장 합리적인 해석 기준으로 이해**하고, 선의로 접근  
  - **선동적(flamebait)·진부한 인터넷 밈·주제 이탈** 회피  
- **비생산적 댓글 금지**  
  - 피상적 비난, 정치·이념 논쟁, “기사를 읽었냐” 식의 반응 금지  
  - 기사 중 가장 자극적인 부분만 골라 비판하는 행위 금지  
- **계정 사용**  
  - 민감한 정보 공유 시 일회용 계정 허용, 그러나 **상시 새 계정 생성은 금지**  
  - 커뮤니티 구성원으로서 **일관된 정체성 유지** 필요  
- **형식 관련**  
  - 강조 시 대문자 대신 *별표* 사용  
  - **조작 의혹(astro­turfing, shilling 등)** 제기 금지, 우려 시 이메일로 신고  
- **운영 관련**  
  - 문제 댓글은 **답글 대신 신고(flag)**  
  - 사이트 형식, 투표 결과, Reddit화 언급 등 **부차적 불만 제기 금지**  
  - 이러한 논의는 **흥미롭지 않고 생산적이지 않음**

## Comments



### Comment 52855

- Author: neo
- Created: 2026-03-12T09:38:01+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=47340079) 
- 정말 반가운 게시글임. 내가 이곳에 오는 이유는 **사람들의 깊이 있는 생각**을 듣기 위함이지, LLM이 만들어낸 문장을 보기 위함이 아님  
  스스로 생각하는 습관을 잃지 말아야 함. 초안 정도는 AI가 도와줄 수 있겠지만, 결국 스스로 사고하지 않으면 **타락의 길**로 이어짐  
  - 완전히 동의함. 나는 인간이 쓴 댓글을 읽으러 여기에 옴. AI 봇의 댓글을 보고 싶다면 Twitter나 Reddit에 가면 됨  
  - 나도 비슷한 걸 내 개인 사이트에서 함. 일부러 오타를 넣은 [소개 페이지](https://jasoneckert.github.io/site/about-this-site/)가 있는데, 사람들이 그걸 발견하고 PR을 보내면 항상 웃음이 나옴. 물론 그 PR은 거절함 ;-)  
  - 좋은 아이디어지만, LLM이 HN 댓글을 학습하는 걸 막을 방법이 없다면 **무의미한 시도**일 수도 있음. 아이러니하게도 HN이 LLM 콘텐츠를 막는 데 성공한다면, 그 자체로 최고의 학습 데이터 원천이 될 것임  
  - 요즘 HN 링크를 AI에게 던져서 “이건 뭐라고 생각해?”라고 묻는 사람들이 많음. 그런데 그 결과를 자기 생각인 척 올리는 건 정말 **이상한 행동**임. “좋은 댓글을 써줘, 내 생각인 척 할 거야”라고 프롬프트를 주는 걸 상상하면 웃기기도 함  

- 이런 정책이 HN 문화에 자리 잡는 건 좋은 일임. **가이드라인의 목적**이 바로 그것임.  
  규칙의 99%는 결국 사람들이 그 문화를 받아들이느냐에 달려 있음. 규칙은 적들을 위한 게 아니라, 평범한 상황을 위한 것임  
  - 이 대화는 L. E. Modisett의 *Adiamante*에 나오는 **Paradigms of Power**를 떠올리게 함. 합의, 권력, 도덕, 사회에 대한 이야기로 읽을 만한 책임  
  - 대체로 동의하지만, 시간이 지나면서 규칙을 어기는 문화가 생겨난 것도 사실임. 특히 **이념 논쟁**이나 **익명 계정** 관련 가이드라인을 보면 알 수 있음. “주제가 논쟁적일수록 댓글은 더 깊고 성숙해야 한다”는 원칙이 여전히 중요함  
  - 이런 논의는 결국 충분히 많은 사람들이 읽고 **공감**해야 의미가 있음  

- 나는 이 정책에 전적으로 찬성함. 다만 주의할 점은 **좋은 글과 LLM 글의 유사성**임. LLM은 훌륭한 작가들의 글을 학습했기 때문에, 문체가 비슷하게 보일 수 있음.  
  따라서 상대방이 AI를 썼다고 쉽게 단정하지 말고, **선의의 해석**을 유지해야 함. 나도 여러 번 AI로 오해받은 적이 있음  
  - 나는 좋은 글과 LLM 글이 그렇게 비슷하다고 생각하지 않음. LLM은 항상 **특유의 냄새**가 남음. 문법은 완벽하지만, 문체가 너무 균질하고 예측 가능함. 인간의 글은 각자의 개성이 있고, 그게 차이를 만듦  
  - 겉보기엔 비슷하지만, 읽어보면 다름을 느낄 수 있음. 집중해서 읽으면 그 차이가 보임  
  - 정말로 LLM이 좋은 작가들의 글만 학습했을까? **데이터 정제 과정**이 그렇게 철저했는지 의문임  
  - 좋은 작가는 각자 독특한 방식으로 뛰어남. LLM은 특정 문체 장치를 과도하게 써서 오히려 식상한 느낌을 줌  
  - 인간의 **영혼**을 구분할 수 없다면, 그건 끝없는 고양이와 쥐의 싸움이 될 뿐임  

- 나는 **진짜 인간의 생각**을 읽으러 여기에 옴. LLM의 생각을 읽고 싶다면 직접 물어보면 됨.  
  하지만 고민되는 건, 인간이 쓴 즉흥적인 반응이라도 좋은가, 아니면 LLM이 도운 깊이 있는 답변이 더 나은가 하는 점임.  
  솔직히 말하면 둘 다 어느 정도 중요함. 언젠가 LLM이 평균 인간보다 더 뛰어난 답변을 내놓게 되면, 인간의 진정성을 고집하는 게 더 어려워질 수도 있음  
  - HN의 목표는 **사려 깊고 호기심 있는 대화**임. 짧고 통찰력 있는 답변은 언제나 환영하지만, LLM이 만든 글은 금지임. 말의 양보다 **진정성**이 중요함  
  - 나는 인간의 댓글을 읽는 이유가 사람들의 생각을 알고 싶어서임. 다만 **성의 없는 댓글**은 원하지 않음  
  - LLM 필터는 오히려 콘텐츠를 **평준화**시켜버릴 위험이 있음. 각자 원하는 사람은 자기 브라우저에서 직접 필터링하면 됨  
  - 통찰력 있는 글은 LLM이 아니라 **자신의 생각**에서 나와야 함. LLM을 핑계로 삼는 건 불필요한 남용의 길임  
  - 그 논리라면, 50단어 이하의 댓글을 자동으로 “깊이 있는 답변”으로 확장해주는 플러그인을 만들 수도 있겠음  

- “AI 편집 댓글”의 경계가 흥미로움. Grammarly 같은 **문법 교정 도구**도 AI의 일종인데, 어디까지가 허용선인지 애매함.  
  생성된 댓글은 명확히 금지지만, 편집된 댓글은 회색지대임. 정책의 취지는 긍정적이지만, **시작과 끝의 경계**를 명확히 해야 함  
  - 좋은 지적임. 관련 논의는 [이곳](https://news.ycombinator.com/item?id=47342616)에 있음. “편집” 부분은 아직 유동적임. 기사나 프로젝트 제출물에 대해서도 명확한 기준이 없음  
  - Grammarly 같은 도구는 결국 **개인의 문체를 지워버림**. 약간의 실수나 어색함도 그 사람의 개성이므로 그대로 두는 게 좋음  
  - 의미나 어조를 바꾸지 않는 선에서만 도구를 써야 함. 지나치게 **기계적인 문장**으로 바꾸면 이미 선을 넘은 것임.  
    자신의 글을 분석해 스타일 규칙을 만들 수도 있지만, 그건 너무 번거로움  
  - 문법 교정과 번역 같은 **경미한 AI 편집**은 상식적으로 구분 가능함. “보면 알 수 있음”의 영역임 ([I know it when I see it](https://en.wikipedia.org/wiki/I_know_it_when_I_see_it))  
  - 핵심은 사람이 **직접 말하고 싶은 내용**을 쓰는 것임. 도구는 그걸 돕는 수준이어야 함  

- 앞으로 인터넷에서 **인간임을 증명하는 문제**가 매우 중요해질 것임. 익명성과 프라이버시를 지키면서도 신뢰를 확보해야 함  
  - 문제의 본질은 LLM이 아니라 **과잉 생산된 콘텐츠의 양**임. 예전부터 인터넷의 품질 저하 원인은 너무 많은 글을 올리는 인간이었음. LLM은 그걸 더 가속화함  
  - 프라이버시 친화적인 대안은 없을 것 같음. 결국 “**신분증을 보여줘야 하는 웹**”이 될지도 모름  
  - 완전한 익명성은 AI도 흉내 낼 수 있음. 결국 **신뢰 네트워크 기반의 출처 시스템**이 필요함. 내가 아는 사람의 말이라면 신뢰할 수 있듯이, 디지털에서도 그런 관계 기반의 신뢰가 필요함  
  - 아마도 HTTPS처럼 **인증 기관**이 “이건 인간임”을 보증하는 체계로 갈 것 같음. 완벽하진 않지만 현실적인 절충안임  
  - 혹은 더 작은 **신뢰 기반 커뮤니티**로 이동할 수도 있음. 대규모 공개 포럼의 시대는 끝나가고 있음  

- AI가 생성한 내용을 **명시적으로 표시**하면 괜찮을까?  
  Perplexity에 물어봤더니 오래된 대법원 판례를 정확히 찾아줬고, 요약도 잘했음. 그 요약을 출처와 함께 붙여넣고 싶었는데, 그게 규칙 위반일지 궁금했음.  
  또, 내 글을 AI로 교정받는 것도 고려 중임. 나는 종종 **긴 문장**, **쉼표 남용**, **철자 오류**를 많이 내기 때문임  
  - 그 요약을 붙이지 않은 건 잘한 일임. HN은 **직접 읽고 이해한 사람의 맥락**을 중시함. AI 요약은 그 맥락을 잃게 함.  
    인간의 문체는 불완전함 속에 개성이 있음. **너무 매끈한 글**은 오히려 인간미를 잃음  
  - 이미 개선할 점을 알고 있다면, 그냥 스스로 고치면 됨  
  - Wikipedia처럼 **출처를 명시한 인용**이라면 괜찮을 수도 있음. 검증 가능한 링크가 핵심임  
  - Perplexity의 공유 링크 기능을 활용해 **AI 요약을 링크로 제공**하는 건 자연스러움  
  - 하지만 AI 요약 자체를 붙이는 건 의미 없음. 아무도 Perplexity의 생각을 궁금해하지 않음. **출처 링크**만 제공하고, 직접 요약하는 게 바람직함  

- 나는 HN의 이 정책을 전적으로 지지함. HN은 내가 꾸준히 방문하는 유일한 포럼임.  
  하지만 요즘 **AI 관련 글이 너무 많음**. 흥미롭지 않은 반복 주제가 많고, “AI가 다시 쓴 소프트웨어” 같은 글은 이제 지겨움.  
  AI 카테고리에 일종의 **세금**이라도 부과해야 할 정도임  
  - 반대로 나는 AI 토론 때문에 HN에 가입했음. Reddit이나 Twitter는 **AI 포장 콘텐츠**만 넘쳐남. HN은 그나마 진짜 토론이 가능함  

- 약간의 아이러니가 있음. AI를 쓰지 말라고 하는 포럼이 동시에 **AI 스타트업을 지원**하고 있음  
  - 우리는 AI 사용을 금지하는 게 아니라, **AI가 쓴 댓글을 금지**하는 것임.  
    AI를 잘 활용하는 건 좋지만, HN의 목적은 **인간 간의 대화와 연결**임.  
    HN 운영진도 AI를 많이 쓰지만, 그건 효율을 높이기 위한 것이지 인간 대화를 대체하기 위함이 아님  
  - HN은 YC가 자금을 대지만, **운영은 완전히 독립적**임. Dan이 사실상 주인임. 약간의 아이러니는 있지만 균형이 있음  
  - 맞음, 아이러니하긴 하지만 **AI를 쓸 때와 인간이 직접 나설 때를 구분**하는 건 현명한 일임  

- “AI로 작성됨” 표시 기능이 있으면 좋겠음. 일정 수 이상 표시되면 기본적으로 숨기고, 원하면 “AI 보기” 옵션으로 볼 수 있게 하는 식임.  
  나중엔 그 데이터를 학습시켜 **AI 탐지 모델**을 만들 수도 있을 것 같음  
  - 실제로 그 기능을 추가할 예정임. **플래그 사유 선택 기능**을 도입하면 오작동 방지도 가능함  
  - 현재 ‘flag’는 **자동 처리 시스템**임. AI 위반을 신고하려면 이메일로 직접 모더레이터에게 알려야 함. 그게 유일한 **인간 검토 경로**임  
  - 나도 [hcker.news](https://hcker.news/)에서 이 아이디어를 구현 중임. 이미 일부 **댓글 필터링 기능**을 실험하고 있음
