생성된 댓글이나 AI가 편집한 댓글은 올리지 마세요. HN은 사람 간의 대화를 위한 공간입니다.
(news.ycombinator.com)- Hacker News는 인간 간의 대화와 지적 호기심을 자극하는 주제를 중심으로 운영되는 커뮤니티임
- 이제 AI가 생성하거나 편집한 댓글은 금지되며, 모든 대화는 사람 간의 상호작용이어야 한다고 가이드라인에 명시함
- 친절하고 사려 깊은 토론 문화를 유지하며, 비난·조롱·선동적 발언을 피하는 것이 핵심 원칙
HN의 게시물 제출 규칙 (What to Submit)
-
주제 적합성은 ‘좋은 해커들이 흥미롭게 느낄 만한 것’으로 정의되며, 단순한 해킹이나 스타트업을 넘어 지적 호기심을 자극하는 모든 주제를 포함
- 정치, 범죄, 스포츠, 연예 관련 이야기는 새로운 현상을 보여주는 경우를 제외하고는 비주제로 간주
-
제목 작성 시 금지 사항
- 대문자, 느낌표, 과장된 표현, “훌륭하다” 등의 평가어 사용 금지
- 사이트 이름은 링크 뒤에 표시되므로 제목에서 제거
- “10 Ways to Do X” 같은 불필요한 숫자형 제목은 단순화 (“How to Do X”)
- 단, “The 5 Platonic Solids”처럼 숫자가 의미 있는 경우는 예외
-
출처 제출 원칙
- 2차 보도보다 원본 출처를 직접 제출
- 자신의 콘텐츠를 일부 올릴 수 있으나, 홍보 목적의 반복적 사용은 금지
-
기타 제출 관련 지침
- 비디오나 PDF는 제목에 [video], [pdf] 표시
- 사이트 관련 문의는 게시글이 아닌 hn@ycombinator.com으로 이메일 전송
- 삭제 후 재게시 금지, 삭제는 부적절한 게시물에 한함
- 업보트·댓글·재게시 요청 금지, 사용자는 스스로 흥미로운 콘텐츠에 반응해야 함
댓글 및 커뮤니티 행동 규칙
-
친절하고 사려 깊은 대화 유지
- 냉소적이거나 공격적인 어조 금지, 호기심 기반의 대화 권장
- 논쟁이 격화될수록 더 깊이 있고 성숙한 논의를 지향
-
논쟁 시 태도
- 인신공격 대신 논리적 반박만 제시 (“That is idiotic” 대신 “1 + 1 is 2, not 3”)
- 비판은 구체적이고 유익해야 하며, 단순 부정적 반응은 지양
-
AI 관련 규칙
- AI가 생성하거나 편집한 댓글은 금지, HN은 사람 간의 대화 공간임
-
토론 품질 유지
- 조롱, 분노 표출, 커뮤니티 비하 금지
- 상대의 발언은 가장 합리적인 해석 기준으로 이해하고, 선의로 접근
- 선동적(flamebait)·진부한 인터넷 밈·주제 이탈 회피
-
비생산적 댓글 금지
- 피상적 비난, 정치·이념 논쟁, “기사를 읽었냐” 식의 반응 금지
- 기사 중 가장 자극적인 부분만 골라 비판하는 행위 금지
-
계정 사용
- 민감한 정보 공유 시 일회용 계정 허용, 그러나 상시 새 계정 생성은 금지
- 커뮤니티 구성원으로서 일관된 정체성 유지 필요
-
형식 관련
- 강조 시 대문자 대신 별표 사용
- 조작 의혹(astroturfing, shilling 등) 제기 금지, 우려 시 이메일로 신고
-
운영 관련
- 문제 댓글은 답글 대신 신고(flag)
- 사이트 형식, 투표 결과, Reddit화 언급 등 부차적 불만 제기 금지
- 이러한 논의는 흥미롭지 않고 생산적이지 않음
Hacker News 의견들
-
정말 반가운 게시글임. 내가 이곳에 오는 이유는 사람들의 깊이 있는 생각을 듣기 위함이지, LLM이 만들어낸 문장을 보기 위함이 아님
스스로 생각하는 습관을 잃지 말아야 함. 초안 정도는 AI가 도와줄 수 있겠지만, 결국 스스로 사고하지 않으면 타락의 길로 이어짐- 완전히 동의함. 나는 인간이 쓴 댓글을 읽으러 여기에 옴. AI 봇의 댓글을 보고 싶다면 Twitter나 Reddit에 가면 됨
- 나도 비슷한 걸 내 개인 사이트에서 함. 일부러 오타를 넣은 소개 페이지가 있는데, 사람들이 그걸 발견하고 PR을 보내면 항상 웃음이 나옴. 물론 그 PR은 거절함 ;-)
- 좋은 아이디어지만, LLM이 HN 댓글을 학습하는 걸 막을 방법이 없다면 무의미한 시도일 수도 있음. 아이러니하게도 HN이 LLM 콘텐츠를 막는 데 성공한다면, 그 자체로 최고의 학습 데이터 원천이 될 것임
- 요즘 HN 링크를 AI에게 던져서 “이건 뭐라고 생각해?”라고 묻는 사람들이 많음. 그런데 그 결과를 자기 생각인 척 올리는 건 정말 이상한 행동임. “좋은 댓글을 써줘, 내 생각인 척 할 거야”라고 프롬프트를 주는 걸 상상하면 웃기기도 함
-
이런 정책이 HN 문화에 자리 잡는 건 좋은 일임. 가이드라인의 목적이 바로 그것임.
규칙의 99%는 결국 사람들이 그 문화를 받아들이느냐에 달려 있음. 규칙은 적들을 위한 게 아니라, 평범한 상황을 위한 것임- 이 대화는 L. E. Modisett의 Adiamante에 나오는 Paradigms of Power를 떠올리게 함. 합의, 권력, 도덕, 사회에 대한 이야기로 읽을 만한 책임
- 대체로 동의하지만, 시간이 지나면서 규칙을 어기는 문화가 생겨난 것도 사실임. 특히 이념 논쟁이나 익명 계정 관련 가이드라인을 보면 알 수 있음. “주제가 논쟁적일수록 댓글은 더 깊고 성숙해야 한다”는 원칙이 여전히 중요함
- 이런 논의는 결국 충분히 많은 사람들이 읽고 공감해야 의미가 있음
-
나는 이 정책에 전적으로 찬성함. 다만 주의할 점은 좋은 글과 LLM 글의 유사성임. LLM은 훌륭한 작가들의 글을 학습했기 때문에, 문체가 비슷하게 보일 수 있음.
따라서 상대방이 AI를 썼다고 쉽게 단정하지 말고, 선의의 해석을 유지해야 함. 나도 여러 번 AI로 오해받은 적이 있음- 나는 좋은 글과 LLM 글이 그렇게 비슷하다고 생각하지 않음. LLM은 항상 특유의 냄새가 남음. 문법은 완벽하지만, 문체가 너무 균질하고 예측 가능함. 인간의 글은 각자의 개성이 있고, 그게 차이를 만듦
- 겉보기엔 비슷하지만, 읽어보면 다름을 느낄 수 있음. 집중해서 읽으면 그 차이가 보임
- 정말로 LLM이 좋은 작가들의 글만 학습했을까? 데이터 정제 과정이 그렇게 철저했는지 의문임
- 좋은 작가는 각자 독특한 방식으로 뛰어남. LLM은 특정 문체 장치를 과도하게 써서 오히려 식상한 느낌을 줌
- 인간의 영혼을 구분할 수 없다면, 그건 끝없는 고양이와 쥐의 싸움이 될 뿐임
-
나는 진짜 인간의 생각을 읽으러 여기에 옴. LLM의 생각을 읽고 싶다면 직접 물어보면 됨.
하지만 고민되는 건, 인간이 쓴 즉흥적인 반응이라도 좋은가, 아니면 LLM이 도운 깊이 있는 답변이 더 나은가 하는 점임.
솔직히 말하면 둘 다 어느 정도 중요함. 언젠가 LLM이 평균 인간보다 더 뛰어난 답변을 내놓게 되면, 인간의 진정성을 고집하는 게 더 어려워질 수도 있음- HN의 목표는 사려 깊고 호기심 있는 대화임. 짧고 통찰력 있는 답변은 언제나 환영하지만, LLM이 만든 글은 금지임. 말의 양보다 진정성이 중요함
- 나는 인간의 댓글을 읽는 이유가 사람들의 생각을 알고 싶어서임. 다만 성의 없는 댓글은 원하지 않음
- LLM 필터는 오히려 콘텐츠를 평준화시켜버릴 위험이 있음. 각자 원하는 사람은 자기 브라우저에서 직접 필터링하면 됨
- 통찰력 있는 글은 LLM이 아니라 자신의 생각에서 나와야 함. LLM을 핑계로 삼는 건 불필요한 남용의 길임
- 그 논리라면, 50단어 이하의 댓글을 자동으로 “깊이 있는 답변”으로 확장해주는 플러그인을 만들 수도 있겠음
-
“AI 편집 댓글”의 경계가 흥미로움. Grammarly 같은 문법 교정 도구도 AI의 일종인데, 어디까지가 허용선인지 애매함.
생성된 댓글은 명확히 금지지만, 편집된 댓글은 회색지대임. 정책의 취지는 긍정적이지만, 시작과 끝의 경계를 명확히 해야 함- 좋은 지적임. 관련 논의는 이곳에 있음. “편집” 부분은 아직 유동적임. 기사나 프로젝트 제출물에 대해서도 명확한 기준이 없음
- Grammarly 같은 도구는 결국 개인의 문체를 지워버림. 약간의 실수나 어색함도 그 사람의 개성이므로 그대로 두는 게 좋음
- 의미나 어조를 바꾸지 않는 선에서만 도구를 써야 함. 지나치게 기계적인 문장으로 바꾸면 이미 선을 넘은 것임.
자신의 글을 분석해 스타일 규칙을 만들 수도 있지만, 그건 너무 번거로움 - 문법 교정과 번역 같은 경미한 AI 편집은 상식적으로 구분 가능함. “보면 알 수 있음”의 영역임 (I know it when I see it)
- 핵심은 사람이 직접 말하고 싶은 내용을 쓰는 것임. 도구는 그걸 돕는 수준이어야 함
-
앞으로 인터넷에서 인간임을 증명하는 문제가 매우 중요해질 것임. 익명성과 프라이버시를 지키면서도 신뢰를 확보해야 함
- 문제의 본질은 LLM이 아니라 과잉 생산된 콘텐츠의 양임. 예전부터 인터넷의 품질 저하 원인은 너무 많은 글을 올리는 인간이었음. LLM은 그걸 더 가속화함
- 프라이버시 친화적인 대안은 없을 것 같음. 결국 “신분증을 보여줘야 하는 웹”이 될지도 모름
- 완전한 익명성은 AI도 흉내 낼 수 있음. 결국 신뢰 네트워크 기반의 출처 시스템이 필요함. 내가 아는 사람의 말이라면 신뢰할 수 있듯이, 디지털에서도 그런 관계 기반의 신뢰가 필요함
- 아마도 HTTPS처럼 인증 기관이 “이건 인간임”을 보증하는 체계로 갈 것 같음. 완벽하진 않지만 현실적인 절충안임
- 혹은 더 작은 신뢰 기반 커뮤니티로 이동할 수도 있음. 대규모 공개 포럼의 시대는 끝나가고 있음
-
AI가 생성한 내용을 명시적으로 표시하면 괜찮을까?
Perplexity에 물어봤더니 오래된 대법원 판례를 정확히 찾아줬고, 요약도 잘했음. 그 요약을 출처와 함께 붙여넣고 싶었는데, 그게 규칙 위반일지 궁금했음.
또, 내 글을 AI로 교정받는 것도 고려 중임. 나는 종종 긴 문장, 쉼표 남용, 철자 오류를 많이 내기 때문임- 그 요약을 붙이지 않은 건 잘한 일임. HN은 직접 읽고 이해한 사람의 맥락을 중시함. AI 요약은 그 맥락을 잃게 함.
인간의 문체는 불완전함 속에 개성이 있음. 너무 매끈한 글은 오히려 인간미를 잃음 - 이미 개선할 점을 알고 있다면, 그냥 스스로 고치면 됨
- Wikipedia처럼 출처를 명시한 인용이라면 괜찮을 수도 있음. 검증 가능한 링크가 핵심임
- Perplexity의 공유 링크 기능을 활용해 AI 요약을 링크로 제공하는 건 자연스러움
- 하지만 AI 요약 자체를 붙이는 건 의미 없음. 아무도 Perplexity의 생각을 궁금해하지 않음. 출처 링크만 제공하고, 직접 요약하는 게 바람직함
- 그 요약을 붙이지 않은 건 잘한 일임. HN은 직접 읽고 이해한 사람의 맥락을 중시함. AI 요약은 그 맥락을 잃게 함.
-
나는 HN의 이 정책을 전적으로 지지함. HN은 내가 꾸준히 방문하는 유일한 포럼임.
하지만 요즘 AI 관련 글이 너무 많음. 흥미롭지 않은 반복 주제가 많고, “AI가 다시 쓴 소프트웨어” 같은 글은 이제 지겨움.
AI 카테고리에 일종의 세금이라도 부과해야 할 정도임- 반대로 나는 AI 토론 때문에 HN에 가입했음. Reddit이나 Twitter는 AI 포장 콘텐츠만 넘쳐남. HN은 그나마 진짜 토론이 가능함
-
약간의 아이러니가 있음. AI를 쓰지 말라고 하는 포럼이 동시에 AI 스타트업을 지원하고 있음
- 우리는 AI 사용을 금지하는 게 아니라, AI가 쓴 댓글을 금지하는 것임.
AI를 잘 활용하는 건 좋지만, HN의 목적은 인간 간의 대화와 연결임.
HN 운영진도 AI를 많이 쓰지만, 그건 효율을 높이기 위한 것이지 인간 대화를 대체하기 위함이 아님 - HN은 YC가 자금을 대지만, 운영은 완전히 독립적임. Dan이 사실상 주인임. 약간의 아이러니는 있지만 균형이 있음
- 맞음, 아이러니하긴 하지만 AI를 쓸 때와 인간이 직접 나설 때를 구분하는 건 현명한 일임
- 우리는 AI 사용을 금지하는 게 아니라, AI가 쓴 댓글을 금지하는 것임.
-
“AI로 작성됨” 표시 기능이 있으면 좋겠음. 일정 수 이상 표시되면 기본적으로 숨기고, 원하면 “AI 보기” 옵션으로 볼 수 있게 하는 식임.
나중엔 그 데이터를 학습시켜 AI 탐지 모델을 만들 수도 있을 것 같음- 실제로 그 기능을 추가할 예정임. 플래그 사유 선택 기능을 도입하면 오작동 방지도 가능함
- 현재 ‘flag’는 자동 처리 시스템임. AI 위반을 신고하려면 이메일로 직접 모더레이터에게 알려야 함. 그게 유일한 인간 검토 경로임
- 나도 hcker.news에서 이 아이디어를 구현 중임. 이미 일부 댓글 필터링 기능을 실험하고 있음