# 죽은 인터넷 이론

> Clean Markdown view of GeekNews topic #25959. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=25959](https://news.hada.io/topic?id=25959)
- GeekNews Markdown: [https://news.hada.io/topic/25959.md](https://news.hada.io/topic/25959.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-01-19T19:33:30+09:00
- Updated: 2026-01-19T19:33:30+09:00
- Original source: [kudmitry.com](https://kudmitry.com/articles/dead-internet-theory/)
- Points: 1
- Comments: 1

## Topic Body

- **AI 생성 콘텐츠**가 인터넷 상호작용의 상당 부분을 차지하게 된 현상을 파헤쳐본 이야기  
- HackerNews에서 **오픈소스 프로젝트의 AI 생성 여부**를 두고 벌어진 논쟁을 계기로, 작성자는 댓글조차 AI가 쓴 것처럼 보이는 패턴을 관찰  
- 과거 IRC와 phpBB 포럼 시절에는 **실제 인간 간의 교류**가 중심이었으나, 현재는 **AI가 만든 이미지·댓글·코드**가 일상적으로 섞여 있음  
- LinkedIn 등에서도 **AI로 조작된 회사 사진**이 실제 직원 게시물로 올라오는 사례를 목격  
- 기술 발전이 인간 지식의 공유보다 **봇 간 대화와 상업적 콘텐츠 재포장**으로 흐르고 있다는 우려 제기  
  
---  
### HackerNews에서의 논쟁과 문제 인식  
- 작성자는 HackerNews에서 한 사용자가 공개한 **오픈소스 프로젝트**를 발견  
  - 댓글에서 여러 익명 사용자가 해당 코드가 **AI로 생성된 것 아니냐**고 의심  
  - 코드의 커밋 타임라인, 주석 문체 등이 AI 생성물 같다는 지적이 이어짐  
- 작성자는 AI 사용 자체에는 반대하지 않지만, **오픈소스에서는 AI 사용 여부를 명시해야 한다**고 강조  
  - 인터넷 참여자 대부분이 익명이라 **전문성이나 진위 확인이 어렵기 때문**  
  - LLM이 단순 작업에는 유용하지만, **복잡한 문제나 엣지 케이스에서는 위험**을 초래할 수 있음  
  
### 댓글 패턴에서 드러난 AI 흔적  
- 작성자는 프로젝트 작성자의 댓글에서도 **AI 특유의 문체**를 발견  
  - 예: em-dash(—)의 과도한 사용, “you are absolutely right” 같은 비자연적 표현  
  - “let me know if you want to [do that thing] or [explore this other thing]” 같은 **AI식 문장 구조** 반복  
- 이러한 표현들이 실제 인간의 언어 습관과 달라 **대화 상대가 진짜 사람인지 의심**하게 됨  
  
### ‘죽은 인터넷 이론’의 자각  
- 작성자는 이 경험을 통해 **[Dead Internet Theory](https://en.wikipedia.org/wiki/Dead_Internet_theory)** 를 떠올림  
  - 이 이론은 2016년경부터 인터넷의 대부분이 **봇 간 상호작용과 기계 생성 콘텐츠**로 채워졌다고 주장  
  - 콘텐츠의 목적은 **상품 판매나 SEO 조작** 등 상업적 이익에 집중됨  
  
### 과거의 인터넷과 현재의 대비  
- 2000년대 초 IRC와 phpBB 포럼 시절에는 **실제 인간 간의 학습과 교류**가 중심이었음  
  - 작성자는 이 시기를 “Internet University”라 표현하며, **네트워크·운영체제·게임·웹 개발**을 배웠다고 회상  
  - 당시에는 상대가 사람이라는 확신이 있었음  
- 현재는 **AI 이미지와 댓글이 뒤섞인 현실**로, 진짜와 가짜를 구분하기 어려움  
  
### AI 콘텐츠 확산에 대한 우려  
- LinkedIn에서 실제 기업 직원이 올린 **AI로 조작된 사무실 사진**을 목격  
  - 이미지 내 **이상한 손 모양, 의미 없는 텍스트** 등으로 AI 생성임이 드러남  
  - 사진 속 인물들조차 **존재하지 않을 가능성** 제기  
- Facebook, Xitter, TikTok 등에서도 **AI 생성 허위 콘텐츠**가 확산  
  - 예: 거대한 인물이 피라미드를 세웠다는 사진, 특정 정치 메시지를 전하는 영상 등  
- 작성자는 이러한 현실에 **슬픔과 무력감**을 느꼈다고 서술  
  - AI가 대중에게 쉽게 접근 가능해지며 **‘AI-slop’(AI 쓰레기 콘텐츠)** 이 넘쳐남  
  - 사람들은 직접 글이나 코드를 쓰지 않고 **AI 에이전트에게 맡기는 시대**가 됨  
  
### 기술과 인간 지식의 미래에 대한 회의  
- 작성자는 여전히 **기술과 소프트웨어 엔지니어링을 사랑**하지만,  
  오늘날의 인터넷은 **봇이 봇과 대화하는 공간**으로 변하고 있다고 지적  
- 인간의 지식이 **“당신의 일상 문제를 해결하는 10단계”** 같은 상업적 콘텐츠로 재포장되어  
  **지식 공유의 본래 의미가 사라지고 있음**

## Comments



### Comment 49482

- Author: neo
- Created: 2026-01-19T19:33:30+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=46671731) 
- 얼마 전 부모님이 **AI로 만든 가짜 유튜브 영상**에 속았음. ‘인종차별 경찰’이 나쁜 행동을 하는 영상이었는데, 처음엔 나도 진짜처럼 보여서 헷갈렸음. 검색해보니 출처는 없고 재업로드만 있었음. 채널 설명에 “일부 영상은 AI로 재현된 실제 사건”이라고 써 있었지만, 전혀 믿기지 않았음. 이런 콘텐츠가 **유튜브 광고 수익**을 위해 분열을 조장한다는 게 너무 슬픔  
  - 인종차별 콘텐츠는 **수요가 공급을 초과**함. 현실만으로는 분노를 유지하기 어렵기 때문에 이런 영상이 계속 만들어짐  
  - AI 영상은 계정의 **게시 이력**만 봐도 티가 남. 너무 자주, 반복적으로, 주제나 배경이 일관되지 않게 올라옴. 기술이 발전해도 이런 패턴은 사라지지 않을 것 같음  
  - 요즘 RealOrAI 서브레딧에 너무 많은 시간을 쓰고 있음. 틀릴 때마다 불안해서 더 많이 보고, 더 잘 구분하려고 함. 하지만 이제는 **진짜와 가짜를 구분할 수 없는 현실**을 받아들여야 할지도 모름  
  - 사실 이런 걱정은 새롭지 않음. 예전에도 **조작된 사진이나 맥락 없는 영상**으로 분열을 일으키는 건 흔했음. AI는 단지 그걸 더 쉽게 만든 것뿐임  
  - Google이 AI 콘텐츠가 포함된 영상을 **자동으로 표시**해줬으면 좋겠음  

- “소셜 네트워크가 아니다”라는 말에 완전히 공감함. 예전엔 ‘소셜 미디어’가 **현실 친구들과 교류하는 공간**을 의미했는데, 지금은 Reddit 같은 포럼까지 다 포함하는 말이 되어버림. 그 결과, 진짜 사회적 교류의 공간은 거의 사라졌음  
  - 지금 그 역할을 하는 건 **Discord**임. 초대 기반 커뮤니티라서 공공 피드가 없고, 실제 사람이 직접 **모더레이션**함. 예전 IRC 친구들도 다 Discord로 옮겼음. 언젠가 상장되면 대체재로 **Matrix** 같은 걸 쓸 것 같음  
  - 원래 “social media”는 친구들과 **직접 콘텐츠를 공유**하는 네트워크였음. 하지만 Facebook이 ‘리쉐어’ 중심으로 바꾸면서, 이제는 친구 소식보다 **랜덤 콘텐츠 소비 플랫폼**이 되어버림. HN은 친구 기능이 없으니 그냥 포럼에 가까움  
  - TikTok이나 Instagram도 ‘소셜’이라 부르지만, 대부분은 **아무것도 올리지 않음**. 그냥 미디어 소비 플랫폼일 뿐임  
  - 사실 나도 Discord를 안 써봐서 잘 모르겠음. 그냥 **IRC를 기업이 운영하는 버전**처럼 보여서, 왜 그렇게 인기인지 이해가 안 됨  
  - Meta가 밝히길, 사용자의 10% 미만만 **실제 아는 사람과 상호작용**한다고 함. 지금의 소셜 미디어는 ‘스크롤 엔터테인먼트’일 뿐임  

- ‘em dash(—)’를 아무도 안 쓴다는 건 오해임. 나는 예전부터 자주 써왔음. “you’re absolutely right” 같은 표현도 친구들끼리 **비꼬는 농담**으로 자주 씀. 영국에서 자란 우리끼리는 자연스러운 표현임  
  - 요즘은 **좋은 타이포그래피**만 써도 LLM이 쓴 글로 오해받는 게 짜증남. 난 예전부터 en dash, em dash를 써왔음. [Compose key](https://en.wikipedia.org/wiki/Compose_key)를 쓰면 입력도 쉬움  
  - em dash 자체가 문제는 아님. 영어가 모국어가 아니라서 블로그 쓰며 연습했는데, **띄어쓰기 여부**에 따라 인상이 달라서 여러 방식으로 써봤음. 결국 대부분의 사람은 일관되지 않음. 너무 완벽한 문법을 쓰는 사람이면 오히려 **AI일 가능성**이 높음  
  - 영국식 예의 때문인지 “you’re right, but…” 같은 표현을 자연스럽게 씀  
  - 우리 서점 뉴스레터에서도 em dash를 씀. **세미콜론보다 시각적으로 깔끔**하고, 문장 구분에도 유용함  
  - iOS에서는 “-” 키를 길게 누르면 쉽게 입력돼서 자주 씀  

- 이미지가 AI로 생성됐는지 확인하는 간단한 방법이 있음.  
  - OpenAI는 [C2PA](https://help.openai.com/en/articles/8912793-c2pa-in-chatgpt-images) 메타데이터를,  
  - Gemini는 [SynthID](https://deepmind.google/models/synthid/) 워터마크를 사용함.  
  - SynthID는 이미지뿐 아니라 텍스트에도 적용되고, [코드도 공개됨](https://github.com/google-deepmind/synthid-text)  
  - 하지만 **이미지2이미지 모델**로 노이즈를 추가하거나 제거하면 SynthID도 지울 수 있음  
  - 실제로 OpenAI 블로그의 이미지도 [검증 사이트](https://verify.contentauthenticity.org/)에 올려봤는데 메타데이터가 없었음. 이런 점은 신뢰를 떨어뜨림  
  - 다만 **C2PA의 목적은 ‘진짜임을 증명’하는 것**임. 모든 콘텐츠를 검증할 수는 없지만, 인증된 이미지는 법적 증거로도 쓸 수 있음  

- 지금의 문제는 결국 **플랫폼 인센티브 구조** 때문임.  
  - YouTube는 조회수, LinkedIn은 자기 PR, HN은 스타트업 홍보가 동기임.  
  - 인간 간의 순수한 상호작용만 존재하는 **AI가 쓸모없는 커뮤니티**를 만들 수 있을까?  
  - 아마도 **소규모 친구 그룹** 정도가 유일한 해답일 것 같음  
  - 예전엔 무료 phpBB 포럼이나 IRC에서 똑똑한 사람들과 대화할 수 있었음. 하지만 **운영비와 모더레이션 부담**이 컸다는 걸 이제야 깨달음  
  - 이런 커뮤니티는 **던바의 수(Dunbar’s number)** 로 제한되어야 함. 그 이상 커지면 규칙과 관리자 없이는 유지 불가함  
  - 요즘은 부정확한 영상도 결국 **조회수와 광고 수익**으로 이어짐. 플랫폼은 책임지지 않음  
  - 광고를 완전히 금지하고, **글로벌 피드 없이 친구 중심 피드**만 보여주는 구조라면 가능할지도 모르지만 UX는 나빠질 것임  
  - 결국 문제의 근원은 **광고 기반 인터넷 모델**임. 트위터의 문제도 엘론 머스크보다 이 구조적 한계가 더 큼  

- 오픈소스 코드를 공개할 때 **AI 사용 여부를 밝힐 의무**는 없다고 생각함. 그런 요구는 창작 의욕을 꺾을 뿐임. 사람들은 자신이 쓴 코드를 공유하고 싶지, **‘AI 안 썼다’는 증명**을 하고 싶진 않음  
  - 하지만 어떤 경우엔 작성자가 “AI 안 썼다”고 계속 주장하면서도 코드에 **AI 생성 흔적**이 남아 있어서, 마치 **가스라이팅**당하는 기분이 들기도 함  

- AI를 금지한 **소셜 미디어 플랫폼**이 있을까 궁금함. 이미지 메타데이터나 사용자 행동 분석으로 막을 수 있을지도 모르겠음  
  - 그런 플랫폼이 생기면 **적대적 학습(Adversarial training)** 의 천국이 될 것임  
  - Bluesky는 공식적으로 금지하진 않지만, 커뮤니티가 **AI에 매우 적대적**이라 거의 없음  
  - 새로 부활하는 Vine은 **AI 콘텐츠를 명시적으로 금지**할 예정이라고 함  
  - [Mastodon.art](https://mastodon.art/) 같은 곳은 AI를 명확히 금지함  
  - 결국 **사회적 압력**만으로도 AI를 막는 커뮤니티가 존재할 수 있음  

- 언젠가 온라인 콘텐츠가 전부 AI로 만들어지면, 인간이 **현실을 다시 찾게 될 것**이라 기대함  
  - 이미 그런 변화가 조금씩 있음. 예전엔 “사진 없으면 안 믿어”였는데, 이제는 **사진도 조작 가능**하니 진짜 추억용 사진만 찍음  
  - 하지만 오히려 많은 사람들이 **AI와의 상호작용**으로 만족하게 될 가능성도 큼  
  - 지금도 휴대폰을 못 놓는데, AI가 최적화된 콘텐츠를 만든다면 더 빠져들 것임  
  - 그래도 그 생각 자체는 참 따뜻함  

- 이제는 우리가 **튜링 테스트를 넘어선 시대**에 있음. 인간과 AI를 구분 못 한다면, 그건 AI가 똑똑해진 게 아니라 **우리의 온라인 대화가 피상적**이기 때문일 수도 있음  
  - 하지만 진짜 튜링 테스트는 단순히 속는 게 아니라, **대화형 검증자(interrogator)** 가 구분 못 해야 함. 지금의 LLM은 그 수준엔 아직 못 미침  
  - 텍스트는 정보량이 적고, **‘사람이 썼다’는 신뢰감**이 있어서 쉽게 속음. 그래서 텍스트 기반 AI가 특히 위험함. 나도 요즘 전화 통화 중에 상대가 사람인지 로봇인지 헷갈릴 때가 있음  
  - 결국 “한쪽 손에는…” “다른 한쪽 손에는…” 식의 균형 잡힌 시각이 필요함  

- 나는 **‘카펫 효과’** 라고 부름. 완벽하게 정렬된 영상이나 대화 구조를 보면 인위적인 느낌이 남. 모로코 카펫처럼 일부러 **불완전함을 남겨야 인간적**임. 하지만 이런 ‘티’도 곧 사라질 것 같음
