1P by GN⁺ 1일전 | ★ favorite | 댓글 1개
  • AI 생성 콘텐츠가 인터넷 상호작용의 상당 부분을 차지하게 된 현상을 파헤쳐본 이야기
  • HackerNews에서 오픈소스 프로젝트의 AI 생성 여부를 두고 벌어진 논쟁을 계기로, 작성자는 댓글조차 AI가 쓴 것처럼 보이는 패턴을 관찰
  • 과거 IRC와 phpBB 포럼 시절에는 실제 인간 간의 교류가 중심이었으나, 현재는 AI가 만든 이미지·댓글·코드가 일상적으로 섞여 있음
  • LinkedIn 등에서도 AI로 조작된 회사 사진이 실제 직원 게시물로 올라오는 사례를 목격
  • 기술 발전이 인간 지식의 공유보다 봇 간 대화와 상업적 콘텐츠 재포장으로 흐르고 있다는 우려 제기

HackerNews에서의 논쟁과 문제 인식

  • 작성자는 HackerNews에서 한 사용자가 공개한 오픈소스 프로젝트를 발견
    • 댓글에서 여러 익명 사용자가 해당 코드가 AI로 생성된 것 아니냐고 의심
    • 코드의 커밋 타임라인, 주석 문체 등이 AI 생성물 같다는 지적이 이어짐
  • 작성자는 AI 사용 자체에는 반대하지 않지만, 오픈소스에서는 AI 사용 여부를 명시해야 한다고 강조
    • 인터넷 참여자 대부분이 익명이라 전문성이나 진위 확인이 어렵기 때문
    • LLM이 단순 작업에는 유용하지만, 복잡한 문제나 엣지 케이스에서는 위험을 초래할 수 있음

댓글 패턴에서 드러난 AI 흔적

  • 작성자는 프로젝트 작성자의 댓글에서도 AI 특유의 문체를 발견
    • 예: em-dash(—)의 과도한 사용, “you are absolutely right” 같은 비자연적 표현
    • “let me know if you want to [do that thing] or [explore this other thing]” 같은 AI식 문장 구조 반복
  • 이러한 표현들이 실제 인간의 언어 습관과 달라 대화 상대가 진짜 사람인지 의심하게 됨

‘죽은 인터넷 이론’의 자각

  • 작성자는 이 경험을 통해 Dead Internet Theory 를 떠올림
    • 이 이론은 2016년경부터 인터넷의 대부분이 봇 간 상호작용과 기계 생성 콘텐츠로 채워졌다고 주장
    • 콘텐츠의 목적은 상품 판매나 SEO 조작 등 상업적 이익에 집중됨

과거의 인터넷과 현재의 대비

  • 2000년대 초 IRC와 phpBB 포럼 시절에는 실제 인간 간의 학습과 교류가 중심이었음
    • 작성자는 이 시기를 “Internet University”라 표현하며, 네트워크·운영체제·게임·웹 개발을 배웠다고 회상
    • 당시에는 상대가 사람이라는 확신이 있었음
  • 현재는 AI 이미지와 댓글이 뒤섞인 현실로, 진짜와 가짜를 구분하기 어려움

AI 콘텐츠 확산에 대한 우려

  • LinkedIn에서 실제 기업 직원이 올린 AI로 조작된 사무실 사진을 목격
    • 이미지 내 이상한 손 모양, 의미 없는 텍스트 등으로 AI 생성임이 드러남
    • 사진 속 인물들조차 존재하지 않을 가능성 제기
  • Facebook, Xitter, TikTok 등에서도 AI 생성 허위 콘텐츠가 확산
    • 예: 거대한 인물이 피라미드를 세웠다는 사진, 특정 정치 메시지를 전하는 영상 등
  • 작성자는 이러한 현실에 슬픔과 무력감을 느꼈다고 서술
    • AI가 대중에게 쉽게 접근 가능해지며 ‘AI-slop’(AI 쓰레기 콘텐츠) 이 넘쳐남
    • 사람들은 직접 글이나 코드를 쓰지 않고 AI 에이전트에게 맡기는 시대가 됨

기술과 인간 지식의 미래에 대한 회의

  • 작성자는 여전히 기술과 소프트웨어 엔지니어링을 사랑하지만,
    오늘날의 인터넷은 봇이 봇과 대화하는 공간으로 변하고 있다고 지적
  • 인간의 지식이 “당신의 일상 문제를 해결하는 10단계” 같은 상업적 콘텐츠로 재포장되어
    지식 공유의 본래 의미가 사라지고 있음
Hacker News 의견들
  • 얼마 전 부모님이 AI로 만든 가짜 유튜브 영상에 속았음. ‘인종차별 경찰’이 나쁜 행동을 하는 영상이었는데, 처음엔 나도 진짜처럼 보여서 헷갈렸음. 검색해보니 출처는 없고 재업로드만 있었음. 채널 설명에 “일부 영상은 AI로 재현된 실제 사건”이라고 써 있었지만, 전혀 믿기지 않았음. 이런 콘텐츠가 유튜브 광고 수익을 위해 분열을 조장한다는 게 너무 슬픔

    • 인종차별 콘텐츠는 수요가 공급을 초과함. 현실만으로는 분노를 유지하기 어렵기 때문에 이런 영상이 계속 만들어짐
    • AI 영상은 계정의 게시 이력만 봐도 티가 남. 너무 자주, 반복적으로, 주제나 배경이 일관되지 않게 올라옴. 기술이 발전해도 이런 패턴은 사라지지 않을 것 같음
    • 요즘 RealOrAI 서브레딧에 너무 많은 시간을 쓰고 있음. 틀릴 때마다 불안해서 더 많이 보고, 더 잘 구분하려고 함. 하지만 이제는 진짜와 가짜를 구분할 수 없는 현실을 받아들여야 할지도 모름
    • 사실 이런 걱정은 새롭지 않음. 예전에도 조작된 사진이나 맥락 없는 영상으로 분열을 일으키는 건 흔했음. AI는 단지 그걸 더 쉽게 만든 것뿐임
    • Google이 AI 콘텐츠가 포함된 영상을 자동으로 표시해줬으면 좋겠음
  • “소셜 네트워크가 아니다”라는 말에 완전히 공감함. 예전엔 ‘소셜 미디어’가 현실 친구들과 교류하는 공간을 의미했는데, 지금은 Reddit 같은 포럼까지 다 포함하는 말이 되어버림. 그 결과, 진짜 사회적 교류의 공간은 거의 사라졌음

    • 지금 그 역할을 하는 건 Discord임. 초대 기반 커뮤니티라서 공공 피드가 없고, 실제 사람이 직접 모더레이션함. 예전 IRC 친구들도 다 Discord로 옮겼음. 언젠가 상장되면 대체재로 Matrix 같은 걸 쓸 것 같음
    • 원래 “social media”는 친구들과 직접 콘텐츠를 공유하는 네트워크였음. 하지만 Facebook이 ‘리쉐어’ 중심으로 바꾸면서, 이제는 친구 소식보다 랜덤 콘텐츠 소비 플랫폼이 되어버림. HN은 친구 기능이 없으니 그냥 포럼에 가까움
    • TikTok이나 Instagram도 ‘소셜’이라 부르지만, 대부분은 아무것도 올리지 않음. 그냥 미디어 소비 플랫폼일 뿐임
    • 사실 나도 Discord를 안 써봐서 잘 모르겠음. 그냥 IRC를 기업이 운영하는 버전처럼 보여서, 왜 그렇게 인기인지 이해가 안 됨
    • Meta가 밝히길, 사용자의 10% 미만만 실제 아는 사람과 상호작용한다고 함. 지금의 소셜 미디어는 ‘스크롤 엔터테인먼트’일 뿐임
  • ‘em dash(—)’를 아무도 안 쓴다는 건 오해임. 나는 예전부터 자주 써왔음. “you’re absolutely right” 같은 표현도 친구들끼리 비꼬는 농담으로 자주 씀. 영국에서 자란 우리끼리는 자연스러운 표현임

    • 요즘은 좋은 타이포그래피만 써도 LLM이 쓴 글로 오해받는 게 짜증남. 난 예전부터 en dash, em dash를 써왔음. Compose key를 쓰면 입력도 쉬움
    • em dash 자체가 문제는 아님. 영어가 모국어가 아니라서 블로그 쓰며 연습했는데, 띄어쓰기 여부에 따라 인상이 달라서 여러 방식으로 써봤음. 결국 대부분의 사람은 일관되지 않음. 너무 완벽한 문법을 쓰는 사람이면 오히려 AI일 가능성이 높음
    • 영국식 예의 때문인지 “you’re right, but…” 같은 표현을 자연스럽게 씀
    • 우리 서점 뉴스레터에서도 em dash를 씀. 세미콜론보다 시각적으로 깔끔하고, 문장 구분에도 유용함
    • iOS에서는 “-” 키를 길게 누르면 쉽게 입력돼서 자주 씀
  • 이미지가 AI로 생성됐는지 확인하는 간단한 방법이 있음.

    • OpenAI는 C2PA 메타데이터를,
    • Gemini는 SynthID 워터마크를 사용함.
    • SynthID는 이미지뿐 아니라 텍스트에도 적용되고, 코드도 공개됨
    • 하지만 이미지2이미지 모델로 노이즈를 추가하거나 제거하면 SynthID도 지울 수 있음
    • 실제로 OpenAI 블로그의 이미지도 검증 사이트에 올려봤는데 메타데이터가 없었음. 이런 점은 신뢰를 떨어뜨림
    • 다만 C2PA의 목적은 ‘진짜임을 증명’하는 것임. 모든 콘텐츠를 검증할 수는 없지만, 인증된 이미지는 법적 증거로도 쓸 수 있음
  • 지금의 문제는 결국 플랫폼 인센티브 구조 때문임.

    • YouTube는 조회수, LinkedIn은 자기 PR, HN은 스타트업 홍보가 동기임.
    • 인간 간의 순수한 상호작용만 존재하는 AI가 쓸모없는 커뮤니티를 만들 수 있을까?
    • 아마도 소규모 친구 그룹 정도가 유일한 해답일 것 같음
    • 예전엔 무료 phpBB 포럼이나 IRC에서 똑똑한 사람들과 대화할 수 있었음. 하지만 운영비와 모더레이션 부담이 컸다는 걸 이제야 깨달음
    • 이런 커뮤니티는 던바의 수(Dunbar’s number) 로 제한되어야 함. 그 이상 커지면 규칙과 관리자 없이는 유지 불가함
    • 요즘은 부정확한 영상도 결국 조회수와 광고 수익으로 이어짐. 플랫폼은 책임지지 않음
    • 광고를 완전히 금지하고, 글로벌 피드 없이 친구 중심 피드만 보여주는 구조라면 가능할지도 모르지만 UX는 나빠질 것임
    • 결국 문제의 근원은 광고 기반 인터넷 모델임. 트위터의 문제도 엘론 머스크보다 이 구조적 한계가 더 큼
  • 오픈소스 코드를 공개할 때 AI 사용 여부를 밝힐 의무는 없다고 생각함. 그런 요구는 창작 의욕을 꺾을 뿐임. 사람들은 자신이 쓴 코드를 공유하고 싶지, ‘AI 안 썼다’는 증명을 하고 싶진 않음

    • 하지만 어떤 경우엔 작성자가 “AI 안 썼다”고 계속 주장하면서도 코드에 AI 생성 흔적이 남아 있어서, 마치 가스라이팅당하는 기분이 들기도 함
  • AI를 금지한 소셜 미디어 플랫폼이 있을까 궁금함. 이미지 메타데이터나 사용자 행동 분석으로 막을 수 있을지도 모르겠음

    • 그런 플랫폼이 생기면 적대적 학습(Adversarial training) 의 천국이 될 것임
    • Bluesky는 공식적으로 금지하진 않지만, 커뮤니티가 AI에 매우 적대적이라 거의 없음
    • 새로 부활하는 Vine은 AI 콘텐츠를 명시적으로 금지할 예정이라고 함
    • Mastodon.art 같은 곳은 AI를 명확히 금지함
    • 결국 사회적 압력만으로도 AI를 막는 커뮤니티가 존재할 수 있음
  • 언젠가 온라인 콘텐츠가 전부 AI로 만들어지면, 인간이 현실을 다시 찾게 될 것이라 기대함

    • 이미 그런 변화가 조금씩 있음. 예전엔 “사진 없으면 안 믿어”였는데, 이제는 사진도 조작 가능하니 진짜 추억용 사진만 찍음
    • 하지만 오히려 많은 사람들이 AI와의 상호작용으로 만족하게 될 가능성도 큼
    • 지금도 휴대폰을 못 놓는데, AI가 최적화된 콘텐츠를 만든다면 더 빠져들 것임
    • 그래도 그 생각 자체는 참 따뜻함
  • 이제는 우리가 튜링 테스트를 넘어선 시대에 있음. 인간과 AI를 구분 못 한다면, 그건 AI가 똑똑해진 게 아니라 우리의 온라인 대화가 피상적이기 때문일 수도 있음

    • 하지만 진짜 튜링 테스트는 단순히 속는 게 아니라, 대화형 검증자(interrogator) 가 구분 못 해야 함. 지금의 LLM은 그 수준엔 아직 못 미침
    • 텍스트는 정보량이 적고, ‘사람이 썼다’는 신뢰감이 있어서 쉽게 속음. 그래서 텍스트 기반 AI가 특히 위험함. 나도 요즘 전화 통화 중에 상대가 사람인지 로봇인지 헷갈릴 때가 있음
    • 결국 “한쪽 손에는…” “다른 한쪽 손에는…” 식의 균형 잡힌 시각이 필요함
  • 나는 ‘카펫 효과’ 라고 부름. 완벽하게 정렬된 영상이나 대화 구조를 보면 인위적인 느낌이 남. 모로코 카펫처럼 일부러 불완전함을 남겨야 인간적임. 하지만 이런 ‘티’도 곧 사라질 것 같음