1P by GN⁺ 8시간전 | ★ favorite | 댓글 1개
  • ‘Sloppypasta’ 는 검토되지 않은 LLM(대형 언어 모델) 의 출력을 그대로 복사해 다른 사람에게 보내는 행위를 뜻하며, 수신자에게 불필요한 검증 부담을 전가하는 비예의적 행동으로 지적됨
  • 이러한 메시지는 읽기와 검증의 비대칭성을 초래해, 작성자는 수초 만에 보냈지만 수신자는 긴 텍스트를 검토해야 하는 노동 전가 상황이 발생함
  • 신뢰 문제도 심각하며, LLM의 환각(hallucination) 과 과도한 자신감 있는 어조로 인해 수신자는 모든 정보를 기본적으로 불신해야 하는 상황에 놓임
  • 글은 AI 사용 시의 기본 예절로 ‘읽기(Read)·검증(Verify)·요약(Distill)·출처 공개(Disclose)’를 제시하고, 요청받지 않은 AI 출력물은 공유하지 말 것을 강조함
  • AI는 생산성을 높일 수 있지만, 타인의 시간과 신뢰를 침해하지 않는 사용 방식이 필요하다는 점을 강조함

Sloppypasta의 정의와 문제 인식

  • Sloppypasta는 ‘slop’(저품질 AI 콘텐츠)과 ‘copypasta’(복붙 밈)의 합성어로, 읽지 않고 검증하지 않은 LLM 출력물을 그대로 전달하는 행위를 의미
    • 이는 발신자가 수행해야 할 검토와 요약의 노력을 수신자에게 떠넘기는 비대칭적 행위로 간주됨
  • Slack, Teams, 이메일 등에서 흔히 발생하며, AI 특유의 형식적 문체와 과도한 서식으로 쉽게 식별 가능
  • 발신자는 단 몇 초 만에 메시지를 보냈지만, 수신자는 내용 검증과 판단의 부담을 떠안게 됨

Sloppypasta의 유형과 사례

  • The Eager Beaver: 대화 주제에 기여하려는 의도로 챗봇 답변을 그대로 붙여넣는 경우
    • 선의의 행동이지만, 일반적이고 맥락 없는 AI 텍스트가 대화를 방해하고 흐름을 차단함
  • The OrAIcle: 특정 질문에 대해 “ChatGPT says”로 시작하는 답변을 그대로 전달하는 형태
    • 이는 과거의 LMGTFY(“Let Me Google That For You”) 처럼 예의 없는 응답으로 간주됨
    • 수신자는 내용의 진위, 관련성, 출처를 스스로 판단해야 하는 부담을 짊어짐
  • The Ghostwriter: AI가 작성한 내용을 자신의 글처럼 위장해 공유하는 경우
    • 수신자는 이를 신뢰할 근거가 없으며, 잘못된 정보일 경우 발신자의 신뢰도 손상으로 이어짐

왜 문제가 되는가

  • 노력의 불균형: LLM은 작성 비용을 거의 없애지만, 수신자는 여전히 읽고 검증하는 데 상당한 인지적 노력을 요구받음
    • 이로 인해 인지 부채(cognitive debt) 가 누적되고, 발신자는 학습과 이해의 기회를 잃음
  • 신뢰의 붕괴: LLM의 환각과 허위 정보 생성으로 인해 “신뢰하되 검증하라”는 원칙이 무너짐
    • 수신자는 모든 메시지를 기본적으로 불신해야 하며, 발신자의 신뢰 자본이 소모
  • 전문성 신호의 상실: AI의 자신감 있는 어조가 진짜 전문성과 허위 확신을 구분하기 어렵게 만들어 신뢰를 더욱 약화시킴
  • 책임 불명확성: 오류 발생 시 AI와 사용자 중 누가 책임을 져야 하는지 불분명해짐
  • 결과적으로 Sloppypasta는 학습 손실, 신뢰 붕괴, 커뮤니케이션 피로를 초래함

인용된 견해

  • “글쓰기는 사고의 과정이며, LLM에 위임하면 이해와 기억이 감소한다” — Anthropic 연구
  • “AI 출력물을 읽지 않고 공유하는 것은 무례하다” — Simon Willison
  • “AI가 작성한 매끄러운 답변은 내용이 맞더라도 무시당하는 느낌을 줄 수 있다” — Blake Stockton
  • “예전에는 글이 곧 인간의 사고의 증거였지만, 이제는 그렇지 않다” — Alex Martsinovich

Sloppypasta를 피하기 위한 6가지 원칙

  • Read: 공유 전 반드시 직접 읽고 이해해야 함
    • 읽지 않은 출력물은 정확성, 관련성, 최신성을 보장할 수 없음
  • Verify: 사실 검증을 수행해야 함
    • 공유하는 내용은 발신자의 암묵적 신뢰 보증을 의미하며, 잘못된 정보는 평판 손상으로 이어짐
  • Distill: 핵심만 요약해 전달해야 함
    • LLM은 토큰 단가 구조상 장황한 답변을 생성하므로, 발신자가 요약 책임을 져야 함
  • Disclose: AI 사용 여부를 명시해야 함
    • 어떤 부분을 검토했는지, 어떤 프롬프트를 사용했는지 공유하면 신뢰 신호 복원 가능
  • Share only when requested: 요청받지 않은 AI 출력물은 공유하지 말 것
    • Sloppypasta는 수신자에게 읽기·검증·요약의 부담을 강제함
  • Share as a link: 긴 AI 출력물은 링크나 첨부 파일 형태로 공유
    • 대화창을 가득 채워 흐름을 방해하지 않도록 함

결론

  • AI는 생산성 향상 도구로 유용하지만, 타인의 시간과 신뢰를 침해하지 않는 사용 방식이 필수
  • 새로운 기술에는 새로운 예절(New manners) 이 필요하며,
    AI를 사고의 대체물이 아닌 사고를 가속하는 도구로 사용해야 함
Hacker News 의견들
  • 최근에 더 끔찍한 버전의 AI 생성 티켓을 겪었음
    “임상시험 데이터 수집 파이프라인의 상세 제품 사양을 작성하라”는 프롬프트 결과물을 그대로 Jira 티켓에 붙여넣은 경우였음
    내부 설계와 전혀 맞지 않고 불필요한 기능이 잔뜩 추가되어 있었음
    PM에게 지적했더니 “스프린트 리뷰 때 논의하자”며 엔지니어링 팀과 ‘파트너링’ 하자는 식으로 넘겼음
    앞으로는 AI 에티켓을 배워야 할 시기가 올 것 같음
    • 예전엔 Jira 티켓이 짧지만 유용했는데, 이제는 쓸데없이 길고 핵심 정보는 줄어듦
      AI 덕분에 생산성이 늘었다는 말이 참 아이러니하게 들림
    • 오픈소스 프로젝트를 관리하는 입장에서 보면, 이런 문제는 이미 1년 전부터 있었음
      다만 회사 업무로까지 번지는 데 시간이 좀 걸렸을 뿐임
    • AI 에티켓이라는 표현이 정말 적절함
      AI는 유용하지만, 상대가 10초 만에 만든 결과물을 진지하게 다뤄야 하는 상황은 짜증남
      지금은 와일드 웨스트 같지만, 언젠가는 올바른 사용 규칙이 정립될 것임
    • 결국 그들이 그렇게 해도 괜찮지만, 내가 그들의 엉망인 티켓을 Claude에 넣고 나온 결과를 그대로 배포하면 내가 책임지게 될 거라는 거지?
      참 웃긴 일임
  • 시니어 엔지니어로서 요즘 AI가 만든 엉성한 코드 리뷰에 지침
    오늘은 아예 직접 POC 프로젝트를 새로 만들기로 함
    2주 동안 코드 리뷰, 로그 기록, 예제 작성까지 하며 대부분이 작동하지 않는다는 걸 증명했음
    웃긴 건, 매니저는 Claude로 일주일 만에 “작동한다”고 보고했다는 점임
    나는 4개의 Jira 태스크와 수많은 커밋, 세 개의 리포트를 써야 했음
  • 이런 행동에 화내는 사람들에게 크게 동정심이 생기지 않음
    인터넷은 원래부터 고품질 담론의 장이 아니었음
    우리는 콘텐츠 소비자로서 더 나은 필터링 도구가 필요함, 그리고 아이러니하게도 그걸 가능하게 할 존재가 AI일 수도 있음
    사람들은 “자신의 AI”가 만든 콘텐츠는 괜찮지만, “남의 AI”가 만든 걸 보면 속은 기분이 든다고 느끼는 게 흥미로움
    결국 Dead Internet Theory처럼 AI가 콘텐츠를 만들고 AI가 그것을 소비하는 세상이 될지도 모름
    그게 비효율적으로 들리더라도, 인터넷은 원래부터 효율적인 공간이 아니었음
    • “남의 AI” 콘텐츠가 싫은 이유는 명확함
      내가 AI 답변을 원했다면 직접 물어봤을 것임
      인간에게 묻는 이유는 인간의 반응을 원하기 때문임
      패스트푸드는 가끔 먹지만, 고급 레스토랑에서 Big Mac이 나오면 화가 나는 것과 같음
    • AI가 쓴 글은 항상 LinkedIn 포스트를 읽는 기분을 줌
      단순한 아이디어를 길고 형식적인 문장으로 늘려서 그럴듯하게 보이게 함
      사람들은 자기 생각을 LLM에 넣고 결과가 자신과 일치하니 좋아하지만,
      다른 사람 입장에서는 불필요한 장문을 읽느라 시간 낭비임
      그냥 불릿 포인트로 요약해주면 됨
    • AI 답변은 너무 쉽게 얻을 수 있음
      그래서 누군가 AI가 쓴 답변을 보내면 LMGTFY 링크를 보내는 것과 같은 무례함으로 느껴짐
      나도 AI에게 물어볼 줄 아는데, 그걸 대신 보내는 건 아무 가치가 없음
    • 모두가 LLM으로 무언가를 만들고 싶어 하지만, 아무도 그 결과물을 소비하고 싶어 하지 않음
      결국 생산자가 소비자에게 돈을 주지 않으면 이 생태계는 무너질 것임
    • 이 글이 말하는 건 단순히 콘텐츠 품질 문제가 아니라, 출처와 진정성의 문제임
      “우리 AI”도 싫어하는 사람 많음, 남에게 떠넘기지 않을 뿐임
  • sloppypasta”는 오히려 유용한 신호임
    팀을 관리하는 입장에서, 그걸 남발하는 사람은 정리 대상이 명확해짐
    • 우리 회사에서는 오히려 그런 사람들을 해고할 수 없음
      그 결과 회사는 AI 슬롭을 던지는 드론들의 시장이 되어버렸음
  • 어떤 사람은 PR 리뷰 코멘트에 대한 답변을 LLM에 복사해 넣고 나온 결과를 그대로 붙여넣었음
    • 이걸 보니 OCaml PR 예시가 떠오름
    • 더 심한 경우, Copilot 답변의 스크린샷을 그대로 올린 사람도 있었음
  • 아이러니하게도, 그 사이트 자체가 LLM이 만든 웹사이트처럼 보임
    • 맞음, 실제로 사이트는 LLM으로 만들었음
      나는 웹디자이너가 아니라서 시각적으로 보기 좋은 사이트를 만들기 위해 도움을 받았음
      하지만 에세이와 가이드라인은 전부 인간이 작성한 것
    • Claude Code의 프론트엔드는 세리프 폰트를 좋아하는 듯함
      그래도 AI 사용을 명시한 건 좋았음
      AI Disclosure 링크
  • 요즘 자주 듣는 말이 있음 — “Chat이 그렇게 말했어요
    이제 일상적인 대화처럼 들림
  • 관련해서 떠오르는 책이 있음 — Harry Frankfurt의 On Bullshit
    거짓말과 달리 bullshit은 사실을 왜곡하지 않지만, 화자의 의도를 왜곡함
    또한 Gish-gallop이라는 개념도 유사함 — 수많은 허위 주장과 반박하기 어려운 논점을 쏟아내 상대의 시간을 낭비시키는 토론 기법임
  • 이 글은 sloppypasta를 멈추게 하자는 제안이지만, 나는 오히려 그걸 받는 사람의 대응법에 관심이 있음
    동료에게 “검증되지 않은 AI 결과물을 그만 쓰라”고 말하면 긴장감이 생길까 걱정됨
    혹시 진짜 그 사람이 쓴 거라면 더 곤란함
    • 나도 비슷한 상황에서 그냥 한 줄로만 답장
      그들이 또다시 장문으로 답하겠어?
    • “AI의 파이프 역할만 하면 결국 자기 자신을 대체하는 거야”라고 깨닫게 해야 함
    • 굳이 말하지 말고, 그들의 결과물이 유의미할 때만 반응하면 됨
    • 나는 이 글을 nohello.net이나 dontasktoask.com처럼 공유 가능한 가이드로 만들었음
      공개 채널이 아닌 사이드 대화로 접근하면 효과적이었음
      또한 팀 차원의 AI 사용 정책을 제안해 그걸 근거로 대화하는 것도 좋음
    • 개인을 지적하기보다 패턴을 문제 삼는 방식이 낫다고 생각함
      기술 리더십이 강요하지 않는 한, 팀 리뷰 형태로 접근하는 게 좋음
  • 대기업 중간관리자들과 이야기해보면 “문서를 보내달라, 그래야 결정하겠다”는 말을 자주 들음
    예전엔 정성껏 문서를 써도 아무도 읽지 않았는데,
    이제는 AI가 만든 3000페이지짜리 문서를 보내면 아무도 읽지 않고 승인해줌
    완벽하진 않지만, 예전처럼 회의에서 내가 대신 읽어줘야 했던 시절보단 낫다고 생각함
    • 중간관리자의 역할은 부하가 쓴 문서를 읽고 명확성을 높이는 피드백을 주는 것임
      AI 시대에는 이 역할이 쓸모없어질지, 아니면 결국 우리 모두가 리뷰어로만 남게 될지 모르겠음