3P by GN⁺ 10시간전 | ★ favorite | 댓글 1개
  • AI가 생성한 텍스트를 다른 사람에게 무분별하게 전달하는 것은 상대방을 혼란스럽게 하는 행동
  • 예전에는 작성된 텍스트가 인간의 사고의 증거였으나, AI의 발전으로 이러한 신뢰가 무너짐
  • AI가 생성한 콘텐츠의 전파는 발신한 사람이 스스로 결과물을 소화해서 자신의 언어로 전달하든지 수신자의 동의가 있을 때에만 허용 가능함
  • AI의 메시지 남용은 수신자에게 쓸모없는 정보의 피로와 리소스 낭비를 유발함
  • AI 에티켓을 지키지 않고 AI 답변을 직접 전달하는 것은, 사회적으로 무례한 행위로 간주됨

소설 Blindsight의 배경과 신호의 의미

  • Peter Watts의 SF 소설 Blindsight에서는, 인간이 의식이 없는 외계 종족(scramblers) 과 조우하는 내용이 중심임
  • Scramblers는 인간과 달리 불필요한 정보를 싫어하며, 쓸모없는 신호 전송을 침략 행위로 간주함
  • 인간이 의미 없는 텍스트를 아무렇게나 퍼뜨리는 것처럼 정보를 남용하는 행위가 상대방의 자원을 낭비시키는 공격으로 해석됨

Proof-of-thought(사고의 증명) 개념

  • 과거에는 직접 작성한 텍스트만이 소통의 주체였기 때문에, 뭔가를 읽는 행위는 자연스레 인간적인 사고의 흔적을 신뢰할 수 있었음
  • AI의 보급으로 인해 텍스트, 코드, 이미지, 영상 등 모든 미디어가 너무 쉽게 양산되면서, 그 내용에 인간적 사고의 증명(Proof-of-thought)이 사라짐
  • 이제는 누구든지 AI의 산출물을 재전송하면, 수신자는 무의미한 정보에 소중한 시간을 빼앗길 위험이 있음
  • AI는 기본적으로 요청에 반응할 때만 대답을 내놓기 때문에, 사람이 요청하지 않으면 AI가 알아서 정보 홍수를 일으키지 않음
  • 결국 문제의 본질은 AI 자체가 아니라, AI 출력물을 무분별하게 이용하고 전파하는 인간에 있음

AI 에티켓의 필요성

  • AI의 산출물을 그대로 다른 사람에게 전달할 때는 서로 간의 합의나 명확한 동의가 반드시 필요함
  • 누군가에게 "나는 ChatGPT에 물어봤더니 이렇게 나왔어" 같은 식으로 바로 전달하면, 상대방이 무례함을 느낄 수 있음
  • 개인적인 의견이나 판단 없이 AI가 준 답변을 전달하는 것은 상대방에게 불편과 정보 오염을 초래
  • 예를 들어, "ChatGPT로 이런 답변을 얻었는데, 원한다면 대화 로그를 보여줄 수 있음"이라고 하면 상대방이 선택권을 가질 수 있음
  • 자신의 작업물을 리뷰 받을 때, "AI가 자동으로 만든 내용이니 직접 봐줘"가 아니라, 본인이 직접 검토 후 요약해서 보내는 태도가 요구됨

결론: AI 출력물 전파 시 주의사항

  • Scramblers와 다르게, 인간은 아무 의미 없는 신호를 수동적으로 받는 것이 아니라, 선택하여 수용하는 존재
  • AI 에티켓을 지키고, AI가 만든 텍스트를 직접적으로 전달하지 말 것이 예의임
  • AI 산출물을 활용하더라도, 항상 받는 이의 시간과 주의력을 존중하는 자세가 필요함
  • AI 활용 결과물을 그대로 전달할 땐, 수신자 동의를 먼저 구하는 습관이 중요함
  • AI가 생성한 '노이즈'의 범람 속에서 책임감 있게 정보를 채택하고, 스스로 필터링하는 역량이 사회적 에티켓으로 자리잡아야 함
Hacker News 의견
  • 일부 동료들이 이메일이나 Teams 메시지를 LLM으로 쓰는 걸 그만두었으면 하는 바람임, 이런 메시지는 너무 무성의하게 느껴져서 이제는 읽고 싶지도 않음

    • 가끔 동료가 실수로 AI와의 대화 내용을 그대로 남겨놓을 때가 있는데, 이런 건 딱 봐도 바로 티가 남. 최근 받은 이메일 하단에 "Outlook에서 서식 지정할까요, 아니면 특정 채널이나 배포 리스트에 올리는 걸 도와드릴까요?"라는 문구가 붙어있었음
    • 이런 상황에서는 "보내주신 메시지들이 일부 LLM에서 생성된 것 같음. 올바른 문법과 스타일을 추구하는 것은 고맙게 생각하지만, 오히려 가끔 오타나 투박한 표현이더라도 의미가 왜곡되거나 맥락이 사라지는 것보다 훨씬 좋음. 앞으로는 직접 써서 보내주셨으면 함. 내부 커뮤니케이션에서는 대문자 미사용이나 구어체 표현도 전혀 신경 안 씀"이라고 직접 요청해보았음
    • 장애로 인해 글쓰기 어려움을 겪는 사람들은 AI의 도움으로 평소보다 더 잘 자기 생각을 표현할 수 있게 되었음. 비록 지금 상황과 직접적으론 다를 수 있지만, 이런 부분도 함께 생각해볼 필요가 있음
    • LinkedIn이 이런 면에서 가장 심한 곳임. 원래도 “기업/프로페셔널 물타기”로 가득한 곳인데, 이제는 인터페이스에서 AI 생성 답글을 적극적으로 추천함. 최악의 소셜 네트워크라고 생각함. 예시: "정말 통찰력 있네요! 일상적인 업무를 변혁적 브랜딩 기회로 만든 걸 보니, 진정한 자기 PR의 달인임!"
    • 이런 피드백을 직접 동료에게 전달해본 적이 있음. 내 보고자가 AI Slop(성의 없는 AI 답변)으로 반응하기 시작해서 "직접 쓴 건가?"라고 물으니 아니라고 해서, "이런 방식은 마치 나한테 귀 기울이지 않은 것처럼 느껴진다"고 정확히 피드백했음. 다행히 이후로 안 그러더라. 앞으로 모델이 더 똑똑해질수록 이런 거 구분이 더 어려워질 텐데, 결국 실제로 손해를 보는 건 무심하게 AI만 붙여 보내는 사람들이 될 거라고 생각함. (South Park 에피소드처럼) 본인도 모르는 커밋에 휘말려 책임질 수 있음
  • 남에게 질문하는 목적은 단순히 기술적 답변을 듣고 싶어서라기보다, 상대방의 의외의 생각을 듣고 연결되어 보거나 협업의 시작점을 찾아보는 데 의미가 큼. 실제 사람과의 대화에는 다양한 여정과 생각의 가지가 생기는데, AI는 그저 생기 없어 보임. 누가 내게 AI로 만든 답을 복사해서 붙였다면, 그 사람은 내게 아예 관심이 없다는 의미로 받아들여짐. 이런 사람과는 상호작용하고 싶지 않음

    • 대화로 치면 "구글에 검색해봤으면 됨"과 다를 바 없는 느낌을 받음
  • "15분 만에 감정으로 짰던 PR, 리뷰 부탁"이라는 슬로건을 붙인 PR을 본 적이 있음. 그런데 실제로는 PR 작성자는 이런 문구조차 남기지 않고, 리뷰어가 직접 물어봐도 인정하지 않음. 내 리뷰 코멘트가 곧장 AI에게 넘어가 다시 엉뚱하게 수정된 PR이 10분 뒤에 또 올라오고, 내 핵심 피드백은 반영도 안 되어버림. 차라리 AI랑 직접 이야기할 수 있으면 좋겠음. (참고로, 지금은 PR을 무시하거나 닫을 권한조차 없음)

    • PR을 무시하거나 닫지 말고, 대화를 시작해봐야 함. AI는 사람이 아니고, 버그나 품질 문제 있는 코드를 제출하면 책임은 결국 제출한 본인에게 돌아간다는 사실을 인식시켜주는 것이 중요함. 또, 자기가 직접 리뷰하지 않고 AI 출력만 넘겨줄 생각이라면, 그 사람 자체가 아무런 가치를 더하지 않는 셈임. AI Slop만 넘겨주는 사람들이 주변에 있다면 멘토링 기회라 생각하고 바른 방향을 알려주는 게 산업 전체의 질을 높일 계기가 될 수도 있다고 생각함. 앞으로는 비판적 사고, 디버깅, 비즈니스 맥락 연결이 가능한 사람이 진짜 경쟁력이 될 것이고, 그렇지 않은 사람들은 점점 뒤처질 것이라는 확신이 듦
    • 실제 현실은 훨씬 더 우울하다고 생각함. 리뷰 과정을 모두 AI에 맡기는 건 결국 본인 능력 평가도 깎아먹게 될 위험이 있음. 성과 평가에서 감점 주는 방식은 어떨지 고민됨
    • 신뢰는 천천히 쌓이고 한순간에 무너짐. 사전 양해 없이 AI가 만든 엉성한 PR의 리뷰를 내게 계속 강요한다면, 그 사람의 다음 PR은 리뷰하지 않음
    • 이런 상황 별로임, 정말 지옥 같은 업무 환경으로 느껴짐
    • 이럴 땐 바로 매니저에게 전달하는 것도 하나의 방법임
  • "글쓰기는 읽기보다 더 비용이 많이 드는 일이었다"는 말에 깊이 공감하게 됨. LLM 이후엔 이 공식이 뒤집혔고, 나 같은 경우엔 특히 코드 리뷰에 소요되는 시간이 엄청 늘어남. 작성자와 리뷰어 모두 코드 변경에 대해 비슷한 이해 수준이 되는 환경이라, PR 자체가 더욱 명확하게 쓰여져야 중요해짐. 이 변화가 가져오는 숨겨진 효과들도 궁금함

    • 예전엔 풍경을 그리는 게 실제 풍경을 보는 것보다 훨씬 시간이 많이 드는 일이었지만, 오늘날에는 둘 다 비슷한 노력이 들어감. 인류는 이런 변화에도 잘 적응해왔고, 사진이 있는 세상에 살아 행복함. 앞으로는 명시적으로 밝히지 않은 AI 생성물, 그리고 검증도 제대로 거치지 않은 콘텐츠에 대한 강한 부정적 인식이 자연스럽게 생겨날 것이라고 봄
  • 누군가 ChatGPT와 나눈 대화를 이야기하는 풍경이 요즘 "어제 꾼 꿈 이야기" 같은 새로운 소재가 되었음 (좀 아쉬운 건, 실제로 하고 싶은 말이 많은데 이런 대화들도 잘 못 나눈다는 것임)

    • AI와 나눈 대화에 대해 "이런 경험을 했는데, 이런 점이 흥미롭고 나에겐 이런 영향을 줬어"라고 본인의 실제 경험을 이야기하는 것은 충분히 인간적이고 유효함. 반면 대화 내용을 그대로 넘기는 건 "내가 입력값 줬으니 이 결과를 네가 생각하고 뭔가 해야 해" 식의 태도로 받아들여짐. 나 역시 Claude나 ChatGPT와 이야기하면서 느낀 바를 친구나 파트너와 나눌 때는 있지만, transcript를 그대로 공유하지는 않음
    • 꿈 얘기는 그래도 내 뇌가 직접 만든 결과지만 ChatGPT는 수많은 인터넷 이용자의 "절인(brined)" 뇌가 프롬프트를 보고 즉각 연상하며 생성한 것임. 완전히 다른 종류의 결과임
    • 나도 이와 같은 인상을 가졌음. 경험한 사람에게는 흥미롭지만, 듣는 입장에서는 그다지 재미가 없음. 가끔 다른 사람의 머릿속을 살짝 들여다보는 느낌이 신선할 수도 있지만, 내용 자체는 별로 중요하지 않음. 꿈과 AI 답변 모두 본질적으로 "환각적 특성"—즉, 실질적 내용이 없다는 점에서 닮았음. 결국 중요한 건 커뮤니케이션의 본질임
    • 오히려 "술에 취한 삼촌에게 물어본 것 같은데, 대답은 되게 자신감 넘쳤다" 느낌임
  • 누군가 AI로 생성한 결과를 전달했다면, 그 사실을 명확히 밝혀야 함. 퀄리티가 낮아도 AI 썼다는 사실이 면책 사유는 아니고, 모든 출처를 밝히는 게 중요함. AI 생성 콘텐츠를 받기 싫다면 출처 명시 덕분에 미리 걸러낼 수 있음

  • 최근 ChatGPT의 스크린샷(무료 버전)을 이메일에 첨부하며 내 기술적 의견에 이의를 제기한 비전문가를 만났음. LLM 답변이 틀리지는 않았지만, 오히려 적당한 미사여구에 둘러싸여 있었고, 상대방은 실제로 답변 속 핵심 의미를 이해할 역량이 없었음

  • 관련해서, 나는 아예 프롬프트 자체를 읽는 편이 더 낫다고 생각함 https://news.ycombinator.com/item?id=43888803

    • 내 입장은 이러함:
      • 동의함
      • 하지만 사람들은 보통 글(문장)을 원하고, 글머리표 안 좋아함
      • 문화적 차이 문제임
  • 누군가가 ChatGPT의 도움을 받아 토론하는 상황이 흥미롭게 느껴짐. 자기 손으로 쓴 사람과 비교해봐도, 반복적으로 깊이가 떨어지고 겉핥기뿐임이 드러남. 이런 대화는 성의와 진솔함이 없어서 바로 중단하게 됨

    • AI를 안 쓰는 사람이 뒤처지는 게 아니라, 오히려 AI만 이용하는 사람이 도태되는 것이라고 생각함. (Roko's Reverse Basilisk?)
  • 최근 온라인 쇼핑몰에서 불쾌한 경험이 있어서, "회사 자체는 마음에 드는데 이런 경험이 불편했다"고 지원팀에 이메일을 보냈더니, "AI Agent Bot"이 온갖 미사여구로 "조치가 필요 없으시고 주문도 정상 처리되었으니 티켓은 닫겠다"는 답변만 돌아왔음. 이메일 작성 도움에 LLM을 활용하는 건 좋지만, 고객 문의를 무조건 봇이 닫는 건 정말 무례하다고 느낌

    • 이건 기업 내면의 문화가 고스란히 드러난 사례임. "고객 따윈 신경 쓸 가치 없다"는 태도가 읽혀짐