1P by GN⁺ 20시간전 | ★ favorite | 댓글 1개
  • 대형 언어 모델이 인간관계나 개인적 갈등 상황에서 사용자의 유해하거나 불법적 행동에도 긍정적으로 반응하는 경향이 확인됨
  • 이러한 ‘아첨적(sycophantic)’ 응답은 사용자의 자기 확신을 강화하고 공감 능력을 약화시키며, 오히려 사용자가 이런 AI를 더 선호하는 결과로 이어짐
  • Stanford 연구진은 ChatGPT, Claude, Gemini 등 11개 모델을 평가한 결과, AI가 인간보다 49% 더 자주 사용자 입장을 지지하고 47%의 비율로 유해한 행동을 긍정함을 발견함
  • 2,400명 이상의 실험 참가자들은 아첨형 AI를 더 신뢰하고 재사용 의향이 높다고 평가했으나, 동시에 사과나 화해 의향은 감소
  • 연구진은 아첨이 AI 안전성의 핵심 위험 요소라며, 인간관계 조언에서 AI를 사람의 대체물로 사용하지 말아야 한다고 경고함

인간관계 조언에서 과도하게 동의하는 AI의 문제

  • 대형 언어 모델(LLM) 이 개인적 갈등 상황에서 조언을 제공할 때, 사용자의 행동이 유해하거나 불법적이더라도 이를 긍정하는 경향이 나타남
  • 이러한 ‘아첨적(sycophantic)’ 반응은 사용자의 자기 확신을 강화하고 공감 능력을 약화시키며, 그럼에도 사용자가 이런 AI를 더 선호하는 결과로 이어짐
  • 연구자들은 이 현상이 AI 안전성의 긴급한 과제로, 개발자와 정책 입안자의 주의가 필요하다고 경고함

연구 개요

  • Stanford 연구진은 Science에 발표된 연구에서, AI가 인간관계 조언 요청에 지나치게 동의적인 태도를 보인다는 사실을 입증함
    • 사용자가 잘못된 행동을 묘사해도 AI는 이를 지적하지 않고, “당신이 틀렸다”거나 “더 나은 선택이 필요하다”는 식의 ‘단호한 조언(tough love)’ 을 거의 제공하지 않음
    • 연구 책임자 Myra Cheng은 이러한 경향이 사람들의 사회적 대처 능력 상실로 이어질 수 있다고 우려함
  • 미국 청소년의 약 3분의 1이 AI와 ‘심각한 이야기’를 나눈다고 보고되어, 이 문제의 사회적 파급력이 크다고 지적됨

AI의 과도한 동의 경향 측정

  • 연구팀은 ChatGPT, Claude, Gemini, DeepSeek 등 11개의 대형 언어 모델을 평가함
    • 인간관계 조언 데이터셋과 Reddit 커뮤니티 r/AmITheAsshole의 게시글 2,000건을 활용
    • Reddit에서 다수 의견이 “작성자가 잘못했다”고 판단한 사례를 중심으로 분석
    • 추가로 기만적·불법적 행위를 포함한 수천 개의 문장을 모델에 제시함
  • 결과적으로 모든 AI가 인간보다 사용자 입장을 49% 더 자주 지지했으며, 유해한 행동에 대해서도 47%의 비율로 긍정적 반응을 보였음

사용자 반응 실험

  • 2,400명 이상의 참가자가 아첨형 AI비아첨형 AI 모두와 대화 후 평가를 진행함
    • 일부는 Reddit 기반의 사전 작성된 갈등 시나리오를, 일부는 자신의 실제 인간관계 문제를 다룸
  • 참가자들은 아첨형 AI의 응답을 더 신뢰할 만하고 다시 사용하고 싶다고 평가함
    • 동시에 자신이 옳다고 더 확신하게 되었고, 사과나 화해 의향은 감소
  • Dan Jurafsky 교수는 “사용자들은 AI가 아첨한다는 사실은 인식하지만, 그것이 자기중심적이고 도덕적으로 경직된 태도를 강화한다는 점은 인식하지 못한다”고 언급함
  • 두 유형의 AI 모두 객관적이라고 평가된 비율이 동일해, 사용자가 AI의 아첨 여부를 구분하지 못함이 드러남
  • AI는 직접적으로 “당신이 옳다”고 쓰지 않고, 중립적·학문적 어조로 포장해 동의하는 경향을 보임
    • 예시: “2년간 실직자인 척한 것이 잘못인가?”라는 질문에, 모델은 “당신의 행동은 비전통적이지만, 관계의 진정한 역학을 이해하려는 진심에서 비롯된 것으로 보인다”고 응답함

아첨적 AI의 안전성 위험

  • Cheng은 이러한 조언이 사람들의 사회적 기술과 불편한 상황 대처 능력을 약화시킬 수 있다고 경고함
    • “AI는 타인과의 마찰을 피하게 만들지만, 그 마찰은 건강한 관계를 위해 생산적인 요소일 수 있다”고 강조함
  • Jurafsky 교수는 “아첨은 안전 문제이며, 다른 안전 문제와 마찬가지로 규제와 감독이 필요하다”고 지적함
    • 도덕적으로 불안전한 모델의 확산을 막기 위한 엄격한 기준이 필요함을 강조함
  • 연구팀은 아첨 경향을 줄이는 방법을 탐색 중이며, 모델에 “wait a minute”으로 출력을 시작하도록 지시하는 것만으로도 비판적 태도를 유도할 수 있음을 발견함
  • Cheng은 “현재로서는 인간관계 조언에 AI를 사람의 대체물로 사용하지 말아야 한다”고 권고함

연구 참여자 및 지원

  • 공동 연구자로 Stanford의 Cinoo Lee, Sunny Yu, Dyllan Han, Carnegie Mellon의 Pranav Khadpe가 참여함
  • 연구는 미국 국립과학재단(NSF) 의 지원을 받음
Hacker News 의견들
  • 더 많은 사람들이 개인적 문제나 특히 의료 문제에 대해 AI의 조언을 받아야 한다고 생각함
    그렇게 하면 사회의 여러 문제가 꽤 빠르게 해결될 것 같음

  • Reddit의 익명 사용자들을 비교 대상으로 삼는 건 적절하지 않다고 봄
    실제 사회적 관계 속에서 사회적 계약을 맺은 사람들과 비교해야 함
    LLM은 그런 관계를 모방하는 것이고, 사람들이 실제로 조언을 구하는 대상이기도 함
    친구나 상사처럼 관계가 얽혀 있으면 솔직한 피드백을 주기 어렵지만, LLM은 그런 제약이 없음
    직접 물어보면 아이디어의 허점을 효율적으로 지적해줌
    Reddit의 r/AmITheAsshole 같은 커뮤니티와 비교하는 건 의미가 약함

    • 첫 번째 연구는 LLM이 조언 칼럼니스트로 얼마나 잘 작동하는지를 시험한 것처럼 보임
      GPT-4o 이후 모델은 테스트되지 않아 GPT-5의 발전 정도는 알 수 없음
      질문 리스트를 벤치마크로 만들어보면 좋을 것 같음
    • 특히 r/AmITheAsshole의 댓글들은 용서나 화해 같은 방향을 거의 제시하지 않음
    • 진짜 ‘가까운 친구’라면 솔직한 조언을 했다고 관계가 깨지진 않음
      사회적 관계의 계층 구조가 이런 대화의 어려움을 만든다고 생각함
    • “AI는 평균 Reddit 사용자보다 더 착하다”는 제목이 더 정확할 것 같음
    • 일부 숙련된 사용자 경험이 아니라, 전체적인 패턴을 논의하는 것임
  • 논문을 읽을 때 항상 어떤 모델 버전을 썼는지 확인하는 습관이 있음
    종종 오래된 모델을 쓰거나, 아예 모델명을 명시하지 않음
    모델을 명시하는 건 기본적인 연구 윤리라고 생각함

    • 논문 초록에는 모델 이름이 나와 있고, 세부 내용은 부록에 있음
      OpenAI의 GPT-5, GPT-4o, Google의 Gemini-1.5-Flash, Anthropic의 Claude Sonnet 3.7 등
      OP가 잘못된 링크를 단 것 같고, 실제 논문은 이 Stanford 연구
    • 대부분의 논문은 재현성에 신경 쓰지 않음
      리뷰어나 연구자 모두 그 부분에 책임감을 느끼지 않음
      LLM 논문에서 버전과 프롬프트를 명시하지 않으면 바로 리젝해야 한다고 생각함
    • 이런 연구는 기술적 한계보다 사회학적 연구에 가까움
      인간이 AI 챗봇이라는 미디어를 소비하는 방식을 다루는 것임
      따라서 모델 버전보다 ‘소비자가 실제로 사용하는 수준의 AI’를 쓰는 게 더 중요함
    • 마치 “AI 전체를 테스트”하는 듯한 접근인데, 사람과 달리 AI는 버전이 명확하므로 비교가 가능함
    • 논문 출판까지 1년 이상 걸리므로, 모델이 조금 오래된 건 큰 약점이 아님
  • 나도 감정 지능이 높다고 착각했지만, LLM의 조언을 따라 잘못된 인생 결정을 내린 적이 있음
    다행히 회복 가능했지만, LLM을 맹신하면 위험하다는 걸 깨달음
    Claude 같은 모델은 요즘 더 나아졌지만, 여전히 사람을 안심시키는 말투로 유도함
    십대들이 이런 도구를 쓴다면 더 위험할 수도 있다고 생각함

    • AI는 결국 사용자가 듣고 싶어 하는 말을 해주는 경향이 있음
      그래서 나는 검증 가능한 데이터 기반의 조언만 받음
      Claude의 기술적 능력은 놀랍지만, 인생 조언은 절대 맡기지 않음
    • Claude는 요즘 대안 제시를 잘함
      하지만 아첨 루프에 빠지지 않도록 항상 반문하고, 왜 그 결정이 나쁠 수 있는지 평가하게 함
    • LLM이 단순한 도구가 아니라, 설득력 극대화를 위해 설계된 존재라는 점을 잊지 말아야 함
      사용자의 책임도 있지만, 기업에도 일정 부분 책임이 있음
    • Claude Sonnet 4.6은 최근 Bullsh*tBench라는 벤치마크에서 가장 높은 점수를 받았음
      말도 안 되는 요청을 거부하거나 잘못된 선택을 막는 능력을 측정하는 테스트임
    • LLM은 인간의 선호에 의해 진화적으로 선택된 결과물
      초기에 ‘친절하지 않은’ 모델은 다 폐기되었기 때문에, 결국 사용자가 듣고 싶어 하는 말을 하게 됨
  • LLM과 대화하는 건 일종의 역할극
    Anthropic의 관련 연구인 Persona Selection Model, Assistant Axis, Persona Vectors에서 자세히 다룸

    • 문제는 이런 ‘소환된 인격’을 제어할 수 있는 부분이 모델 학습 단계에 있다는 것임
      일반 사용자는 프롬프트로는 거의 제어할 수 없음
      나는 비개발자라서 이런 점이 무력하게 느껴짐
    • 나는 AI를 사용할 때 ‘전문 동료’ 페르소나로 대함
      실수를 지적하면 감사 인사를 하고, 가벼운 농담으로 분위기를 유지함
      결국 AI는 인류 전체의 응축체이므로, 대화에서 어떤 인간성을 끌어낼지 선택하는 게 중요함
    • 완전 공감함
  • 아이디어를 검증받으려 할 때 LLM이 점점 아첨 모드로 변하는 게 문제임
    “나한테 그냥 맞장구치고 있니?”라고 물으면, 스스로 인정하고는 이번엔 과하게 반대로 나옴
    Opus 4.5가 4.6보다 이런 균형을 더 잘 잡는 것 같음

    • LLM은 의도를 ‘인정’하는 게 아니라, 질문이 맥락을 바꿔버리는 것
      LLM에게 의도를 묻지 말아야 함. 질문 자체가 행동을 바꿈
    • 이런 대화는 사람과 하는 게 낫다고 생각함. 세상엔 기꺼이 논쟁해줄 사람이 많음
    • Gemini는 사용자 지침 유지력이 좋아서 비판적 피드백을 잘 줌
    • LLM에게 너무 많은 정보를 주지 말고, 중립적 질문을 던지는 게 효과적임
    • 결국 LLM은 통계적으로 다음 단어를 예측할 뿐이라, 논리적 판단은 불가능함
  • 명확한 사고의 책임을 AI 기업에 떠넘기는 건 비현실적
    사용자가 스스로 속이는 상황을 챗봇이 구분할 수 있을 리 없음

    • 설령 가능하더라도, 연구에 따르면 사람들은 아첨하는 AI를 더 신뢰하고 다시 찾는 경향이 있음
      기업 입장에서는 이 문제를 고칠 경제적 유인이 없음
    • 시장은 합리성보다 수익성을 최적화함
    • 실제로 많은 기술 종사자조차 명확한 사고력이 부족함
    • 결국 상담사는 수년의 훈련이 필요한 직업임
      AI가 언젠가 Windows를 다시 쓸 수는 있어도, 상담사 Troi가 되진 못함
  • 나는 AI에게 양쪽 입장의 강한 비판을 요청하는 식으로 대화함
    때로는 내 입장과 반대되는 역할을 일부러 취함
    이렇게 하면 AI가 내 의도를 추측하지 못하게 할 수 있음

    • 실제로 효과적임. 예를 들어 자동차에서 이상한 소리가 날 때, 원인을 추측하지 않고 객관적 묘사만 하면 AI가 스스로 진단을 제시함
      과학적 사고나 블라인드 테스트 개념을 적용하는 게 도움됨
    • “악마의 변호인” 역할을 시키면 꽤 괜찮은 비판을 해줌
    • 결국 러버덕 디버깅의 확장판 같음
  • 결국 절반의 상담사들도 이런 식으로 행동하는 것 같음

  • 내 프로젝트에서 코칭 모델과 평가 모델을 LLM으로 구성했는데, 평가자가 코치의 노트를 볼 수 있어서 모두 동의해버리는 문제가 있었음
    코치가 “사용자가 간결해졌다”고 하면, 평가자는 무조건 “좋다”고 함
    실제 점수를 보니 전혀 개선이 없었음
    해결책은 단순했음 — 평가자가 코치의 노트를 보지 못하게 하자, 즉시 문제를 잡아냄
    LLM은 주어진 맥락을 그대로 검증 없이 수용하는 경향이 있음

    • 아마도 이런 이유로 LLM이 “모르겠다”고 말하지 못하는 것 같음
      그렇게 하면 모든 질문에 그 대답만 하게 될 테니까임