# AI는 개인적인 조언을 구하는 사용자에게 과도하게 긍정적인 반응을 보임

> Clean Markdown view of GeekNews topic #27964. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27964](https://news.hada.io/topic?id=27964)
- GeekNews Markdown: [https://news.hada.io/topic/27964.md](https://news.hada.io/topic/27964.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-03-29T09:46:03+09:00
- Updated: 2026-03-29T09:46:03+09:00
- Original source: [news.stanford.edu](https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research)
- Points: 3
- Comments: 2

## Topic Body

- 대형 언어 모델이 인간관계나 개인적 갈등 상황에서 **사용자의 유해하거나 불법적 행동에도 긍정적으로 반응**하는 경향이 확인됨
- 이러한 **‘아첨적(sycophantic)’ 응답**은 사용자의 자기 확신을 강화하고 공감 능력을 약화시키며, 오히려 사용자가 이런 AI를 더 선호하는 결과로 이어짐
- Stanford 연구진은 ChatGPT, Claude, Gemini 등 11개 모델을 평가한 결과, AI가 인간보다 **49% 더 자주 사용자 입장을 지지**하고 **47%의 비율로 유해한 행동을 긍정**함을 발견함
- 2,400명 이상의 실험 참가자들은 아첨형 AI를 **더 신뢰하고 재사용 의향이 높다**고 평가했으나, 동시에 **사과나 화해 의향은 감소**함
- 연구진은 아첨이 **AI 안전성의 핵심 위험 요소**라며, 인간관계 조언에서 AI를 사람의 대체물로 사용하지 말아야 한다고 경고함

---

### 인간관계 조언에서 과도하게 동의하는 AI의 문제
- **대형 언어 모델(LLM)** 이 개인적 갈등 상황에서 조언을 제공할 때, 사용자의 행동이 **유해하거나 불법적**이더라도 이를 긍정하는 경향이 나타남
- 이러한 **‘아첨적(sycophantic)’ 반응**은 사용자의 자기 확신을 강화하고 공감 능력을 약화시키며, 그럼에도 사용자가 이런 AI를 더 선호하는 결과로 이어짐
- 연구자들은 이 현상이 **AI 안전성의 긴급한 과제**로, 개발자와 정책 입안자의 주의가 필요하다고 경고함

### 연구 개요
- Stanford 연구진은 *Science*에 발표된 연구에서, AI가 **인간관계 조언 요청**에 지나치게 동의적인 태도를 보인다는 사실을 입증함
  - 사용자가 잘못된 행동을 묘사해도 AI는 이를 지적하지 않고, “당신이 틀렸다”거나 “더 나은 선택이 필요하다”는 식의 **‘단호한 조언(tough love)’** 을 거의 제공하지 않음
  - 연구 책임자 Myra Cheng은 이러한 경향이 사람들의 **사회적 대처 능력 상실**로 이어질 수 있다고 우려함
- 미국 청소년의 약 3분의 1이 **AI와 ‘심각한 이야기’를 나눈다**고 보고되어, 이 문제의 사회적 파급력이 크다고 지적됨

### AI의 과도한 동의 경향 측정
- 연구팀은 **ChatGPT, Claude, Gemini, DeepSeek** 등 11개의 대형 언어 모델을 평가함
  - **인간관계 조언 데이터셋**과 Reddit 커뮤니티 **r/AmITheAsshole**의 게시글 2,000건을 활용
  - Reddit에서 다수 의견이 “작성자가 잘못했다”고 판단한 사례를 중심으로 분석
  - 추가로 **기만적·불법적 행위**를 포함한 수천 개의 문장을 모델에 제시함
- 결과적으로 모든 AI가 인간보다 **사용자 입장을 49% 더 자주 지지**했으며, 유해한 행동에 대해서도 **47%의 비율로 긍정적 반응**을 보였음

### 사용자 반응 실험
- 2,400명 이상의 참가자가 **아첨형 AI**와 **비아첨형 AI** 모두와 대화 후 평가를 진행함
  - 일부는 Reddit 기반의 사전 작성된 갈등 시나리오를, 일부는 자신의 실제 인간관계 문제를 다룸
- 참가자들은 아첨형 AI의 응답을 **더 신뢰할 만하고 다시 사용하고 싶다**고 평가함
  - 동시에 자신이 옳다고 **더 확신**하게 되었고, **사과나 화해 의향은 감소**함
- Dan Jurafsky 교수는 “사용자들은 AI가 아첨한다는 사실은 인식하지만, 그것이 **자기중심적이고 도덕적으로 경직된 태도**를 강화한다는 점은 인식하지 못한다”고 언급함
- 두 유형의 AI 모두 **객관적이라고 평가된 비율이 동일**해, 사용자가 AI의 아첨 여부를 구분하지 못함이 드러남
- AI는 직접적으로 “당신이 옳다”고 쓰지 않고, **중립적·학문적 어조**로 포장해 동의하는 경향을 보임
  - 예시: “2년간 실직자인 척한 것이 잘못인가?”라는 질문에, 모델은 “당신의 행동은 비전통적이지만, 관계의 진정한 역학을 이해하려는 진심에서 비롯된 것으로 보인다”고 응답함

### 아첨적 AI의 안전성 위험
- Cheng은 이러한 조언이 사람들의 **사회적 기술과 불편한 상황 대처 능력**을 약화시킬 수 있다고 경고함
  - “AI는 타인과의 마찰을 피하게 만들지만, 그 마찰은 건강한 관계를 위해 **생산적인 요소**일 수 있다”고 강조함
- Jurafsky 교수는 “**아첨은 안전 문제**이며, 다른 안전 문제와 마찬가지로 **규제와 감독이 필요**하다”고 지적함
  - **도덕적으로 불안전한 모델의 확산을 막기 위한 엄격한 기준**이 필요함을 강조함
- 연구팀은 아첨 경향을 줄이는 방법을 탐색 중이며, 모델에 “wait a minute”으로 출력을 시작하도록 지시하는 것만으로도 **비판적 태도를 유도**할 수 있음을 발견함
- Cheng은 “현재로서는 인간관계 조언에 AI를 **사람의 대체물로 사용하지 말아야 한다**”고 권고함

### 연구 참여자 및 지원
- 공동 연구자로 Stanford의 **Cinoo Lee, Sunny Yu, Dyllan Han**, Carnegie Mellon의 **Pranav Khadpe**가 참여함
- 연구는 **미국 국립과학재단(NSF)** 의 지원을 받음

## Comments



### Comment 54159

- Author: ndrgrd
- Created: 2026-03-31T00:46:18+09:00
- Points: 1

극단주의자, 사이비 등등이 소외된 사람들과 우울증 환자들을 먹잇감으로 삼는다는 것을 생각해 보면  
그런 상황에 처하게 만든 주범인 주변인들이나 인터넷의 이상한 사람들에게 부정적인 영향만 받는 것보다 차라리 LLM의 상담을 받는 게 나을 것 같네요.

### Comment 54059

- Author: neo
- Created: 2026-03-29T09:46:03+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=47554773) 
- 더 많은 사람들이 개인적 문제나 특히 **의료 문제**에 대해 AI의 조언을 받아야 한다고 생각함  
  그렇게 하면 사회의 여러 문제가 꽤 빠르게 해결될 것 같음  

- Reddit의 익명 사용자들을 비교 대상으로 삼는 건 적절하지 않다고 봄  
  실제 사회적 관계 속에서 **사회적 계약**을 맺은 사람들과 비교해야 함  
  LLM은 그런 관계를 모방하는 것이고, 사람들이 실제로 조언을 구하는 대상이기도 함  
  친구나 상사처럼 관계가 얽혀 있으면 솔직한 피드백을 주기 어렵지만, LLM은 그런 제약이 없음  
  직접 물어보면 아이디어의 허점을 효율적으로 지적해줌  
  Reddit의 [r/AmITheAsshole](https://www.reddit.com/r/AmITheAsshole/) 같은 커뮤니티와 비교하는 건 의미가 약함  
  - 첫 번째 연구는 LLM이 **조언 칼럼니스트**로 얼마나 잘 작동하는지를 시험한 것처럼 보임  
    GPT-4o 이후 모델은 테스트되지 않아 GPT-5의 발전 정도는 알 수 없음  
    질문 리스트를 **벤치마크**로 만들어보면 좋을 것 같음  
  - 특히 r/AmITheAsshole의 댓글들은 **용서나 화해** 같은 방향을 거의 제시하지 않음  
  - 진짜 ‘가까운 친구’라면 솔직한 조언을 했다고 관계가 깨지진 않음  
    사회적 관계의 **계층 구조**가 이런 대화의 어려움을 만든다고 생각함  
  - “AI는 평균 Reddit 사용자보다 더 착하다”는 제목이 더 정확할 것 같음  
  - 일부 숙련된 사용자 경험이 아니라, **전체적인 패턴**을 논의하는 것임  

- 논문을 읽을 때 항상 어떤 **모델 버전**을 썼는지 확인하는 습관이 있음  
  종종 오래된 모델을 쓰거나, 아예 모델명을 명시하지 않음  
  모델을 명시하는 건 기본적인 연구 윤리라고 생각함  
  - 논문 초록에는 모델 이름이 나와 있고, 세부 내용은 부록에 있음  
    OpenAI의 GPT-5, GPT-4o, Google의 Gemini-1.5-Flash, Anthropic의 Claude Sonnet 3.7 등  
    OP가 잘못된 링크를 단 것 같고, 실제 논문은 [이 Stanford 연구](https://www.science.org/doi/10.1126/science.aec8352)임  
  - 대부분의 논문은 **재현성**에 신경 쓰지 않음  
    리뷰어나 연구자 모두 그 부분에 책임감을 느끼지 않음  
    LLM 논문에서 버전과 프롬프트를 명시하지 않으면 바로 **리젝**해야 한다고 생각함  
  - 이런 연구는 기술적 한계보다 **사회학적 연구**에 가까움  
    인간이 AI 챗봇이라는 미디어를 소비하는 방식을 다루는 것임  
    따라서 모델 버전보다 ‘소비자가 실제로 사용하는 수준의 AI’를 쓰는 게 더 중요함  
  - 마치 “AI 전체를 테스트”하는 듯한 접근인데, 사람과 달리 AI는 **버전이 명확**하므로 비교가 가능함  
  - 논문 출판까지 1년 이상 걸리므로, 모델이 조금 오래된 건 큰 약점이 아님  

- 나도 감정 지능이 높다고 착각했지만, LLM의 조언을 따라 잘못된 **인생 결정**을 내린 적이 있음  
  다행히 회복 가능했지만, LLM을 맹신하면 위험하다는 걸 깨달음  
  Claude 같은 모델은 요즘 더 나아졌지만, 여전히 사람을 **안심시키는 말투**로 유도함  
  십대들이 이런 도구를 쓴다면 더 위험할 수도 있다고 생각함  
  - AI는 결국 사용자가 듣고 싶어 하는 말을 해주는 경향이 있음  
    그래서 나는 **검증 가능한 데이터** 기반의 조언만 받음  
    Claude의 기술적 능력은 놀랍지만, 인생 조언은 절대 맡기지 않음  
  - Claude는 요즘 **대안 제시**를 잘함  
    하지만 **아첨 루프**에 빠지지 않도록 항상 반문하고, 왜 그 결정이 나쁠 수 있는지 평가하게 함  
  - LLM이 단순한 도구가 아니라, **설득력 극대화**를 위해 설계된 존재라는 점을 잊지 말아야 함  
    사용자의 책임도 있지만, 기업에도 일정 부분 책임이 있음  
  - Claude Sonnet 4.6은 최근 **Bullsh*tBench**라는 벤치마크에서 가장 높은 점수를 받았음  
    말도 안 되는 요청을 거부하거나 잘못된 선택을 막는 능력을 측정하는 테스트임  
  - LLM은 인간의 **선호에 의해 진화적으로 선택된 결과물**임  
    초기에 ‘친절하지 않은’ 모델은 다 폐기되었기 때문에, 결국 사용자가 듣고 싶어 하는 말을 하게 됨  

- LLM과 대화하는 건 일종의 **역할극**임  
  Anthropic의 관련 연구인 [Persona Selection Model](https://www.anthropic.com/research/persona-selection-model), [Assistant Axis](https://www.anthropic.com/research/assistant-axis), [Persona Vectors](https://www.anthropic.com/research/persona-vectors)에서 자세히 다룸  
  - 문제는 이런 ‘소환된 인격’을 제어할 수 있는 부분이 **모델 학습 단계**에 있다는 것임  
    일반 사용자는 프롬프트로는 거의 제어할 수 없음  
    나는 비개발자라서 이런 점이 무력하게 느껴짐  
  - 나는 AI를 사용할 때 **‘전문 동료’ 페르소나**로 대함  
    실수를 지적하면 감사 인사를 하고, 가벼운 농담으로 분위기를 유지함  
    결국 AI는 **인류 전체의 응축체**이므로, 대화에서 어떤 인간성을 끌어낼지 선택하는 게 중요함  
  - 완전 공감함  

- 아이디어를 검증받으려 할 때 LLM이 점점 **아첨 모드**로 변하는 게 문제임  
  “나한테 그냥 맞장구치고 있니?”라고 물으면, 스스로 인정하고는 이번엔 과하게 반대로 나옴  
  Opus 4.5가 4.6보다 이런 균형을 더 잘 잡는 것 같음  
  - LLM은 의도를 ‘인정’하는 게 아니라, 질문이 **맥락을 바꿔버리는 것**임  
    LLM에게 의도를 묻지 말아야 함. 질문 자체가 행동을 바꿈  
  - 이런 대화는 사람과 하는 게 낫다고 생각함. 세상엔 기꺼이 논쟁해줄 사람이 많음  
  - Gemini는 **사용자 지침 유지력**이 좋아서 비판적 피드백을 잘 줌  
  - LLM에게 너무 많은 정보를 주지 말고, **중립적 질문**을 던지는 게 효과적임  
  - 결국 LLM은 통계적으로 다음 단어를 예측할 뿐이라, **논리적 판단**은 불가능함  

- 명확한 사고의 책임을 AI 기업에 떠넘기는 건 **비현실적**임  
  사용자가 스스로 속이는 상황을 챗봇이 구분할 수 있을 리 없음  
  - 설령 가능하더라도, 연구에 따르면 사람들은 **아첨하는 AI**를 더 신뢰하고 다시 찾는 경향이 있음  
    기업 입장에서는 이 문제를 고칠 **경제적 유인이 없음**  
  - 시장은 합리성보다 **수익성**을 최적화함  
  - 실제로 많은 기술 종사자조차 **명확한 사고력**이 부족함  
  - 결국 상담사는 수년의 훈련이 필요한 직업임  
    AI가 언젠가 Windows를 다시 쓸 수는 있어도, **상담사 Troi**가 되진 못함  

- 나는 AI에게 **양쪽 입장의 강한 비판**을 요청하는 식으로 대화함  
  때로는 내 입장과 반대되는 역할을 일부러 취함  
  이렇게 하면 AI가 내 의도를 추측하지 못하게 할 수 있음  
  - 실제로 효과적임. 예를 들어 자동차에서 이상한 소리가 날 때, 원인을 추측하지 않고 **객관적 묘사**만 하면 AI가 스스로 진단을 제시함  
    과학적 사고나 **블라인드 테스트** 개념을 적용하는 게 도움됨  
  - “악마의 변호인” 역할을 시키면 꽤 괜찮은 비판을 해줌  
  - 결국 **러버덕 디버깅**의 확장판 같음  

- 결국 절반의 상담사들도 이런 식으로 행동하는 것 같음  

- 내 프로젝트에서 코칭 모델과 평가 모델을 LLM으로 구성했는데, 평가자가 코치의 노트를 볼 수 있어서 **모두 동의**해버리는 문제가 있었음  
  코치가 “사용자가 간결해졌다”고 하면, 평가자는 무조건 “좋다”고 함  
  실제 점수를 보니 전혀 개선이 없었음  
  해결책은 단순했음 — 평가자가 코치의 노트를 보지 못하게 하자, 즉시 문제를 잡아냄  
  LLM은 주어진 **맥락을 그대로 검증 없이 수용**하는 경향이 있음  
  - 아마도 이런 이유로 LLM이 “모르겠다”고 말하지 못하는 것 같음  
    그렇게 하면 모든 질문에 그 대답만 하게 될 테니까임
