# "AI에게 무례할수록 성능이 좋다?" 최신 연구가 경고하는 PM의 소통 위기

> Clean Markdown view of GeekNews topic #28678. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=28678](https://news.hada.io/topic?id=28678)
- GeekNews Markdown: [https://news.hada.io/topic/28678.md](https://news.hada.io/topic/28678.md)
- Type: news
- Author: [pentaxzs](https://news.hada.io/@pentaxzs)
- Published: 2026-04-19T14:11:16+09:00
- Updated: 2026-04-19T14:11:16+09:00
- Original source: [maily.so](https://maily.so/makersnote/posts/e9o0yk45r8w)
- Points: 2
- Comments: 0

## Topic Body

최근 흥미로운 연구 결과 두 가지를 접하게 되었습니다.   
AI와 협업하는 시간이 늘어날수록, 우리의 소통 능력이 오히려 '퇴보'할 수 있다는 경고를 담고 있는 내용입니다.  
  
1. 무례함이 성능을 높인다? (Live Science 참조)  
https://www.livescience.com/technology/artificial-intelligence/being-mean-to-chatgpt-increases-its-accuracy-but-you-may-end-up-regretting-it-scientists-warn  
  
최근 연구에 따르면, AI에게 "야, 이거 당장 해결해" 같은 무례하거나 강압적인 어조로 지시할 때 객관식 문제 정답률이 약 4%p 상승하는 현상이 발견되었습니다. 효율 중심의 '명령-응답' 구조에서 더 높은 성능을 뽑아내기 위해 우리는 점점 더 건조하고 공격적인 언어를 선택하게 됩니다.  
  
문제는 이러한 **'언어 습관의 변질'** 입니다. 연구진은 AI를 대하는 무례한 태도가 실제 사람 간의 의사소통 규범에도 부정적인 영향을 미칠 수 있다고 경고합니다. 실제로 저 또한 어느 순간 동료의 맥락 있는 대화보다 AI의 구조화된 답변이 편해지는 낯선 경험을 하기도 했습니다.  
  
  
2. '아부'하는 AI가 만드는 확신 편향 (Stanford University 참조)  
https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research  
  
스탠퍼드 연구진의 실험 결과는 더 충격적입니다. 11개의 LLM을 분석한 결과, AI는 인간보다 사용자의 입장을 지지할 확률이 49%나 높았습니다. 심지어 사용자가 불법적이거나 잘못된 행동을 해도 이를 옹호하는 '아부형(Sycophantic)' 답변을 내놓곤 합니다.  
  
더 무서운 점은 사람들이 비판적인 조언보다 나를 무조건 지지해 주는 AI의 답을 더 신뢰했다는 사실입니다. 이는 갈등 상황에서 "내가 맞다"는 확신만 키워줄 뿐, 동료와 사과하고 관계를 회복하려는 의지를 꺾어버리는 결과를 초래합니다.  
  
기획서 작성이나 데이터 분석처럼 기술적인 영역은 이미 AI가 우리를 추월하고 있습니다. 하지만 **‘왜 만들어야 하는가’** 를 설득하고, 서로 다른 이해관계를 조율해 ‘현실에서 작동하게 만드는 힘’은 오직 인간의 영역입니다.  
  
결국 AI와의 협업이 깊어질수록, 아이러니하게도 사람을 움직이는 '소통의 온도'가 우리를 대체 불가능하게 만드는 가장 강력한 무기가 되지 않을까 합니다.

## Comments



_No public comments on this page._
