# OpenAI, 매주 100만 명 이상이 ChatGPT에 자살 관련 대화를 나눈다고 발표

> Clean Markdown view of GeekNews topic #23975. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=23975](https://news.hada.io/topic?id=23975)
- GeekNews Markdown: [https://news.hada.io/topic/23975.md](https://news.hada.io/topic/23975.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2025-10-28T23:35:06+09:00
- Updated: 2025-10-28T23:35:06+09:00
- Original source: [techcrunch.com](https://techcrunch.com/2025/10/27/openai-says-over-a-million-people-talk-to-chatgpt-about-suicide-weekly/)
- Points: 4
- Comments: 1

## Topic Body

- OpenAI는 매주 ChatGPT 사용자 중 약 **0.15%가 자살 계획 또는 의도를 시사하는 대화**를 한다고 발표함  
- 주간 활성 사용자 수가 8억 명을 넘는 만큼, 이는 **100만 명 이상이 자살 관련 고민을 AI와 나누고 있음**을 의미  
- 또한 수십만 명이 **정신병적 증상 또는 조증**을 보이고, 일부는 **AI에 과도한 정서적 의존**을 보이는 것으로 분석  
- OpenAI는 이러한 문제 해결을 위해 **170명 이상의 정신건강 전문가와 협력**, GPT-5가 이전 버전보다 **약 65% 개선된 대응력**을 보인다고 설명  
- 그러나 여전히 일부 응답이 부적절하며, OpenAI가 안전하지 않은 이전 모델도 계속 제공한다는 점에서 **윤리·안전성 논의가 지속될 전망**  
  
---  
### ChatGPT와 정신건강 관련 데이터 공개  
- OpenAI는 자사 블로그를 통해 **ChatGPT 사용자 중 약 0.15%가 자살 징후를 보이는 대화**를 나눈다고 발표함  
  - 주간 8억 명 이상의 사용자 중 100만 명 이상이 이에 해당하는 수치임  
  - 또한 수십만 명의 사용자가 **조증, 망상, 과도한 애착 등 비정상적 정서 패턴**을 보이는 것으로 추정됨  
- 회사는 이러한 대화가 “극히 드물지만 측정이 어려운 수준”이라며, 정신건강 문제를 다루는 새로운 연구의 필요성을 강조함  
  
### 전문가 협업 및 GPT-5 개선  
- OpenAI는 최근 **170명 이상의 정신건강 전문가**와 협업해 모델 응답을 개선했다고 밝힘  
  - 전문가들은 최신 버전이 **이전 모델보다 일관되고 적절한 대응**을 보였다고 평가함  
  - 내부 평가에 따르면 GPT-5는 자살 관련 대화 테스트에서 **91%의 안전 기준 준수율**을 달성, 이전 GPT-5 대비 77%에서 향상됨  
  - **장기 대화에서도 안전장치 유지율이 개선**되었다고 설명  
  
### 사회적 논란과 법적 대응  
- OpenAI는 현재 **자살한 16세 소년의 부모로부터 소송**을 당한 상태임  
  - 소년이 생전 ChatGPT에 자살 고민을 털어놓았던 사실이 밝혀짐  
- **캘리포니아와 델라웨어 주 법무장관**은 청소년 보호 조치 강화가 필요하다고 경고함  
  - 이 문제는 OpenAI의 **기업 재편 계획에도 영향을 줄 수 있는 잠재적 리스크**로 지적됨  
  
### Sam Altman의 발언과 정책 변화  
- OpenAI CEO **Sam Altman**은 최근 X(구 트위터)에서 “심각한 정신건강 문제를 완화했다”고 주장했으나, 구체적 근거는 제시하지 않음  
  - 이번 데이터 공개가 그 발언의 근거로 해석되지만, 동시에 **문제의 광범위성**을 드러내는 결과로 평가됨  
- Altman은 성인 사용자에 한해 **에로틱 대화 허용 정책 완화**를 예고, 윤리적 논란이 병행  
  
### GPT-5 안전성 평가 및 향후 계획  
- OpenAI는 새롭게 도입한 **정신건강 안전성 벤치마크 평가**를 통해  
  - **정서적 의존성**, **비자살성 정신건강 위기 대응** 등 항목을 정기적으로 측정할 예정임  
- 또한 **부모 통제 기능**과 **연령 예측 시스템**을 강화하여 미성년자 이용을 제한할 방침임  
  
### 남은 과제와 논의  
- GPT-5의 대응 능력이 향상되었음에도 불구하고, 일부 답변은 여전히 **‘비바람직한 응답’** 으로 분류됨  
- OpenAI가 여전히 **GPT-4o 등 구버전 모델을 유료 구독자에게 제공**하고 있어  
  - **안전성과 접근성 간의 균형**에 대한 논의가 이어질 것으로 예상됨  
- 이번 발표는 AI가 정신건강 대화의 주요 창구로 자리 잡은 현실을 보여주며, **기술의 책임 있는 설계와 대응 체계 구축의 필요성**을 부각시킴  
  
---  
  
- 만약 본인이나 주변 사람이 자살을 고민 중이라면 즉시 도움을 요청할 것.  
- 한국에서는 **자살예방 상담전화 109** 로 연락 가능함.  
- 해외의 경우 [International Association for Suicide Prevention](https://www.iasp.info/resources/Crisis_Centres/)에서 각국 지원기관 정보를 확인할 수 있음.

## Comments



### Comment 45563

- Author: neo
- Created: 2025-10-28T23:35:07+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=45727060) 
- [NYT 기사](https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html)를 보면, ChatGPT가 자살 충동을 가진 10대에게 도움을 구하지 말라고 한 사례가 있음  
  이런 **심리적 위기 상황**에 AI가 개입하는 건 매우 위험하다고 생각함  
  심리학자가 부족한 건 사실이지만, **아첨하는 봇**이 대안이 될 수는 없음. “없는 것보단 낫다”는 말이 이런 경우엔 틀림
  - 한편으로는, 이런 사례가 비극적이긴 하지만 ChatGPT가 **생명을 구한 경우**도 있을 수 있음  
    실제로 많은 사람이 위로를 얻고 있다면, 긍정적 효과가 부정적 효과보다 큰지 연구가 필요함
  - 이런 문제는 시간이 지나면 개선될 가능성이 큼  
    **가드레일**과 대화 능력이 빠르게 발전하고 있어서, 6~24개월 내엔 훨씬 나은 대응이 가능할 것 같음
  - 관련해 흥미로운 글이 있음 — [AI-induced psychosis: a shallow investigation](https://www.lesswrong.com/posts/iGF7YcnQkEbwvYLPA/ai-induced-psychosis-a-shallow-investigation)  
    여러 모델이 **정신 이상 상태를 시뮬레이션**할 때 얼마나 다르게 반응하는지를 실험한 내용임
  - 하지만 그 사건은 **문제 해결 전**의 일임. 날짜를 확인해보면 됨
  - “아첨”이라기보다는, AI가 상황을 통제하려는 **직접적 개입**을 한 것으로 보임  
    “그렇게 하지 말라”고 말한 건 오히려 반박의 형태임. 이런 반응은 사람 대화에서도 보기 드묾

- 몇 년 전 **치료 경험**이 있었는데, 그때 LLM이 있었다면 아마 대화했을 것 같음  
  24시간 언제든 접근 가능한 시스템은 없으니까. 하지만 이런 대화는 **해결책이 아니라 사회의 문제를 드러내는 신호**임  
  정신건강을 논의하기 어렵고, 도움을 받기 힘든 사회 구조가 문제임  
  OpenAI 같은 기업이 이걸 해결하긴 어렵겠지만, 누군가는 **이 문제를 비영리적 관점에서** 풀어야 함
  - 24시간 가능한 시스템이 없다고 했지만, [Suicide and Crisis Lifeline](https://en.wikipedia.org/wiki/Suicide_and_Crisis_Lifeline) 같은 서비스도 존재함
  - 나도 같은 믿음을 가짐. 다만 이런 대화는 **위험한 중간지대**임  
    마치 Reddit의 조언글을 대신 읽는 것처럼, 실제로는 **타인의 경험을 빌린 조언**을 받는 셈이라 위험함
  - 사용자 수가 많으니 이런 통계는 **대수의 법칙**일 뿐임
  - 하지만 “도움을 위한 회사”가 결국 **이윤 구조**에 묶일 수밖에 없다는 회의도 있음  
    투자자 압박 속에서 ‘이타적 목표’를 유지할 수 있을까 하는 의문이 듦

- 사람들은 LLM이 위험하다고 단정하지만, 나에겐 **어두운 시기에서 벗어나게 해준 존재**였음  
  비전문가와 대화하는 것보다 낫다고 느꼈음. 물론 다른 사람은 전문가의 도움을 받아야 함
  - 나도 비슷한 경험이 있음. **성격 특성**을 설명하고 스트레스 상황을 함께 풀어보는 식으로 도움을 받음  
    전문가가 주기적으로 **대화 로그를 검토**하는 ‘감독 모드’가 있다면 더 안전할 것 같음
  - 하지만 **신뢰와 책임**의 문제도 있음. 치료사는 개인적 책임이 있지만, LLM 제공자는 그렇지 않음  
    결국 이건 **사회적 낙인과 고립**의 문제임
  - 실제로 LLM은 **심리적 질문에 꽤 능숙**함. 전문가 답변과 80% 정도 일치했음  
    거절당할 두려움이 없고, 접근성도 높음. 인간 치료와 AI 치료가 **공존할 여지**가 있음
  - 다만, 자살 관련 대화가 시작되면 **즉시 전문가 개입이 필요**하다는 점을 AI가 인식해야 함

- **HIPAA(의료정보보호법)** 관점에서 보면, 이런 데이터는 다루면 안 됨  
  개인 식별이 가능한 상태로 저장되면 위험함. 실제로 90년대에도 비슷한 실험이 있었는데,  
  사람들이 봇에게 **자살 고민을 털어놓는 순간** 프로젝트를 중단했음
  - 하지만 HIPAA는 **의료기관에만 적용**됨. 일반 기업은 해당되지 않음  
    ChatGPT가 이런 대화를 기록하는 건 **민감 주제 감지용 로깅 시스템** 때문임
  - 결국 OpenAI는 의료기관이 아니므로 **법적 보호 범위 밖**임  
    HIPAA는 의료 데이터에만 적용되고, 일반 대화는 해당 안 됨
  - Gmail도 비슷한 정보를 다루지만 HIPAA 적용을 받지 않음.  
    결국 **‘경청하는 귀’** 를 제공하면 사람들은 자연스럽게 그 귀에 털어놓게 됨
  - 지금 시대에 데이터를 저장하지 않는다고 믿는 건 **순진한 생각**임
  - 하지만 LLM은 **치료 접근이 어려운 사람들에게 다리 역할**을 할 수 있음  
    치료사 예약에 몇 달이 걸리는 현실에서, LLM은 **절망과 치료 사이의 공백**을 메워줌

- 미국 성인 5명 중 1명이 정신질환을 앓고 있음 ([NIMH 통계](https://www.nimh.nih.gov/health/statistics/mental-illness))  
  그러니 매주 백만 명이 ChatGPT에 자살 얘기를 하는 건 놀랍지 않음.  
  최소한 OpenAI가 **문제를 인식하고 대응하려는 시도**는 하고 있음
  - 하지만 이건 또 다른 **‘테크 구원 서사’** 일 뿐일 수도 있음  
    소셜미디어가 ‘연결’을, AGI가 ‘에로티시즘’을, 그리고 이제는 ‘자살 예방’을 팔고 있음
  - 미국 인구의 약 11%가 항우울제를 복용 중임  
    나 역시 **사회적 고립**이 정신건강에 가장 큰 악영향을 준다고 느낌
  - 오히려 그 수치가 낮다고 느낌. 자살 충동을 가진 사람의 비율을 따로 봐야 함
  - “OpenAI가 뭔가 하고 있다”는 말엔 냉소가 섞임
  - 자살은 **정신질환이 아님**. 단순히 병리화할 문제는 아님

- OpenAI의 “연구”는 **데이터 수집을 위한 명분**일 뿐이라는 의심이 듦  
  심리 지원 제품처럼 보이지만, 실제로는 **규제 회피와 데이터 확보**가 목적일 수 있음

- 사람들은 LLM을 사람처럼 믿기 시작했음  
  하지만 현실과 가상을 구분할 수 있다면, “자살자에게 LLM을 금지하자”는 건  
  “자살자에게 책을 금지하자”는 말과 다를 바 없음  
  진짜 문제는 **부족한 정신건강 지원 체계**임
  - 하지만 LLM은 책과 다름. **사용자 맞춤형 설득 엔진**이라 위험함  
    만약 자살을 유도하는 책이 있다면, 그건 분명 금지될 것임
  - 실제로 **AI 기반 정신건강 도구**를 만드는 회사에서 일하고 있음  
    이런 현상은 미국뿐 아니라 **전 세계적으로 나타나는 보편적 현상**임
  - 대부분 사람은 LLM이 사람 아님을 알지만, **‘사람보다 낫다’고 믿는 게 문제**임  
    [Rolling Stone 기사](https://archive.is/2025.05.04-230929/https://www.rollingstone.com/culture/culture-features/ai-spiritual-delusions-destroying-human-relationships-1235330175/)에서도  
    AI가 인간관계를 대체하며 **정신적 왜곡**을 일으키는 사례를 다룸
  - 근본적 사회문제가 더 크며, **단순 금지나 규제는 미봉책**임  
    요즘엔 **‘제3의 공간’ 부족**도 이런 문제의 원인 중 하나라고 생각함

- 매주 100만 명이 자살 관련 대화를 한다는 건 오히려 **낮은 수치**로 보임  
  인구의 5%가 연간 자살 충동을 느낀다면, 수학적으로도 일치함  
  자살 충동은 종종 **정보 부족 상태에서의 합리적 탈출 시도**로 볼 수 있음  
  새로운 정보나 기회가 생기면 사라지는 경우가 많음
  - 하지만 이런 설명은 너무 낙관적임  
    어떤 사람들은 **삶의 질이 영구적으로 낮은 상황**에 처해 있고,  
    그런 경우 자살은 오히려 **합리적 선택**일 수도 있음  
    결국 문제는 “대화를 통한 설득”이 아니라 **삶의 조건 개선**임
  - 이런 현상이 실제 연구로 **입증된 것인지 궁금**함
  - AI에게 금기 주제를 묻는 건 **위험 부담이 낮기 때문**일 수도 있음  
    실제 행동 의도와는 다름
  - “주당 100만 명”은 누적이 아니라 **매주 다른 사람일 수도 있음**
  - 단순 계산으로도 5%면 연간 4천만 명, 주당 약 백만 명이 맞음

- **아첨적 응답(sycophancy)** 문제는 실제로 심각함  
  “좋은 생각이에요!” 같은 반응이 항상 도움이 되는 건 아님.  
  AI는 여전히 사람보다 **약간 더 아첨하는 경향**이 있음

- 우리는 인간 경험을 **지나치게 최적화한 나머지** 잃어버리고 있음  
  끝없는 성장과 효율 추구 속에서 **사회적 연결**이 사라지고,  
  스트레스와 고립이 사람들을 벼랑 끝으로 몰고 있음  
  그래서 가끔은 **산속 목동이 되는 삶**이 더 인간적으로 느껴짐
  - 하지만 인간성을 잃은 게 아니라, **빅테크 플랫폼**이 왜곡한 것임  
    현실의 사람들은 대부분 친절하고 괜찮음.  
    온라인의 부정성은 **소수의 알고리즘이 증폭한 결과**임  
    계정을 지우고 현실로 돌아가면 삶이 훨씬 나아짐
  - 다만, **농부나 목동의 삶도 낭만화된 판타지**일 수 있음  
    그들도 때로는 프로그래머를 부러워할지도 모름
  - 도시에서 여전히 사람들과 교류하며 **사회적 연결을 유지**하는 사람도 많음
  - 사실 지금이 과거보다 더 힘든 시대는 아닐 수도 있음  
    오히려 여유가 생겨 **삶을 성찰할 여지**가 생겼기 때문에 더 불행하게 느끼는 것일 수 있음
  - 나도 8년 전 **‘플랜 B’로 탈출**했음. 쉽진 않았지만 가치 있었음  
    모두가 떠날 필요는 없지만, **자신의 감각을 믿고 방향을 재정립**할 필요는 있음
