# OpenAI, ChatGPT Health 서비스 공개

> Clean Markdown view of GeekNews topic #25664. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=25664](https://news.hada.io/topic?id=25664)
- GeekNews Markdown: [https://news.hada.io/topic/25664.md](https://news.hada.io/topic/25664.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-01-08T23:37:40+09:00
- Updated: 2026-01-08T23:37:40+09:00
- Original source: [openai.com](https://openai.com/index/introducing-chatgpt-health/)
- Points: 1
- Comments: 1

## Topic Body

- **"건강과 웰니스를 위해 설계된 새로운 ChatGPT"**  
- 개인 건강 정보와 **ChatGPT의 인공지능**을 안전하게 연결해 건강 상태를 이해하고 관리할 수 있도록 지원하는 서비스  
- **의료 정보 보호를 위한 암호화·분리 구조**를 적용하고, 건강 관련 대화는 모델 학습에 사용되지 않음  
- **전자 의료 기록(EHR)** 및 Apple Health, MyFitnessPal 등 **웰니스 앱 연동**을 통해 맞춤형 건강 조언 제공  
- 전 세계 **260여 명 의료진과 협력**해 임상 기준에 따른 평가 체계 **HealthBench**로 모델 품질 검증  
- 의료 서비스를 대체하지 않고 보완하며, **개인 정보 보호와 신뢰성 중심의 건강 관리 도구**로 개발됨  
  
---  
  
### ChatGPT Health 개요  
- ChatGPT Health는 개인의 건강 데이터를 ChatGPT와 안전하게 연결해 **건강 상태 이해와 체계적 관리**를 돕는 서비스  
  - ChatGPT의 개인정보 보호·보안·데이터 통제 체계를 기반으로 의료 정보 보호 장치를 추가 적용  
  - 건강 관련 대화는 암호화 및 분리 구조를 통해 비공개로 관리  
- 사용자는 의료 기록과 웰니스 앱을 ChatGPT에 연결해 **검사 결과 해석, 진료 준비, 식단·운동 계획** 등을 수행 가능  
- 서비스 목적은 **의료 전문가의 진료를 보완**하는 것이며, 진단이나 치료를 대체하지 않음  
  
### 건강 정보 활용 현황  
- ChatGPT는 이미 건강 분야에서 가장 많이 활용되는 서비스 중 하나로, **매주 2억 3천만 명 이상**이 건강 관련 질문을 수행  
- 건강 정보가 여러 플랫폼에 분산되어 있어 사용자가 전체 상태를 파악하기 어렵다는 점을 해결하기 위한 시도  
- ChatGPT Health는 이러한 흐름을 확장해 **사용자 맥락을 반영한 응답**을 제공  
  
### 주요 기능과 연동  
- 전자 의료 기록(EHR), Apple Health, Function, MyFitnessPal 등과 연동 가능  
  - 미국 내에서는 b.well 네트워크를 통해 **신뢰할 수 있는 의료 데이터 연동** 지원  
  - 의료 기록 접근은 만 18세 이상 사용자에 한해 제공  
- 앱은 ChatGPT Health에 포함되기 전 **보안 검토와 최소 데이터 수집 요건**을 충족해야 함  
  - 사용자는 언제든 앱 연결을 해제할 수 있으며, 해제 즉시 데이터 접근 권한이 소멸  
- ChatGPT Health 내 대화와 파일은 **기본 채팅과 분리된 전용 메모리**에 저장  
  - 외부 대화에서는 Health 데이터 접근 불가  
  - 사용자는 Health 인터페이스나 설정에서 데이터 확인·삭제 가능  
  
### 개인정보 보호 및 보안  
- ChatGPT Health는 **강화된 개인정보 보호 체계**를 적용한 별도 공간으로 운영  
  - 대화 내용은 모델 학습에 사용되지 않음  
  - 저장 및 전송 구간 모두 **암호화 처리**  
- OpenAI는 ChatGPT 전반에 **임시 채팅 기능**과 **30일 내 데이터 삭제 옵션**을 제공  
- Health 대화는 ChatGPT의 일반 대화와 달리 **의료 데이터 전용 암호화 체계**와 **격리 구조**로 관리  
  
### 의료진 협력 및 평가 체계  
- OpenAI는 2년 이상 전 세계 60개국의 **260여 명 의료진**과 협력  
  - 30개 중점 분야에서 **60만 회 이상 피드백**을 수집  
  - 의료진은 ChatGPT의 응답이 언제 도움이 되고 언제 위험할 수 있는지 검토  
- 이 협력 결과는 모델 설계와 응답 방식에 반영되어 **명확성·안전성·진료 연계성**을 강화  
- 모델은 **HealthBench 평가 프레임워크**를 통해 임상 기준에 따라 검증  
  - HealthBench는 의료진이 직접 작성한 평가 기준을 기반으로 실제 진료 판단 방식을 반영  
  - 안전성, 명확한 전달, 개인 맥락 존중 등을 중심으로 응답 품질을 측정  
  
### 사용 예시 및 접근 방식  
- 사용자는 ChatGPT의 사이드바에서 Health를 선택해 접근  
  - 파일 업로드, 앱 연동, 도구(+) 또는 설정의 ‘앱’ 메뉴에서 데이터 연결 가능  
- Health 대화는 일반 ChatGPT 기능(검색, 음성 모드, 받아쓰기 등)을 그대로 지원  
  - 예시 질문: “내 콜레스테롤 수치가 어떻게 변하고 있어?”, “진료 전에 혈액 검사 결과를 요약해줘”  
- Health 대화에 **사용자 맞춤 지침**을 추가해 ChatGPT의 응답 방식과 민감 영역을 조정 가능  
  - 맞춤 지침은 Health 대화에만 적용되며 언제든 수정·삭제 가능  
  
### 서비스 제공 및 확장 계획  
- 현재는 **소수의 초기 사용자에게 우선 제공**, 대기자 명단 등록 시 이용 가능  
- 향후 몇 주 내 **웹과 iOS 전면 확대 예정**  
- 전자 의료 기록 연동과 일부 앱은 **미국에서만 제공**, Apple Health 연동은 iOS 필요  
- OpenAI는 향후 **데이터 연동과 인사이트 확장**을 통해 사용자가 건강 상태와 선택지를 더 잘 이해하도록 지원 예정

## Comments



### Comment 48910

- Author: neo
- Created: 2026-01-08T23:37:40+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=46531280) 
- 우리 삼촌이 **균형 문제와 발음 이상**으로 고생했음. 의사들은 치매라고 진단하고 그냥 돌려보냈지만 점점 악화되었음. 그래서 ChatGPT(혹은 Gemini)에 증상을 입력하고 상위 3가지 가설을 물었는데, 첫 번째는 치매 관련, 두 번째는 다른 질환이었음. 그걸 들고 주치의에게 가서 다른 두 가지도 검토해달라 요청했고, 결국 두 번째 가설이 맞았음. 수술 후 완전히 회복되었음  
  - 이런 **일화**를 많이 들었음. 악의적인 건 아니지만, 이런 사례가 **반(反)백신 운동** 같은 비합리적 신념을 강화할까 걱정됨. 의료계가 이런 이야기에 대응하지 않으면 신뢰를 잃을 수 있음. 오진이 얼마나 자주 일어나는지, LLM이 실제로 얼마나 도움이 되는지 궁금함  
  - LLM을 쓸 때 “어떻게 해야 하나”보다 “이 문제의 **대안**은 무엇인가”를 묻는 게 훨씬 유용함. 상위 k개 답변을 받으면 더 깊이 있게 탐구할 수 있음  
  - 일반의들은 **문제 해결보다는 암기 중심**으로 훈련받음. 진짜 문제 해결에 능한 의사는 대부분 전문의임  
  - 혹시 그 병이 **정상압 수두증(NPH)** 이었을까 생각됨. 수술은 뇌척수액을 배출하는 **VP 션트**였을 수도 있음. 증상인 요실금, 균형 장애, 인지 저하를 “Wet, Wobbly, Wacky”로 외우는 의학적 암기법이 있음  
  - 삼촌이 나아졌다니 다행임. 혹시 다른 두 가지 가설과 최종 진단명을 공유해줄 수 있을까 궁금함  

- 사촌이 정신과 의사로 개업했는데, 이런 **AI 의료 도구**가 그의 생계를 위협할까 걱정됨. 환자는 전화·이메일·보험 절차를 거쳐야 하지만, AI는 즉시 대화 가능함. 약 처방이 필요한 경우를 제외하면 **편의성**에서 인간 의사가 경쟁하기 어려움. 미국이 사람을 돌보려면 **단일 보험 체계**로 의료 시스템을 단순화해야 함  

- 의료 소프트웨어를 개발한 경험이 있는데, **확률적 시스템**을 의료에 적용하는 건 위험 신호임. 병원용 약물 상호작용 검사기는 반드시 **결정적(deterministic)** 이어야 함. 같은 입력에 같은 결과가 나와야 하고, 실패 시 사람의 생명이 걸림  
  - 하지만 의학 자체가 본질적으로 **비결정적**임. 약물 반응은 환자마다 다름. ChatGPT의 비결정성도 의사와 환자의 상호작용이라는 상위 레벨에서 관리되어야 함. AI는 가능성을 제시하고, 의사가 검증해야 함  
  - 그래도 미국의 의료비가 정부 규제 때문에 계속 오르는 상황에서, 결정적 시스템을 잘 구축하면 **비용 절감과 접근성 향상**이 가능할지도 모름  

- ChatGPT가 9개월 동안 나에게 **ADHD가 있다고 가정**했음. 실제로는 그렇지 않음. 언제 그런 정보를 얻었는지 물었더니 구체적인 근거를 제시하지 못했음. 결국 사과하고 속성을 잊겠다고 했지만, 이런 일은 **집단 소송감**이라고 생각함  
  - 아마도 한 채팅 내에서 **환각(hallucination)** 으로 ADHD를 언급했을 뿐일 것임. ChatGPT는 세션 간 기억을 연결할 수 없음  
  - Reddit 등에서 사람들이 자주 **자가진단**을 언급하기 때문에 그런 데이터가 학습된 듯함  
  - 이런 사례는 **건강 데이터 프라이버시 문제**를 드러냄. AI가 사용자의 질병을 추정해 데이터 브로커에게 전달하면, 그 정보는 사실로 굳어짐. 우리는 개인 데이터를 통제할 인프라가 부족함  
  - 법적으로는 **서비스 제공자에게 책임**을 물려야 함. 인간 의사가 오진하면 병원이 책임지듯, AI 진단 서비스도 동일해야 함. 로컬에서 모델을 돌린다면 사용자가 책임을 져야 함  
  - 내 경우 ChatGPT가 **내 이름으로 존재하지 않는 회사**를 언급했음. 개인정보 수집을 모두 거부했는데도 이런 일이 발생함. [OpenAI 개인정보 정책](https://privacy.openai.com/policies/en/)을 참고했지만 여전히 불안함  

- 80대 어머니의 **만성 질환 원인**을 ChatGPT가 5분 만에 찾아냄. 3년간 여러 의사가 못 찾던 문제였음. 의사들이 그 가능성을 검증했고 100% 맞았음. 물론 모든 질환에 적용할 수는 없지만, LLM은 **전문 영역 간 통합적 사고**를 가능하게 함  
  - 문제는 ChatGPT가 아니라 **진료 시간의 부족**임. 다른 나라에서는 의사가 환자와 충분히 시간을 쓰지만, 미국은 시스템이 망가져 있음  
  - 혹시 그 대화 로그를 공유해줄 수 있을까 궁금함  
  - 노인 환자의 경우 이런 치료가 반복되며 **의료비 폭증**으로 이어지는 게 현실임  

- 미국 의료 시스템이 엉망이라 이런 AI가 좋다고 주장하지만, **무료 의료가 잘 작동하는 나라**에서도 이런 도구가 등장함. 교육받은 의사에게 무료로 진료받을 수 있는데도 ChatGPT를 선택할 사람도 있을 것임. 결국 **전 세계 95%** 의 사람들에게는 오히려 해로울 수 있음. OpenAI의 “우리가 안 하면 누군가 할 것” 논리는 **펜타닐 판매자**의 변명과 다를 바 없음  

- 무릎과 팔꿈치 통증으로 수십 명의 의사를 만났지만, ChatGPT가 훨씬 **도움이 되었음**. 단순히 AI의 말을 따르는 건 위험하지만, 검사 결과를 기반으로 **추가 질문이나 검사 방향**을 잡는 데는 유용함. 코드 리뷰를 맡기면 좋지만 코드를 전부 쓰게 하면 위험한 것과 같음  

- AI가 내게 **처방전 작성이나 로봇 진료**까지 해줄 수 있다면 모르겠지만, 그렇지 않다면 의사가 AI 분석을 참고하는 정도로 충분하다고 생각함  

- 내 건강 데이터 접근에 크게 신경 쓰지 않음. 오히려 **개인 건강 혁신**이 기대됨. Apple Health는 단순 데이터 수집이고, 23andMe는 별로 쓸모없었음. 지금은 내 건강 이력을 시스템 프롬프트로 넣은 ChatGPT 프로젝트를 운영 중인데, **논문 기반 분석과 시각화**까지 해줘서 놀라웠음  
  - 만약 그 분석이 오진으로 이어져 장애를 입는다면, 그건 사용자 책임인가 의사 책임인가 묻고 싶음  
  - 어떤 정보를 제공했는지 궁금함. 의사에게 같은 질문을 했다면 같은 답을 들을 수 있었을까? 나처럼 **건강 불안증**이 있는 사람에게는 이런 도구가 오히려 해로울 수도 있음  
  - 사실 의사들도 이미 **몰래 AI를 사용**하고 있을지도 모름  
  - 그래도 그렇게 **생체 데이터**를 Sam Altman에게 넘겨도 괜찮은가? 어떤 기기를 썼는지 궁금함  
  - 건강 데이터는 **가장 민감한 정보**라 규제가 강함. 이런 데이터는 권력 불균형을 만들고, 기업은 이를 이용해 이익을 극대화함  

- 부정적인 의견이 많지만, 나는 **ChatGPT 덕분에 건강 문제를 해결**할 수 있었음  
  - 내 지인은 ChatGPT로 **희귀병을 자가진단**하고 비싼 검사를 받았지만 결국 오진이었음. 그래도 여전히 신뢰함. 의사의 수년간 교육과 경험을 단순 검색과 동일시하는 태도는 위험함  
  - 나도 허리 통증으로 고생했는데, ChatGPT가 **요방형근(quadratus lumborum)** 문제를 알려줘서 큰 도움이 되었음  
  - 의료계에 **건강염려증 환자**가 많음. LLM은 잘 쓰면 유용하지만, **확증 편향**을 강화할 수도 있음. 의사는 듣기 싫은 말도 해주는 존재임. 결국 AI는 도구일 뿐, 의사와 함께 써야 함. 코로나 시기에는 엉뚱한 정보가 많았지만 지금은 훨씬 나아졌음. 나는 ChatGPT로 정보를 정리하고, 의사에게 **완전한 그림**을 제공하는 방식으로 사용함  
  - 나도 ChatGPT를 쓰지만, **행동 가능한 조언**은 반드시 신뢰할 만한 출처로 검증함. 상식적으로 판단할 줄 알아야 함. AI가 멍청한 조언을 해도 결국 **판단은 인간의 몫**임
