1P by GN⁺ 1일전 | ★ favorite | 댓글 1개
  • "건강과 웰니스를 위해 설계된 새로운 ChatGPT"
  • 개인 건강 정보와 ChatGPT의 인공지능을 안전하게 연결해 건강 상태를 이해하고 관리할 수 있도록 지원하는 서비스
  • 의료 정보 보호를 위한 암호화·분리 구조를 적용하고, 건강 관련 대화는 모델 학습에 사용되지 않음
  • 전자 의료 기록(EHR) 및 Apple Health, MyFitnessPal 등 웰니스 앱 연동을 통해 맞춤형 건강 조언 제공
  • 전 세계 260여 명 의료진과 협력해 임상 기준에 따른 평가 체계 HealthBench로 모델 품질 검증
  • 의료 서비스를 대체하지 않고 보완하며, 개인 정보 보호와 신뢰성 중심의 건강 관리 도구로 개발됨

ChatGPT Health 개요

  • ChatGPT Health는 개인의 건강 데이터를 ChatGPT와 안전하게 연결해 건강 상태 이해와 체계적 관리를 돕는 서비스
    • ChatGPT의 개인정보 보호·보안·데이터 통제 체계를 기반으로 의료 정보 보호 장치를 추가 적용
    • 건강 관련 대화는 암호화 및 분리 구조를 통해 비공개로 관리
  • 사용자는 의료 기록과 웰니스 앱을 ChatGPT에 연결해 검사 결과 해석, 진료 준비, 식단·운동 계획 등을 수행 가능
  • 서비스 목적은 의료 전문가의 진료를 보완하는 것이며, 진단이나 치료를 대체하지 않음

건강 정보 활용 현황

  • ChatGPT는 이미 건강 분야에서 가장 많이 활용되는 서비스 중 하나로, 매주 2억 3천만 명 이상이 건강 관련 질문을 수행
  • 건강 정보가 여러 플랫폼에 분산되어 있어 사용자가 전체 상태를 파악하기 어렵다는 점을 해결하기 위한 시도
  • ChatGPT Health는 이러한 흐름을 확장해 사용자 맥락을 반영한 응답을 제공

주요 기능과 연동

  • 전자 의료 기록(EHR), Apple Health, Function, MyFitnessPal 등과 연동 가능
    • 미국 내에서는 b.well 네트워크를 통해 신뢰할 수 있는 의료 데이터 연동 지원
    • 의료 기록 접근은 만 18세 이상 사용자에 한해 제공
  • 앱은 ChatGPT Health에 포함되기 전 보안 검토와 최소 데이터 수집 요건을 충족해야 함
    • 사용자는 언제든 앱 연결을 해제할 수 있으며, 해제 즉시 데이터 접근 권한이 소멸
  • ChatGPT Health 내 대화와 파일은 기본 채팅과 분리된 전용 메모리에 저장
    • 외부 대화에서는 Health 데이터 접근 불가
    • 사용자는 Health 인터페이스나 설정에서 데이터 확인·삭제 가능

개인정보 보호 및 보안

  • ChatGPT Health는 강화된 개인정보 보호 체계를 적용한 별도 공간으로 운영
    • 대화 내용은 모델 학습에 사용되지 않음
    • 저장 및 전송 구간 모두 암호화 처리
  • OpenAI는 ChatGPT 전반에 임시 채팅 기능30일 내 데이터 삭제 옵션을 제공
  • Health 대화는 ChatGPT의 일반 대화와 달리 의료 데이터 전용 암호화 체계격리 구조로 관리

의료진 협력 및 평가 체계

  • OpenAI는 2년 이상 전 세계 60개국의 260여 명 의료진과 협력
    • 30개 중점 분야에서 60만 회 이상 피드백을 수집
    • 의료진은 ChatGPT의 응답이 언제 도움이 되고 언제 위험할 수 있는지 검토
  • 이 협력 결과는 모델 설계와 응답 방식에 반영되어 명확성·안전성·진료 연계성을 강화
  • 모델은 HealthBench 평가 프레임워크를 통해 임상 기준에 따라 검증
    • HealthBench는 의료진이 직접 작성한 평가 기준을 기반으로 실제 진료 판단 방식을 반영
    • 안전성, 명확한 전달, 개인 맥락 존중 등을 중심으로 응답 품질을 측정

사용 예시 및 접근 방식

  • 사용자는 ChatGPT의 사이드바에서 Health를 선택해 접근
    • 파일 업로드, 앱 연동, 도구(+) 또는 설정의 ‘앱’ 메뉴에서 데이터 연결 가능
  • Health 대화는 일반 ChatGPT 기능(검색, 음성 모드, 받아쓰기 등)을 그대로 지원
    • 예시 질문: “내 콜레스테롤 수치가 어떻게 변하고 있어?”, “진료 전에 혈액 검사 결과를 요약해줘”
  • Health 대화에 사용자 맞춤 지침을 추가해 ChatGPT의 응답 방식과 민감 영역을 조정 가능
    • 맞춤 지침은 Health 대화에만 적용되며 언제든 수정·삭제 가능

서비스 제공 및 확장 계획

  • 현재는 소수의 초기 사용자에게 우선 제공, 대기자 명단 등록 시 이용 가능
  • 향후 몇 주 내 웹과 iOS 전면 확대 예정
  • 전자 의료 기록 연동과 일부 앱은 미국에서만 제공, Apple Health 연동은 iOS 필요
  • OpenAI는 향후 데이터 연동과 인사이트 확장을 통해 사용자가 건강 상태와 선택지를 더 잘 이해하도록 지원 예정
Hacker News 의견들
  • 우리 삼촌이 균형 문제와 발음 이상으로 고생했음. 의사들은 치매라고 진단하고 그냥 돌려보냈지만 점점 악화되었음. 그래서 ChatGPT(혹은 Gemini)에 증상을 입력하고 상위 3가지 가설을 물었는데, 첫 번째는 치매 관련, 두 번째는 다른 질환이었음. 그걸 들고 주치의에게 가서 다른 두 가지도 검토해달라 요청했고, 결국 두 번째 가설이 맞았음. 수술 후 완전히 회복되었음

    • 이런 일화를 많이 들었음. 악의적인 건 아니지만, 이런 사례가 반(反)백신 운동 같은 비합리적 신념을 강화할까 걱정됨. 의료계가 이런 이야기에 대응하지 않으면 신뢰를 잃을 수 있음. 오진이 얼마나 자주 일어나는지, LLM이 실제로 얼마나 도움이 되는지 궁금함
    • LLM을 쓸 때 “어떻게 해야 하나”보다 “이 문제의 대안은 무엇인가”를 묻는 게 훨씬 유용함. 상위 k개 답변을 받으면 더 깊이 있게 탐구할 수 있음
    • 일반의들은 문제 해결보다는 암기 중심으로 훈련받음. 진짜 문제 해결에 능한 의사는 대부분 전문의임
    • 혹시 그 병이 정상압 수두증(NPH) 이었을까 생각됨. 수술은 뇌척수액을 배출하는 VP 션트였을 수도 있음. 증상인 요실금, 균형 장애, 인지 저하를 “Wet, Wobbly, Wacky”로 외우는 의학적 암기법이 있음
    • 삼촌이 나아졌다니 다행임. 혹시 다른 두 가지 가설과 최종 진단명을 공유해줄 수 있을까 궁금함
  • 사촌이 정신과 의사로 개업했는데, 이런 AI 의료 도구가 그의 생계를 위협할까 걱정됨. 환자는 전화·이메일·보험 절차를 거쳐야 하지만, AI는 즉시 대화 가능함. 약 처방이 필요한 경우를 제외하면 편의성에서 인간 의사가 경쟁하기 어려움. 미국이 사람을 돌보려면 단일 보험 체계로 의료 시스템을 단순화해야 함

  • 의료 소프트웨어를 개발한 경험이 있는데, 확률적 시스템을 의료에 적용하는 건 위험 신호임. 병원용 약물 상호작용 검사기는 반드시 결정적(deterministic) 이어야 함. 같은 입력에 같은 결과가 나와야 하고, 실패 시 사람의 생명이 걸림

    • 하지만 의학 자체가 본질적으로 비결정적임. 약물 반응은 환자마다 다름. ChatGPT의 비결정성도 의사와 환자의 상호작용이라는 상위 레벨에서 관리되어야 함. AI는 가능성을 제시하고, 의사가 검증해야 함
    • 그래도 미국의 의료비가 정부 규제 때문에 계속 오르는 상황에서, 결정적 시스템을 잘 구축하면 비용 절감과 접근성 향상이 가능할지도 모름
  • ChatGPT가 9개월 동안 나에게 ADHD가 있다고 가정했음. 실제로는 그렇지 않음. 언제 그런 정보를 얻었는지 물었더니 구체적인 근거를 제시하지 못했음. 결국 사과하고 속성을 잊겠다고 했지만, 이런 일은 집단 소송감이라고 생각함

    • 아마도 한 채팅 내에서 환각(hallucination) 으로 ADHD를 언급했을 뿐일 것임. ChatGPT는 세션 간 기억을 연결할 수 없음
    • Reddit 등에서 사람들이 자주 자가진단을 언급하기 때문에 그런 데이터가 학습된 듯함
    • 이런 사례는 건강 데이터 프라이버시 문제를 드러냄. AI가 사용자의 질병을 추정해 데이터 브로커에게 전달하면, 그 정보는 사실로 굳어짐. 우리는 개인 데이터를 통제할 인프라가 부족함
    • 법적으로는 서비스 제공자에게 책임을 물려야 함. 인간 의사가 오진하면 병원이 책임지듯, AI 진단 서비스도 동일해야 함. 로컬에서 모델을 돌린다면 사용자가 책임을 져야 함
    • 내 경우 ChatGPT가 내 이름으로 존재하지 않는 회사를 언급했음. 개인정보 수집을 모두 거부했는데도 이런 일이 발생함. OpenAI 개인정보 정책을 참고했지만 여전히 불안함
  • 80대 어머니의 만성 질환 원인을 ChatGPT가 5분 만에 찾아냄. 3년간 여러 의사가 못 찾던 문제였음. 의사들이 그 가능성을 검증했고 100% 맞았음. 물론 모든 질환에 적용할 수는 없지만, LLM은 전문 영역 간 통합적 사고를 가능하게 함

    • 문제는 ChatGPT가 아니라 진료 시간의 부족임. 다른 나라에서는 의사가 환자와 충분히 시간을 쓰지만, 미국은 시스템이 망가져 있음
    • 혹시 그 대화 로그를 공유해줄 수 있을까 궁금함
    • 노인 환자의 경우 이런 치료가 반복되며 의료비 폭증으로 이어지는 게 현실임
  • 미국 의료 시스템이 엉망이라 이런 AI가 좋다고 주장하지만, 무료 의료가 잘 작동하는 나라에서도 이런 도구가 등장함. 교육받은 의사에게 무료로 진료받을 수 있는데도 ChatGPT를 선택할 사람도 있을 것임. 결국 전 세계 95% 의 사람들에게는 오히려 해로울 수 있음. OpenAI의 “우리가 안 하면 누군가 할 것” 논리는 펜타닐 판매자의 변명과 다를 바 없음

  • 무릎과 팔꿈치 통증으로 수십 명의 의사를 만났지만, ChatGPT가 훨씬 도움이 되었음. 단순히 AI의 말을 따르는 건 위험하지만, 검사 결과를 기반으로 추가 질문이나 검사 방향을 잡는 데는 유용함. 코드 리뷰를 맡기면 좋지만 코드를 전부 쓰게 하면 위험한 것과 같음

  • AI가 내게 처방전 작성이나 로봇 진료까지 해줄 수 있다면 모르겠지만, 그렇지 않다면 의사가 AI 분석을 참고하는 정도로 충분하다고 생각함

  • 내 건강 데이터 접근에 크게 신경 쓰지 않음. 오히려 개인 건강 혁신이 기대됨. Apple Health는 단순 데이터 수집이고, 23andMe는 별로 쓸모없었음. 지금은 내 건강 이력을 시스템 프롬프트로 넣은 ChatGPT 프로젝트를 운영 중인데, 논문 기반 분석과 시각화까지 해줘서 놀라웠음

    • 만약 그 분석이 오진으로 이어져 장애를 입는다면, 그건 사용자 책임인가 의사 책임인가 묻고 싶음
    • 어떤 정보를 제공했는지 궁금함. 의사에게 같은 질문을 했다면 같은 답을 들을 수 있었을까? 나처럼 건강 불안증이 있는 사람에게는 이런 도구가 오히려 해로울 수도 있음
    • 사실 의사들도 이미 몰래 AI를 사용하고 있을지도 모름
    • 그래도 그렇게 생체 데이터를 Sam Altman에게 넘겨도 괜찮은가? 어떤 기기를 썼는지 궁금함
    • 건강 데이터는 가장 민감한 정보라 규제가 강함. 이런 데이터는 권력 불균형을 만들고, 기업은 이를 이용해 이익을 극대화함
  • 부정적인 의견이 많지만, 나는 ChatGPT 덕분에 건강 문제를 해결할 수 있었음

    • 내 지인은 ChatGPT로 희귀병을 자가진단하고 비싼 검사를 받았지만 결국 오진이었음. 그래도 여전히 신뢰함. 의사의 수년간 교육과 경험을 단순 검색과 동일시하는 태도는 위험함
    • 나도 허리 통증으로 고생했는데, ChatGPT가 요방형근(quadratus lumborum) 문제를 알려줘서 큰 도움이 되었음
    • 의료계에 건강염려증 환자가 많음. LLM은 잘 쓰면 유용하지만, 확증 편향을 강화할 수도 있음. 의사는 듣기 싫은 말도 해주는 존재임. 결국 AI는 도구일 뿐, 의사와 함께 써야 함. 코로나 시기에는 엉뚱한 정보가 많았지만 지금은 훨씬 나아졌음. 나는 ChatGPT로 정보를 정리하고, 의사에게 완전한 그림을 제공하는 방식으로 사용함
    • 나도 ChatGPT를 쓰지만, 행동 가능한 조언은 반드시 신뢰할 만한 출처로 검증함. 상식적으로 판단할 줄 알아야 함. AI가 멍청한 조언을 해도 결국 판단은 인간의 몫