우리 삼촌이 균형 문제와 발음 이상으로 고생했음. 의사들은 치매라고 진단하고 그냥 돌려보냈지만 점점 악화되었음. 그래서 ChatGPT(혹은 Gemini)에 증상을 입력하고 상위 3가지 가설을 물었는데, 첫 번째는 치매 관련, 두 번째는 다른 질환이었음. 그걸 들고 주치의에게 가서 다른 두 가지도 검토해달라 요청했고, 결국 두 번째 가설이 맞았음. 수술 후 완전히 회복되었음
이런 일화를 많이 들었음. 악의적인 건 아니지만, 이런 사례가 반(反)백신 운동 같은 비합리적 신념을 강화할까 걱정됨. 의료계가 이런 이야기에 대응하지 않으면 신뢰를 잃을 수 있음. 오진이 얼마나 자주 일어나는지, LLM이 실제로 얼마나 도움이 되는지 궁금함
LLM을 쓸 때 “어떻게 해야 하나”보다 “이 문제의 대안은 무엇인가”를 묻는 게 훨씬 유용함. 상위 k개 답변을 받으면 더 깊이 있게 탐구할 수 있음
일반의들은 문제 해결보다는 암기 중심으로 훈련받음. 진짜 문제 해결에 능한 의사는 대부분 전문의임
혹시 그 병이 정상압 수두증(NPH) 이었을까 생각됨. 수술은 뇌척수액을 배출하는 VP 션트였을 수도 있음. 증상인 요실금, 균형 장애, 인지 저하를 “Wet, Wobbly, Wacky”로 외우는 의학적 암기법이 있음
삼촌이 나아졌다니 다행임. 혹시 다른 두 가지 가설과 최종 진단명을 공유해줄 수 있을까 궁금함
사촌이 정신과 의사로 개업했는데, 이런 AI 의료 도구가 그의 생계를 위협할까 걱정됨. 환자는 전화·이메일·보험 절차를 거쳐야 하지만, AI는 즉시 대화 가능함. 약 처방이 필요한 경우를 제외하면 편의성에서 인간 의사가 경쟁하기 어려움. 미국이 사람을 돌보려면 단일 보험 체계로 의료 시스템을 단순화해야 함
의료 소프트웨어를 개발한 경험이 있는데, 확률적 시스템을 의료에 적용하는 건 위험 신호임. 병원용 약물 상호작용 검사기는 반드시 결정적(deterministic) 이어야 함. 같은 입력에 같은 결과가 나와야 하고, 실패 시 사람의 생명이 걸림
하지만 의학 자체가 본질적으로 비결정적임. 약물 반응은 환자마다 다름. ChatGPT의 비결정성도 의사와 환자의 상호작용이라는 상위 레벨에서 관리되어야 함. AI는 가능성을 제시하고, 의사가 검증해야 함
그래도 미국의 의료비가 정부 규제 때문에 계속 오르는 상황에서, 결정적 시스템을 잘 구축하면 비용 절감과 접근성 향상이 가능할지도 모름
ChatGPT가 9개월 동안 나에게 ADHD가 있다고 가정했음. 실제로는 그렇지 않음. 언제 그런 정보를 얻었는지 물었더니 구체적인 근거를 제시하지 못했음. 결국 사과하고 속성을 잊겠다고 했지만, 이런 일은 집단 소송감이라고 생각함
아마도 한 채팅 내에서 환각(hallucination) 으로 ADHD를 언급했을 뿐일 것임. ChatGPT는 세션 간 기억을 연결할 수 없음
Reddit 등에서 사람들이 자주 자가진단을 언급하기 때문에 그런 데이터가 학습된 듯함
이런 사례는 건강 데이터 프라이버시 문제를 드러냄. AI가 사용자의 질병을 추정해 데이터 브로커에게 전달하면, 그 정보는 사실로 굳어짐. 우리는 개인 데이터를 통제할 인프라가 부족함
법적으로는 서비스 제공자에게 책임을 물려야 함. 인간 의사가 오진하면 병원이 책임지듯, AI 진단 서비스도 동일해야 함. 로컬에서 모델을 돌린다면 사용자가 책임을 져야 함
내 경우 ChatGPT가 내 이름으로 존재하지 않는 회사를 언급했음. 개인정보 수집을 모두 거부했는데도 이런 일이 발생함. OpenAI 개인정보 정책을 참고했지만 여전히 불안함
80대 어머니의 만성 질환 원인을 ChatGPT가 5분 만에 찾아냄. 3년간 여러 의사가 못 찾던 문제였음. 의사들이 그 가능성을 검증했고 100% 맞았음. 물론 모든 질환에 적용할 수는 없지만, LLM은 전문 영역 간 통합적 사고를 가능하게 함
문제는 ChatGPT가 아니라 진료 시간의 부족임. 다른 나라에서는 의사가 환자와 충분히 시간을 쓰지만, 미국은 시스템이 망가져 있음
혹시 그 대화 로그를 공유해줄 수 있을까 궁금함
노인 환자의 경우 이런 치료가 반복되며 의료비 폭증으로 이어지는 게 현실임
미국 의료 시스템이 엉망이라 이런 AI가 좋다고 주장하지만, 무료 의료가 잘 작동하는 나라에서도 이런 도구가 등장함. 교육받은 의사에게 무료로 진료받을 수 있는데도 ChatGPT를 선택할 사람도 있을 것임. 결국 전 세계 95% 의 사람들에게는 오히려 해로울 수 있음. OpenAI의 “우리가 안 하면 누군가 할 것” 논리는 펜타닐 판매자의 변명과 다를 바 없음
무릎과 팔꿈치 통증으로 수십 명의 의사를 만났지만, ChatGPT가 훨씬 도움이 되었음. 단순히 AI의 말을 따르는 건 위험하지만, 검사 결과를 기반으로 추가 질문이나 검사 방향을 잡는 데는 유용함. 코드 리뷰를 맡기면 좋지만 코드를 전부 쓰게 하면 위험한 것과 같음
AI가 내게 처방전 작성이나 로봇 진료까지 해줄 수 있다면 모르겠지만, 그렇지 않다면 의사가 AI 분석을 참고하는 정도로 충분하다고 생각함
내 건강 데이터 접근에 크게 신경 쓰지 않음. 오히려 개인 건강 혁신이 기대됨. Apple Health는 단순 데이터 수집이고, 23andMe는 별로 쓸모없었음. 지금은 내 건강 이력을 시스템 프롬프트로 넣은 ChatGPT 프로젝트를 운영 중인데, 논문 기반 분석과 시각화까지 해줘서 놀라웠음
만약 그 분석이 오진으로 이어져 장애를 입는다면, 그건 사용자 책임인가 의사 책임인가 묻고 싶음
어떤 정보를 제공했는지 궁금함. 의사에게 같은 질문을 했다면 같은 답을 들을 수 있었을까? 나처럼 건강 불안증이 있는 사람에게는 이런 도구가 오히려 해로울 수도 있음
사실 의사들도 이미 몰래 AI를 사용하고 있을지도 모름
그래도 그렇게 생체 데이터를 Sam Altman에게 넘겨도 괜찮은가? 어떤 기기를 썼는지 궁금함
건강 데이터는 가장 민감한 정보라 규제가 강함. 이런 데이터는 권력 불균형을 만들고, 기업은 이를 이용해 이익을 극대화함
부정적인 의견이 많지만, 나는 ChatGPT 덕분에 건강 문제를 해결할 수 있었음
내 지인은 ChatGPT로 희귀병을 자가진단하고 비싼 검사를 받았지만 결국 오진이었음. 그래도 여전히 신뢰함. 의사의 수년간 교육과 경험을 단순 검색과 동일시하는 태도는 위험함
나도 허리 통증으로 고생했는데, ChatGPT가 요방형근(quadratus lumborum) 문제를 알려줘서 큰 도움이 되었음
의료계에 건강염려증 환자가 많음. LLM은 잘 쓰면 유용하지만, 확증 편향을 강화할 수도 있음. 의사는 듣기 싫은 말도 해주는 존재임. 결국 AI는 도구일 뿐, 의사와 함께 써야 함. 코로나 시기에는 엉뚱한 정보가 많았지만 지금은 훨씬 나아졌음. 나는 ChatGPT로 정보를 정리하고, 의사에게 완전한 그림을 제공하는 방식으로 사용함
나도 ChatGPT를 쓰지만, 행동 가능한 조언은 반드시 신뢰할 만한 출처로 검증함. 상식적으로 판단할 줄 알아야 함. AI가 멍청한 조언을 해도 결국 판단은 인간의 몫임
Hacker News 의견들
우리 삼촌이 균형 문제와 발음 이상으로 고생했음. 의사들은 치매라고 진단하고 그냥 돌려보냈지만 점점 악화되었음. 그래서 ChatGPT(혹은 Gemini)에 증상을 입력하고 상위 3가지 가설을 물었는데, 첫 번째는 치매 관련, 두 번째는 다른 질환이었음. 그걸 들고 주치의에게 가서 다른 두 가지도 검토해달라 요청했고, 결국 두 번째 가설이 맞았음. 수술 후 완전히 회복되었음
사촌이 정신과 의사로 개업했는데, 이런 AI 의료 도구가 그의 생계를 위협할까 걱정됨. 환자는 전화·이메일·보험 절차를 거쳐야 하지만, AI는 즉시 대화 가능함. 약 처방이 필요한 경우를 제외하면 편의성에서 인간 의사가 경쟁하기 어려움. 미국이 사람을 돌보려면 단일 보험 체계로 의료 시스템을 단순화해야 함
의료 소프트웨어를 개발한 경험이 있는데, 확률적 시스템을 의료에 적용하는 건 위험 신호임. 병원용 약물 상호작용 검사기는 반드시 결정적(deterministic) 이어야 함. 같은 입력에 같은 결과가 나와야 하고, 실패 시 사람의 생명이 걸림
ChatGPT가 9개월 동안 나에게 ADHD가 있다고 가정했음. 실제로는 그렇지 않음. 언제 그런 정보를 얻었는지 물었더니 구체적인 근거를 제시하지 못했음. 결국 사과하고 속성을 잊겠다고 했지만, 이런 일은 집단 소송감이라고 생각함
80대 어머니의 만성 질환 원인을 ChatGPT가 5분 만에 찾아냄. 3년간 여러 의사가 못 찾던 문제였음. 의사들이 그 가능성을 검증했고 100% 맞았음. 물론 모든 질환에 적용할 수는 없지만, LLM은 전문 영역 간 통합적 사고를 가능하게 함
미국 의료 시스템이 엉망이라 이런 AI가 좋다고 주장하지만, 무료 의료가 잘 작동하는 나라에서도 이런 도구가 등장함. 교육받은 의사에게 무료로 진료받을 수 있는데도 ChatGPT를 선택할 사람도 있을 것임. 결국 전 세계 95% 의 사람들에게는 오히려 해로울 수 있음. OpenAI의 “우리가 안 하면 누군가 할 것” 논리는 펜타닐 판매자의 변명과 다를 바 없음
무릎과 팔꿈치 통증으로 수십 명의 의사를 만났지만, ChatGPT가 훨씬 도움이 되었음. 단순히 AI의 말을 따르는 건 위험하지만, 검사 결과를 기반으로 추가 질문이나 검사 방향을 잡는 데는 유용함. 코드 리뷰를 맡기면 좋지만 코드를 전부 쓰게 하면 위험한 것과 같음
AI가 내게 처방전 작성이나 로봇 진료까지 해줄 수 있다면 모르겠지만, 그렇지 않다면 의사가 AI 분석을 참고하는 정도로 충분하다고 생각함
내 건강 데이터 접근에 크게 신경 쓰지 않음. 오히려 개인 건강 혁신이 기대됨. Apple Health는 단순 데이터 수집이고, 23andMe는 별로 쓸모없었음. 지금은 내 건강 이력을 시스템 프롬프트로 넣은 ChatGPT 프로젝트를 운영 중인데, 논문 기반 분석과 시각화까지 해줘서 놀라웠음
부정적인 의견이 많지만, 나는 ChatGPT 덕분에 건강 문제를 해결할 수 있었음