12P by neo 1일전 | ★ favorite | 댓글 2개

ChatGPT가 날 오늘 ER로 보냈음: 그게 내 생명을 구했을지도 모름

  • 최근 몇 주 동안 몸 상태가 이상하다고 느꼈음. 주치의 검사 후 식단 조언을 해줬지만, 주말 사이 증상이 악화됨
  • 새벽 3시에 ChatGPT에 증상을 설명하며 식단 개선 방법을 논의
  • 일요일 아침, 다리와 손에 작은 빨간 점들이 생기자, ChatGPT에 사진 업로드하고 대화를 이어나갔음
  • ChatGPT에 혈액검사 결과를 업로드하자 혈소판 수치가 비정상적으로 낮다고 지적받았고, 응급실을 가라는 강력한 권고를 받았음
  • 주치의가 검사를 아직 확인하지 않았을 수도 있다는 점도 ChatGPT가 지적함
  • 주치의에게 연락했으나, 2-3일 후에나 답변을 받을 수 있다는 회신을 받고, ChatGPT의 조언에 따라 응급실로 향함
  • 결국 ER에 가서 긴급한 치료(혈소판 수혈 등)를 받았음

혈소판 ‘0’: 새로운 문제?

  • 실제로 응급실 도착 후 혈소판 수치가 0으로 판정됨
  • 의료진도 매우 드문 상황이라 놀라워했음
  • 신속히 응급조치를 받고 입원하게 됨
  • “어떻게 응급실에 오게 되었는가?”라는 질문에 ChatGPT 권고 때문이라 대답했음
  • 의료진도 AI가 초기 위험 징후를 알리는 데 도움이 될 수 있다고 긍정적으로 평가함

AI가 위기 상황을 중재하는 방법

  • 위기 상황에서 AI를 사용한 것은 이번이 처음이 아님. AI가 응급실에 가라고 설득한 것도 이번이 처음이 아님 (참고로 두 번 모두 옳은 판단이었음)
  • 이번에는 ChatGPT가 단계별로 증상과 검사값을 분석하며 긴급함을 강조함
  • 혈액검사 결과를 빠르게 해석하고, 즉각적인 병원 방문을 추진하게 함
  • ER에 온 뒤에도 수치와 용어를 실시간으로 ChatGPT에 물어보며 상황을 이해함
  • AI와의 대화 내용을 바탕으로, 구체적인 용어를 의료진에게 말해 더욱 신속한 대응을 이끌어냄

앞으로의 방향

  • 금요일 늦게 나온 검사 결과를 월요일에야 의사가 확인할 수 있는 의료시스템의 공백 문제를 체감함
  • AI가 이 공백을 메우며 “주말 긴급 상황에 환자를 안전하게 안내하는 역할”을 함
  • 병원에서는 환자가 미리 검사 결과를 파악하고 대화를 준비해 두니, 의사와의 면담이 더 효율적이었음
  • 의료 체계와 AI가 함께 작동할 때 생길 수 있는 새로운 의사소통 방식과 환자 자율성이 부각됨
  • 지금은 병원에서 글을 쓰며, 적절한 치료 후 빠른 퇴원을 기대 중임

부록 ("Proof of Reality")

  • "또 다른 AI 사기극"이라고 생각하는 모든 혐오자들을 위해, 실제 입원 중 찍은 사진을 공개함
  • 현재 면역치료 등 중대한 조치가 진행 중임

이건 사실 혈액검사에서 중대한 이상값이 나왔는데, 환자는 정작 조회를 할 수 있는데 의사에게 보고가 되지 않는 것이 문제인거죠. 요새는 이런 문제 때문에 큰 일부 병원에서는 이상값이 발견될때, 바로 검사실에서 의사에게 바로 개별연락이 가기도 합니다.

Hacker News 의견
  • 아내가 의사인데, 이미 AI 서기가 방문 기록을 작성하고 요약하며 명령을 준비하는 시스템을 사용 중임

    • AI가 실험 결과를 검토하는 것도 멀지 않은 일 같지만, 아직 AI 시스템이 인간의 개입 없이 환자에게 정보를 해석하고 전달하는 것은 준비되지 않음
    • 문제는 인간이 혈소판 수치를 놓친 것이 아니라 아직 검토되지 않았다는 것임
    • AI 개입은 환자 측에서 이루어져야 하며, 제공자는 위험이 크고 환자는 자신의 AI를 선택할 수 있는 능력이 있음
  • LLM이 긴급 조치가 필요한 결과를 표시하는 알고리즘보다 더 나은 점이 무엇인지 모르겠음

    • 사용자에게 더 명확하고 이해하기 쉬운 정보를 제공할 수 있지만, 이는 건강 시스템이나 인터넷 자원의 실패를 의미함
    • LLM이 환자에게 자신의 건강에 대해 행동할 수 있는 힘을 주었음
  • 이 이야기는 LLM의 "킬러 앱"이 없다는 좋은 예임

    • 사람들이 이를 인정하기 꺼려하는 이유는 이 기술이 막대한 권력을 집중시키기 때문임
  • 친구가 최근 영상 검사를 받았고, 의사가 검토하기까지 7일을 기다려야 했음

    • AI/LLM이 검사 결과를 분류하고 의사에게 우선적으로 검토해야 할 결과를 알려줄 수 있음
    • 대부분의 방사선 보고서는 텍스트로 작성되므로, LLM이 이를 사용해 분류하고 의료 제공자에게 우선 순위를 알릴 수 있음
  • 이 이야기를 공유해줘서 고맙다는 의견

    • LLM의 위험 요소에 대한 많은 대화가 있지만, 이 이야기는 새로운 기술의 놀라운 잠재력을 상기시켜 줌
    • 다른 방법으로 문제의 심각성을 알 수 있었을 수도 있지만, LLM이 정보를 이해하고 필요한 방식으로 정보를 제공한 것은 새로운 상호작용 방식임
  • 혈소판 수치가 0으로 떨어지는 것은 심각한 문제임

    • 혈액 검사에서 비전문가는 정상 범위를 벗어난 값이 괜찮은지 생명에 위협이 되는지 알기 어려움
    • 색상 코드로 WBC/RBC, 헤모글로빈 및 혈소판을 표시하는 것만으로도 큰 도움이 될 수 있음
  • '피부에 작은 붉은 반점이 있는 낮은 혈소판 수치'를 검색하면 긴급한 치료가 필요하다는 것을 알 수 있음

    • AI가 필요하지 않음
  • 이제 LLM을 통해 그럴듯한 진단을 받을 수 있음

    • DNA를 완전히 시퀀싱하고 데이터를 ChatGPT 세션에 업로드하여 특정 유전적 프로필에 대한 질문을 할 수 있음
    • 의사와 논의하여 해결책을 찾을 수 있음
  • ChatGPT가 의사의 대충 평가보다 의료 문제를 더 잘 진단할 수 있다는 의견

    • 의사가 모든 증상에 대해 철저히 평가하지 않는 경우가 많음
    • 개인적인 경험으로, ChatGPT가 모노뉴클레오시스를 진단했으며, 이는 놀라운 결과였음