2P by GN⁺ 8시간전 | ★ favorite | 댓글 1개
  • 2017년 발표된 CheXNet 등 AI 모델은 폐렴 진단에서 인간 방사선 전문의보다 정확한 성능을 나타냈지만, 실제 의료 현장에서는 성과를 재현하지 못하고 있음
  • 최근 수백 개의 방사선 인공지능 모델이 FDA 승인을 받았음에도 불구하고, 미국 내 방사선 전문의 근무 자리와 연봉은 오히려 사상 최고치를 기록 중임
  • 의료 AI의 한계로, 데이터 부족, 실제 환경과의 차이, 규제와 보험상의 장벽, 그리고 인간 방사선 전문의가 진단 외 다양한 역할을 맡는 구조가 원인임
  • 완전한 자동화 대신, 인간과 AI가 병행하는 체계가 의료 업계 표준이 되었으며, AI가 발전해도 방사선 전문의 일손은 줄지 않는 현상임
  • 의료 AI 확산의 첫 10년은 AI 기술의 생산성 향상 가능성은 높지만, 실제로는 더 많은 인간 노동 수요를 야기하는 역설을 보여줌

서론: AI의 도입과 기대

  • 2017년 등장한 CheXNet 같은 AI 모델은 10만 건이 넘는 흉부 엑스레이 데이터를 학습, 폐렴 판독 정확도에서 인간 전문의보다 우수한 결과를 제시함
  • Annalise.ai, Lunit, Aidoc, Qure.ai 등 여러 기업이 수백 질병을 탐지할 수 있는 AI 시스템을 출시, 병원 기록 시스템에도 통합이 가능함
  • 700개 이상의 FDA 승인 방사선 AI 모델이 존재하며, 이는 전체 의료 AI 기기의 75%에 해당함
  • 방사선과는 디지털 입력패턴 인식, 그리고 명확한 성과 측정이 가능하여 AI 대체에 가장 적합한 분야로 평가되어 왔음
  • 하지만, 실제로는 방사선 전문의 양성 수요가 사상 최고에 달하고, 임금 또한 2015년 대비 48% 상승하는 등 인간 인력 수요가 증가하는 양상임

AI 방사선 진단 시스템의 한계

실제 환경과 학습 데이터의 차이

  • 방사선 AI 모델은 정형화된 데이터와 특정 조건에서 탁월한 성능을 보이지만, 현실 병원 환경에서는 병원별 데이터 차이, 진단 장비 특성, 다양성 부족 등으로 인해 성능이 저하됨
  • 대부분의 모델은 특정 질환, 한 이미지 유형에서만 높은 정확도를 내며, 다양한 경우에는 복수의 모델을 번갈아 적용해야 하는 불편함이 발생함
  • FDA 승인을 받은 알고리듬도 실제 영상 판독 업무의 일부만 다루고, 주로 뇌졸중, 유방암, 폐암 등 소수 중요 질환에 집중됨
  • 소아, 여성, 소수 인종 데이터가 부족한 점, 그리고 질환이 미묘하게 나타나거나 다른 질병과 혼재된 경우에는 예측력이 떨어지는 문제도 있음

벤치마크와 임상 적용의 격차

  • 벤치마크 시험에서는 AI가 높은 정량적 지표를 기록하지만, 실제 임상 환경에서는 인간 방사선 전문의와 보조 시스템이 기대만큼 좋은 결과를 내지 못함
  • 예를 들어, 유방촬영 분야에서 보조 AI 시스템은 판독 민감도는 높였으나 불필요한 추가 검사와 조직검사(생검) 비율만 증가시키고 암 발견율은 높이지 못함
  • 한·두 명의 인간 판독자가 함께 읽는 ‘이중 판독’이 AI 보조보다 암 발견력이 높고, 불필요한 재검 비율도 더 낮은 결과를 보임

법적·제도적 규제가 자동화 속도 제한

  • FDA는 방사선 소프트웨어를 ‘보조/분류 도구’와 ‘완전 자동화 도구’로 구분
    • 완전 자동화는 희귀하며, IDx-DR과 같이 일부 특수 조건에서만 적용됨
    • AI가 판독하기 어려운 이미지는 소프트웨어가 자체적으로 중단 후 의료인에게 전달해야 함
  • 규제 요건이 높고, 매번 모델을 재학습·변경할 때도 새 승인이 필요
  • 보험사들은 자동화 도구가 실수 시 집단피해 확률이 높다고 보고, 인공지능만으로 진단한 결과에 대해서는 보험 보상을 꺼리는 경향이 있음
  • 법률상, 의사가 직접 해석·서명한 판독만 보험 적용이 되는 경우가 표준임

인간 방사선 전문의의 역할 변화

  • 실제로 방사선 전문의는 시간의 36%만 영상 해석에 사용하고, 나머지는 환자·동료와의 상담, 검사 감독, 교육, 처방 변경 등 다양한 업무에 할애함
  • 영상 판독 시간이 줄어도 불필요한 해고는 일어나지 않았고, 오히려 새로운 업무가 늘어 전반적인 이미지 판독량 자체가 증가하는 현상이 발생함
    • 예시로 필름 기반에서 디지털로 전환할 때도 영상 판독 생산성은 뛰었지만 의료진 감축은 없었고, 오히려 전체 영상 검사가 60% 이상 늘어남
  • 영상 처리 속도 향상은 검사 대기시간 감소, 응급상황 대응력 향상 등 의료 시스템 내 활용도 다양화로 이어짐

향후 전망: AI 확산의 첫 10년의 교훈

  • 지난 10년간 일상 진료 도입은 AI 모델의 기술 수준보다 훨씬 느리게 진전 중
  • 규제, 보험, 환자 상담, 의사 주체성 등 비기술적 요인이 완전 대체 장벽으로 작용함
  • AI가 인력 대체보다 인간과의 협업을 통한 생산성 강화에 기여하는 형태가 기본 모델이 됨
  • 대형 플랫폼(예: Facebook)에서는 AI로 자동화 가능성이 높지만, 지식 일자리가 다양한 업무로 구성될수록 소프트웨어 도입이 인간 노동량을 줄이기보다 늘리는 경향이 있음
  • 방사선 분야에서의 경험은 AI가 인간 업무를 즉시 대체하기보다는, 오히려 사회·제도·행동적 변화와 함께 인간 인력 수요를 유지 또는 확대시키는 역설적 결과를 보여줌
Hacker News 의견
  • 나는 인터벤션 영상의학과 의사이자 컴퓨터 과학 석사 학위 소지자임, 영상의학 외 분야에서는 AI가 왜 아직 영상의학을 대체하지 못했는지 잘 이해하지 못함 설명을 하자면, AI가 영상 진단을 인간 영상의학과보다 더 잘 할 수 있느냐에 대한 답은 거의 ‘그렇다’ 혹은 곧 그럴 것임 하지만 영상의학과가 대체되느냐의 질문에는 거의 ‘아니다’가 답임 그 이유는 의료법상의 리스크 때문임 현재 법이 바뀌지 않는 한, 영상의학과 의사가 모든 리포트에 최종 서명을 해야 함 그래서 AI가 이미지를 주로 판독해 완벽한 리포트를 작성해도, 결국 영상의학과의 최종 확인이 병목이 됨 현재 영상의학과의들은 하루에 최소 60~100건의 각종 검사를 빠르게 읽으며, 이게 인간이 감당할 수 있는 한계치에 가까움 AI가 모든 리포트를 대신 써주더라도, 이 모든 걸 검토·서명해야 해 시간 차이는 거의 없음 물론 서명만 누르는 무책임한 의사가 한 명쯤 있을지도 모르지만, 이에 대해 소송을 준비하는 변호사도 있을 것임

    • 이건 마치 자율주행차가 운전석에 ‘책임질’ 사람이 필요해서 절대 상용화 되지 않을 거라는 주장과 비슷함 이미 FDA가 의사 확인 없이 작동하도록 승인한 AI 시스템이 있다는 점에서 현실과 다름
    • AI가 인간 영상의학보다 나을 경우 어떤 일이 벌어지냐에 대해선, 영상의학과가 단순히 하루 종일 ‘승인, 승인’ 클릭만 하거나 AI 결과에 반박해도 결론적으로 AI가 맞다는 게 증명되는 상황을 상상할 수 있음 이런 내용이 의료계에 상식이 되면 병원은 비용 절감을 위해 법을 개정하도록 로비를 할 것이고 결국 인간 영상의학과 없이 운영하게 될 것임
    • 99.9%의 정확도에서 99.95%까지 올리기 위해 6,000달러나 내고 싶지 않은 환자도 있을 것임
    • 나는 임상 경험 20년 이상의 진단영상의학과 의사이자 1979년부터 프로그래밍을 해온 사람임 너의 핵심 가정 하나에 이의를 제기하고 싶음 ‘AI가 이미 영상 판독을 인간보다 잘할 수 있거나 곧 할 것이다’라는 부분에 동의하지 않음 최신 AI 제품들을 사용하고 속속 정보도 챙기고 있지만, 이들 중 그 무엇도 실제 임상 판독에서 쓸 만한 수준에 근접하지 않음 데이터의 한계와 인간 해부학, 병리학적 변화의 무한한 변이성 때문에 진정한 AGI가 등장하지 않는 한 인간 영상의학과의의 직관적, 분석적, 종합적 사고를 대체하지 못할 것임 매일 새로운 패턴과 이전에 본 적 없는 사례에 맞닥뜨리고, 데이터에 들어갈 수 없는 경우가 많음 경력 말미라 굳이 내 입지를 지키려는 입장이 아님 만약 정말 좋은 대체 기술이 나오면 기꺼이 마이크 내려놓고 싶지만 아직은 그 단계에 전혀 오지 못했다고 생각함
    • 영상의학 외부에서는 왜 AI가 아직 자리를 못 잡는지 잘 이해하지 못하는 부분이 있음 사실 AI가 영상의학을 완전히 대체할 리는 없음 오히려 AI가 영상의학과와 협업하여 바쁜 업무와 제한된 인력 문제를 보완해야 함 심장병 분야의 사례를 들어보면, 심장내과도 여전히 전문의 비율이 매우 낮음 ECG 판독이 어렵고 반복적인 작업이기 때문에 많은 나라에서는 홀터 ECG도 거의 전부 자동 해석으로 넘어가는 중임 하지만 AI/ML의 판독 정확도가 워낙 낮아서 민감도를 100% 가까이 끌어올려야만 심장내과와 협업이 가능함 그래서 자동화는 ‘대체’가 아니라 ‘보조’로 자리잡아야 함 심장내과의는 차라리 미래세대 교육이나 시술, 연구, 휴식 등에 시간을 쓰고 싶어함 예시로 판-톰킨스 알고리즘 참고: Pan–Tompkins 알고리즘 위키
  • 2016년 테슬라가 “운전자는 법적 이유로만 앉아있고 아무것도 하지 않는다, 차가 스스로 운전한다”며 완전자율주행 시연 영상을 공개했을 때 트럭업계가 영원히 바뀔 것이라고 생각해 업계 진입을 재고했음 그런데 2025년이 코앞인데도 대부분의 변화가 느리거나 거의 일어나지 않았음 기술이 세상을 크게 바꿀 것이란 낙관주의가 만연하지만 실제론 변화가 매우 느리거나 정체된 경우가 많음

    • 나는 로보택시가 아니라 Waymo를 주목함 Waymo는 내가 어릴 때 상상했던 진정한 자율주행비전을 구현 중이고, 고객 수도 기하급수적으로 늘고 있음 Waymo의 안전성 통계를 믿는다면 정말 안전한 서비스임 기술 발전이 단기적으로 과대평가되고 장기적으로 과소평가된다는 속담이 적절하다고 봄, 영상의학과 이야기는 확실히 다른 사례지만… Waymo 안전성 참고: Waymo 안전성 및 임팩트
    • 테슬라 영상에 속은 느낌을 가질 필요 없음 그 영상은 연출된 것으로 밝혀졌기 때문임 관련 기사: Reuters – 테슬라 자율주행 홍보 영상은 조작 나는 최근 1년간 Waymo를 탑승 중이고 매우 만족스러움 기술이 더 빨리 보급되길 바라지만, 예상 밖의 모서리 문제들이 시간이 오래 걸릴 뿐이지 불가능한 도전이라고 보진 않음
    • 머신러닝은 원래 98%의 케이스에선 탁월했음, 우리는 나머지 2%도 쉽게 해결될 거라 착각함
    • 지나치게 낙관적인 기술들은 대개 데모가 굉장히 인상적이지만, 10,000개의 치명적 예외 상황이 있음 자율주행과 영상의학 판독이 대표적임 예외 케이스가 적을수록 기술은 오히려 예상보다 잘 작동함 예) TikTok 추천, Shazam
    • 나는 대부분의 기차가 아직도 사람이 운전한다는 점이 정말 놀라움
  • 머신러닝과 영상의학 관련 최고의 일화는 다들 코로나 감염자 폐 X-ray 이미지를 AI로 판별하려 경쟁하던 때임 어느 한 연구 그룹이 꽤 괜찮은 판별 성과를 냈지만, 나중엔 데이터셋 속 각기 다른 병원의 이미지 워터마크 폰트 차이를 AI가 학습해 코로나 감염여부가 아니라 ‘폰트’를 구분하고 있었던 것으로 밝혀졌음 참고 논문: Nature Machine Intelligence 논문 검색어: “AI for radiographic COVID-19 detection selects shortcuts over signal” 오픈 액세스 논문도 찾을 수 있음

    • 기침 소리로 코로나 감염을 판별하려는 머신러닝 시도도 본 적 있음 한 종류의 호흡기 질환 환자와 코로나 환자의 기침 소리가 정말 통계적으로 의미있는 차이를 보인다면, 인간 청취자도 쉽게 구분할 수 있었을 텐데 왜 될 거라 믿었는지 이해하지 못했음
    • 이런 일화는 교훈적이지만, 실제 알고리즘 자체의 한계라기보단 잘못된 데이터와 부실한 학습으로 인한 사례임 데이터·방법을 제대로 갖추면 기술적으로 영상의학과를 대체하는 건 어려운 일 아님 제한하는 일반 원리나 명백한 한계가 없는 한, 비전 모델은 이런 업무에 너무 적합하기 때문임
  • 기사의 핵심은 이 세 가지임 1) 모델에 더 많은 작업을 맡기려 하면 법적 규제 걸림 2) 규제당국∙보험사들이 자율 모델을 승인/보상하지 않음 3) 영상의학과의 업무에서 진단이 차지하는 비중이 적음, 환자와 의료진 소통 등 다른 업무가 대부분임 머신러닝 모델이 완벽하게 무료로 진단해도 영상의학과는 당장 ‘대체’될 수 없는 구조임

    • ‘영상의학과의는 진단보다 대부분의 시간을 환자·동료와 소통에 쓴다’는 주장에 동의하지 못함 대다수 영상의학과의는 출근해 검사 이미지를 쭉 읽으며 결과를 녹음하고, 퇴근함 만약 완벽 AI가 나온다면 이 직업 자체가 의미 없게 됨 마치 CCTV만 쳐다보는 일과 같음
    • 완벽 AI가 있다면 영상의학과가 필요 없음 현재는 주치의→방사선기사→영상의학과(판독)→주치의 식이지만, 완벽 AI가 있다면 방사선기사→ML모델→주치의로 흐름이 달라질 것임
    • 나는 엑스레이 받을 때마다 영상의학과와 대화해본 적 없음 대부분 영상을 찍는 기사가 기계만 조작하고, 진단은 원격 영상의학과가 별도로 작성함 그리고 내가 직접 만나는 다른 의사들도 영상의학과와 직접 소통 안 하는 듯함 미국 전역이 이런 구조인지 궁금함
    • 환자와의 소통이 영상의학과 중요업무라는 주장에 질문함 내가 경험한 모든 방사선 검사는 영상의학과와 전혀 소통이 없었음 환자는 별로 마주치지 않고, 동료 의료진과의 소통도 대부분 방사선기사가 할 수 있음 이런 커뮤니케이션에 전문의가 필요하다는 이유가 약함 AI가 판독하면 소통 역할은 간호사나 방사선 기술자에게 넘어갈 수도 있음
  • 오늘만 해도 한 여성 환자를 영상의학과로 핵심 생검 의뢰했고, 남성 환자를 요추 주사, 또 다른 환자를 어깨 주사, 한 달 전엔 다른 여성 내원을 자궁내막증 색전술 의뢰함 앞으로 신장절제술 후 소변 누출 색전술 의뢰까지 할 예정임 이런 시술을 LLM이 할 수 있을까? AI가 한 스킬을 대중화시키면 전문가 집단은 다른 스킬로 전환하고, commoditized된 일은 넘기게 됨 예를 들어 ECG 판독이 기기에 자동화된 후, 보상비가 급감해 나도 의도적으로 이 스킬을 도외시하고 뇌와 운동장애 진료에 집중 중임 그래서 환자가 ECG 해석이 필요하면 그냥 심장내과로 보내고, 다양한 추가 검사를 의뢰하게 됨 환자와 의료시스템에 추가 비용·시간이 들지만 어쩔 수 없음 앞으로는 ‘의료 사막’처럼 AI 전문가가 일하기 싫은 분야가 생길 수 있음, 특히 노인·지방·정신의학처럼

    • 의료시스템의 목적은 의사 고수입 보장이 아니라 환자 치료임 가능한 것은 자동화하고 접근성을 높여야 함 ECG 자동화도 접근성을 넓힘
    • 인터벤션 영상의학은 단순 판독 영상의학과와는 다르고 훨씬 많은 훈련이 필요함
    • 자동 ECG 해석기가 너무 문자적·민감도 낮은 결과만 뱉어서 구급대 현장에서는 전혀 쓸모없는 경우도 많음 기계가 ‘ABNORMAL ECG – EVALUATION NEEDED’만 반복한다면 진짜 제대로 된 도구가 아쉬움
  • 2016년 Geoffrey Hinton 교수가 ‘이제 영상의학과 교육을 중단해야 한다’고 말했음 만약 AI 옹호자들의 모든 주장만 믿었다면 세상은 벌써 무너졌을 것임

    • 이 발언을 자주 언급하지만, 힌튼은 영상의학과가 진단만 하는 게 아니라는 현실을 이해하지 못한 상황에서 즉흥적으로 한 얘기임 힌튼이 진정한 AI ‘찐팬’은 아니고, 오히려 AI 비관론자에 가까움
    • 가령 2016년에 전공의 과정을 시작하면 5년 후 2021년에 수련이 끝나고 31살 즈음임 의사로 약 30년은 일할 것이니, 달력 기준으로 2050년대까지 감 내기엔 충분한 시간임 25년 후면 힌튼의 말도 50%는 맞을 것 같음
    • 만약 의료 규제를 낮추고 AMA를 해체했다면 지금쯤 힌튼의 예언이 맞았을지도 모름 그리고 모두의 삶이 더 나아졌을 수 있음
    • AI가 영상의학을 대체할 가장 큰 장벽이 법률임 수년간 교육받은 직업이 규제에만 매달려 존재하는 건 언제든 법만 바뀌면 날아갈 수 있는 위험한 선택임
    • 미래 예측은 진짜 너무 어려움 20년 후 세상은 아무도 모름
  • 나는 의사이자 풀스택 엔지니어임, 그래서 영상의학과나 추가 수련을 하고 싶지 않음 AI가 영상의학과를 먼저 보강하고, 그 후에 일부 직업은 대체하기 시작할 것임 기존 영상의학과는 인터벤션 영상의학 등 새 영역으로 자연스럽게 옮겨갈 것임

    • 나는 영상의학과 의사이자 풀스택 엔지니어임, 이 직업이 사라질까 걱정하지 않음 변화하겠지만, 다른 직업군과 비슷한 수순이 될 것임
    • 나도 의과대생 출신으로 동의함 내 치과의사의 AI는 이미 임플란트 등 완전히 새 입 모형까지 설계해주고, 최종 마무리만 직접 다듬음 많은 유형의 의료인은 결국 보험·법적 책임만 지는 형태가 될 수도 있다고 생각함 미국 레지던시의 30%가 외국인으로 채워지고 있다는 점도 흥미로움
    • 의사+엔지니어 조합은 정말 드물긴 하지만 이미 내 주변에도 존재함 이런 시각은 의료계에 정말 필요하고, 매우 독특한 장점임 네오와 모르피어스 같은 존재라고 생각함
    • 의사+엔지니어라면 오히려 영상의학에서 큰 미래가 있음, 직업이 사라지진 않을 거고, 오히려 의학-기술 양쪽을 연결할 인재가 필요함
    • 약사의 미래는 어떻게 보는지 궁금함, 내 눈엔 완전히 자동화될 거 같은데 인간의 판단이 진짜 무슨 차이를 내는지 모르겠음
  • 올해 5월 뉴욕타임스도 ‘AI가 영상의학과를 대체하지 않는다’란 비슷한 기사를 냈음 NYT 기사 보기 의사와 힌튼의 발언이 흥미로움 “AI는 보조하고 정량화하며, 기술의 해석적 결론까지 넘기지는 않겠다” “5년 뒤엔 AI를 안 쓰는 게 오히려 의료과오가 될 것” “하지만 결국 인간과 AI가 함께 갈 것” 힌튼도 지나치게 일반화해서 말했다며, 이미지 해석만 얘기한 것이고 방향성은 맞았으나 시기 예측은 틀렸다고 나중에 이메일로 인정함

  • 영상의학과 AI 트랜스포메이션을 의무화해야 함 영상의학과는 매일 일정 비율 이상 AI를 활용해야 하고, 생산성을 두 배로 늘려야 하며, 그렇지 않으면 해고되어야 함 CEO들의 말대로 AI는 우리가 본 것 중 가장 혁신적인 기술이므로, 불안감에 반드시 수용해야 함 그 외는 용납 불가임

    • 이게 진심인지 풍자인지 이제는 구분이 안 됨
  • 나는 영상의학과가 아닌 의사에게 AI 판독 결과 해석을 맡기는 건 신뢰하지 못하겠음 아무리 AI가 벤치마크에서 뛰어나도 직접 분석할 배경지식이 없으면 20페이지짜리 논문을 읽고 신뢰 여부를 따질 수 없는 것과 같음

    • “PhD 수준 연구”의 개념 자체가 너무 모호함 프리프린트, 학회 포스터, WIP 공저 논문, 심사전 논문, 단행본 등 각 단계마다 질이 매우 다름
    • 그럴 땐 다른 딥러닝 기반 연구모델에게 비평을 시켜보면 어떨까 하는 농담도 있음