ChatGPT 이용약관, "타인에게 맞춤형 법률·의료 조언 제공 금지" 명시
(ctvnews.ca)- OpenAI는 최근 "ChatGPT로 이제 법률/의료 조언을 받을수 없게 된다" 고 해석된 약관 변경에 대해 법률 및 의학적 조언에 대한 조건을 바꾼 적이 없다고 해명함
- 10월 29일 사용 정책 업데이트는, 전문 면허가 필요한 조언(법률·의료 등)은 면허 소지자의 적절한 개입 없이 제공될 수 없음을 명시한 것
- 2025년 1월 29일 이전 정책에서도 타인의 안전·복지·권리에 중대한 영향을 미칠 수 있는 활동을 제한했으며, 맞춤형 법률·의료·재정 조언 제공을 포함하고 있었음
OpenAI의 정책 명확화
- OpenAI는 ChatGPT가 전문 법률·의료 조언을 대체하지 않는다고 밝히며, 관련 약관 변경이 새 내용이 아님을 명확히 함
- CTVNews에 보낸 성명에서 “이는 새로운 변경이 아니며, ChatGPT는 여전히 법률 및 건강 정보를 이해하는 데 유용한 자원”이라고 언급
- 10월 29일 사용 정책 업데이트에서, 면허가 필요한 맞춤형 조언(법률·의료 등) 은 면허 소지 전문가의 적절한 개입 없이 제공할 수 없다고 명시
- 이는 2025년 1월 29일 정책의 표현보다 더 명확하게 규정된 형태임
- 당시 정책은 타인의 안전·복지·권리에 중대한 영향을 미칠 수 있는 활동을 수행하거나 조장하지 말 것을 요구했으며, 여기에는 맞춤형 법률·의료·재정 조언 제공 금지가 포함됨
- OpenAI는 “모델의 동작 역시 변경되지 않았다” 고 밝히며, 기존 정책의 연속성을 강조
ChatGPT의 의료 정보 활용과 한계
- ChatGPT는 건강 문제에 대한 답을 찾는 캐나다인들에게 널리 사용되는 도구로 자리잡음
- 워털루대학교 연구팀은 의학 자격시험 시나리오를 변형한 질문을 ChatGPT-4에 제시해 성능을 평가
- 결과적으로 정확한 답변은 31% , 명확한 답변은 34% 로 나타남
- 브리티시컬럼비아대학교의 또 다른 연구에서는 ChatGPT의 공감적 표현이 실제 사람보다 설득력이 높게 인식됨을 발견
- 비록 부정확한 정보라도 자신감 있고 신뢰감 있는 어조로 제시되어 사용자가 오류를 구별하기 어려움
- 의사들은 AI 도구의 조언을 신뢰한 환자들이 이미 결론을 내린 상태로 진료에 임하는 상황을 경험 중
기사 정정 공지
- 기사 초기 버전은 OpenAI가 의료·법률 조언 기능을 중단했다고 서술했으나,
- OpenAI는 “모델의 동작은 변경되지 않았다”고 밝혀 이를 정정함
Hacker News 의견
-
나는 이 내용을 “ChatGPT에게 의료나 법률 질문을 직접 못 한다”는 의미가 아니라, “ChatGPT를 기반으로 다른 사람에게 의료·법률 조언을 제공하는 서비스를 만들 수 없다”는 뜻으로 읽었음
예를 들어, Epic이 자사 앱에 ChatGPT를 넣어 환자 서류를 대신 읽게 할 수는 없음. 하지만 개인이 ChatGPT에게 직접 묻는 건 가능함
다만 기사에서 인용된 이용약관 조항은 아직 직접 찾지 못했음- 참고로 여기서 말하는 Epic은 게임사가 아니라 미국 병원에서 널리 쓰이는 전자건강기록(EHR) 시스템 회사임
- “ChatGPT 위에 뭔가를 만든다”는 표현이 헷갈림. ChatGPT 자체에 API가 있는 건 아니고, OpenAI의 GPT-5 API를 사용하는 것임
기자가 ChatGPT와 GPT API를 혼동한 듯함. 실제 약관은 OpenAI 이용약관에 통합되어 있음
관련 문구는 “개인에 대한 법적·의료적·재정적 결정 등 중대한 영향을 미칠 수 있는 용도로 출력물을 사용하지 말라”는 조항임 - 결국 단순히 법적 책임 회피를 위한 조치로 보임
GPT가 법률·의료 시험을 통과했다는 홍보가 많았던 만큼, 실제 조언으로 인한 문제 발생 시 책임을 피하기 위한 장치로 해석됨
Epic 같은 회사가 이런 기능을 넣으려면 “AI 생성 결과이며 법적 조언이 아님” 같은 면책 문구를 붙여야 할 것임 - OpenAI는 도구의 유용성을 완전히 제한하지 않으면서도 책임을 최소화하려는 것으로 보임
- 이런 정책은 오히려 합리적이라 생각함. ChatGPT의 출력을 그대로 의료·법률 조언으로 포장해 돈을 받는 건 사기 행위에 가까움
나처럼 ChatGPT의 의견을 참고하고 싶으면 직접 물어보면 됨. 이를 재포장해 판매하는 건 사용자 기만임
-
진짜 문제는 정책 변화가 아니라, AI가 신뢰감 있게 말하는 능력이 실제 정확도보다 빠르게 발전한 점임
그래서 틀린 답변도 전문가처럼 들리고, 사람들은 그 자신감 있는 어조에 끌려 신뢰하게 됨
특히 의료·법률처럼 결과가 중요한 분야에서는 이 확신과 정확도의 괴리가 가장 큰 위험 요소임 -
ChatGPT를 심리상담사처럼 사용하는 사람들을 여러 번 봤음. 자가진단까지 하는 경우도 있음
웃기지만 실제로는 매우 위험함. 모델은 항상 긍정적으로 맞장구치기 때문에 사용자가 잘못된 방향으로 빠지기 쉬움
이런 사례는 결국 소송으로 이어질 가능성이 높음- 나는 정신건강 전문가용 AI 도구를 만드는 회사에서 일하고 있음. 모델의 출력은 절대 환자에게 직접 전달되지 않음
실제로 LLM 조언으로 인해 자살 시도나 심각한 피해가 발생한 사례를 들었음
혹시 주변에 이런 식으로 LLM을 사용하는 사람이 있다면 반드시 전문가의 도움을 받도록 권유해주길 바람 - 물론 이런 현상은 새롭지 않음. 예전부터 사람들은 Google 검색으로 자가진단을 해왔음
ChatGPT는 단지 그 과정을 더 쉽게 만든 것뿐임. 근본적으로는 의료 접근성 문제가 원인임 - 전문가를 신뢰하자는 데 동의함. WebMD에 증상을 넣어보면 항상 암이라고 나오는 농담처럼, 자가진단의 한계는 명확함
- LLM의 기본 성향이 도움을 주고 동의하려는 태도라서, 정신건강 문제에는 오히려 역효과를 낼 수 있음
- 이런 행동 자체가 정신적 문제의 신호일 가능성도 있음
- 나는 정신건강 전문가용 AI 도구를 만드는 회사에서 일하고 있음. 모델의 출력은 절대 환자에게 직접 전달되지 않음
-
OpenAI가 타인의 저작권이나 IP는 신경 안 쓰면서 자기 약관만 강조하는 게 아이러니하게 느껴짐
- “인터넷에 오신 걸 환영함”이라며 Bo Burnham의 노래 링크를 유머러스하게 공유함
(Welcome to the Internet, Jeff Bezos Song) - 남의 것을 통제하고 이익을 얻는 게 도둑의 본질이라는 냉소적 반응도 있음
- 하지만 어떤 사람은 이런 분노를 이해하지 못함. 인터넷에 공개된 정보를 학습에 쓴 건 단순히 읽고 배운 것일 뿐이라 주장함
결국 약관은 책임 회피용일 뿐이며, 사용자가 잘못 써서 문제가 생겨도 OpenAI를 소송하지 못하게 하려는 장치라고 봄
- “인터넷에 오신 걸 환영함”이라며 Bo Burnham의 노래 링크를 유머러스하게 공유함
-
언젠가 이런 규제가 나올 거라 예상했음
앞으로는 “HippocraticGPT 인증” 같은 제도를 만들어, 의료·법률용으로 안전하게 쓸 수 있는 버전을 판매할 듯함
이렇게 하면 기업용 라이선스로 수익화가 가능함- 실제로 그렇게 되어야 함. 의사 면허처럼 AI 사용 자격 인증이 필요함
내가 일하는 회사도 전문가용 도구만 제공함. 환자는 모델의 출력을 직접 보지 않음
이는 더 나은 치료가 아니라 더 효율적인 치료를 위한 것임 - 농담처럼 “건강 질문을 하려면 처방전이 필요할지도 모른다”고 말함
- 이런 규제가 OpenAI만이 아니라 모든 AI 기업에 적용되어야 한다는 의견도 있음
- 실제로 그렇게 되어야 함. 의사 면허처럼 AI 사용 자격 인증이 필요함
-
기사 내용이 수정되어 “OpenAI가 의료·법률 조언을 금지한 게 아니라, 모델의 동작은 변하지 않았다”고 정정되었음
원문은 CTV News 기사에서 확인 가능함- 이를 “마케팅의 걸작”이라 표현함
-
작년에 ChatGPT 덕분에 뇌졸중을 피할 수 있었다고 말함. LLM이 의료 정보 제공에 큰 도움이 되었다고 느낌
- 하지만 “항상 도움이 된다”기보단 때로는 유익하고 때로는 해로움이라는 반론이 있음
비결정적 시스템이기 때문에 순간마다 결과가 다름 - 한 사용자는 “개인 경험 하나로 일반화하는 건 오류”라며, ChatGPT가 의사나 응급전화의 대체가 될 만큼 정확하지 않다고 지적함
그래도 무사해서 다행이라고 덧붙임 - 다른 사람은 “그럴 상황이면 그냥 911이나 주치의에게 전화했어야 한다”고 묻기도 함
- 하지만 “항상 도움이 된다”기보단 때로는 유익하고 때로는 해로움이라는 반론이 있음
-
최근 OpenAI Dev Day에서 의료 진단 보조 사례를 무대에서 소개했었는데, 이번 정책은 그 법적 리스크가 너무 커서 나온 듯함
- 아마도 의사·병원·보험사 등 확실한 고객층을 대상으로 검증된 버전을 판매하려는 전략일 것임
-
앞으로 OpenAI가 의사나 변호사 전용 제품을 내놓을 가능성이 높다고 봄
일반 ChatGPT에서 법률·의료 조언을 금지하면 가격 차별화가 가능해짐- 결국 이런 직업군은 AI 의존적 구조로 갈 수밖에 없다고 봄
-
GDPval 논문 3장에서 “전문가와 협력해 증강한다”는 마케팅 전략이 명시되어 있음
다만 장기적으로는 규제가 완화되면 전문가 대체로 이어질 수도 있음 - 실제로 내 병원에서도 AI가 진료 요약과 기록 작성에 쓰이고 있음
- OpenEvidence 같은 서비스는 NPI 보유자라면 무료로 이용 가능함
-
나는 이번 조항을 “잘못된 의료·법률 조언으로 인한 소송을 금지한다”는 의미로 읽었음
- 누군가에게 법률 자문을 팔면서 실제로는 ChatGPT 출력을 그대로 줬다면, 그건 OpenAI의 책임이 아님
이번 조항은 단지 “ChatGPT 기반 AI 변호사 서비스”처럼 포장하지 말라는 명확화임
- 누군가에게 법률 자문을 팔면서 실제로는 ChatGPT 출력을 그대로 줬다면, 그건 OpenAI의 책임이 아님