OpenAI, 모든 ChatGPT 로그를 저장하라는 법원 명령에 강력 반발
(arstechnica.com)- 법원 명령으로 인해 OpenAI가 삭제된 대화 포함, 모든 ChatGPT 사용자 로그를 보관해야 하며, OpenAI는 이 조치가 심각한 프라이버시 침해라고 반박함
- 해당 명령은 저작권 소송 중 증거 보전을 요구한 뉴스사들의 주장에 따라 충분한 근거 없이 즉시 내려진 것이라고 OpenAI는 주장함
- OpenAI는 이 명령으로 인해 수억 명의 사용자의 개인정보와 기업의 비밀 데이터까지 보관하게 되어, 글로벌 프라이버시 규정 위반 위험과 엔지니어링 부담을 경고함
- 명령 시행 이후 사용자는 삭제한 대화, 임시 대화 등도 강제로 영구 저장되며, 이에 대한 강한 불안감과 우려가 SNS 등에서 확산됨
- OpenAI는 사용자의 데이터 통제 권한과 프라이버시 보호를 위해 명령의 철회를 재차 요청하며, 법적 투쟁을 계속할 것임을 밝힘
“심각하게 개인적인” 데이터 보관 명령에 대한 OpenAI의 반발
법원 명령의 배경과 주요 쟁점
- OpenAI는 수백만 ChatGPT 사용자의 프라이버시 보호를 위해 법원에 항의하며, 모든 사용자 로그(삭제 대화 및 API 대화 포함) 저장 명령에 대해 강하게 반발함
- 해당 명령은 저작권 침해 소송 과정에서 뉴스사 측이 OpenAI가 증거를 파기하고 있다고 주장하면서 내려졌으며, OpenAI는 명령이 충분한 사실 확인이나 소명 없이 급하게 결정되었다고 지적함
- 소송 원고 측은 ChatGPT로 유료 뉴스기사 우회 접근 시, 사용자가 흔적을 지우기 위해 대화를 삭제할 것이라고 주장했으나, 실제로 해당 주장을 뒷받침하는 증거는 제시되지 않음
- 법원은 이러한 추정에 근거해 OpenAI가 앞으로 모든 대화 로그(삭제 포함)를 별도 보관하도록 명령했고, OpenAI는 이 조치가 사용자의 데이터 통제권 침해 및 글로벌 프라이버시 법 위반 위험을 높인다고 경고함
OpenAI의 주장 및 법적 대응
- OpenAI는 이례적으로 광범위한 이번 보존 명령이 사용자의 프라이버시 권리를 침해하며, 사용자가 언제 어떻게 자신의 데이터를 보관할지 스스로 선택할 수 있어야 한다고 강조함
- 법원 명령이 내려지기 전까지, OpenAI는 사용자가 직접 대화를 삭제하거나 임시 대화 기능을 쓸 경우, 해당 대화는 시스템에서 30일 내 완전 삭제되는 구조였음
- 그러나 이번 명령으로 인해 모든 삭제 요청 및 임시 대화까지 강제로 저장해야 하는 상황이 되어, 수억 명의 사용자 개인정보와 기업 API 데이터(비밀 정보 포함)가 장기 보관됨
- OpenAI는 프라이버시 우려와 더불어, 명령 이행을 위해 엔지니어링 리소스와 막대한 비용이 발생함을 지적하며, 뉴스사 측의 추정적 이익보다 OpenAI 및 사용자 피해가 훨씬 크다고 주장함
- OpenAI는 법원의 구두 심리를 요청하며, 명령 철회(즉각적 취소)를 요구함
사용자 및 업계 반응
- 명령 시행 사실이 알려지자, 수많은 사용자와 기업 고객이 소셜미디어(LinkedIn, X 등)에서 불안감을 표출함
- 일부 전문가는 해당 명령이 “모든 OpenAI 기업 고객에 대한 심각한 계약 위반”이 될 수 있으며, API를 통해 비밀 데이터를 다루는 기업은 더 큰 보안 리스크에 노출된다고 경고함
- SNS상에서는 “OpenAI를 통한 AI 서비스는 모두 프라이버시 위협에 노출됐다”, “대안 서비스(Mistral AI, Google Gemini 등)로 전환 권고” 등의 의견이 확산됨
- 한 보안 전문가는 “이런 명령은 용납할 수 없는 보안 위험”이라 평가함
- “Wang 판사는 NYT의 저작권 논리가 OpenAI 모든 사용자의 프라이버시보다 우선한다고 생각한다—미친 일”이라는 비판도 등장함
OpenAI의 정책과 미래 전망
- OpenAI는 기존에 사용자 데이터 보관 정책을 엄격히 지키고, 계정 삭제 시 30일 내 전체 대화 내역을 삭제해왔음
- 법원 명령으로 인해 기존 데이터 관리·삭제 프로세스가 한순간에 무력화되었고, 사용자는 더 이상 자신의 데이터가 안전하게 삭제된다는 신뢰를 갖기 어려운 상황임
- OpenAI는 법적 투쟁을 계속할 방침이며, 명령의 부당성과 실제 피해를 적극적으로 알릴 계획임
Hacker News 의견
-
GPT 모델을 API로 사용할 때도 같은 위험성 존재함에 주목함
ChatGPT Free, Plus, Pro 이용자와 API 사용자 모두에게 이 위험이 확장된다고 OpenAI에서 언급함
이런 상황은 OpenAI 비즈니스에 매우 불리한 현상이라는 생각임-
이건 머지않아 모든 AI 회사들이 겪을 문제라고 생각함
모두가 직접 모델을 호스팅하는 환경으로 바뀌지 않는 이상, SaaS같은 비즈니스 모델에선 수익성을 고려할 때 사용자의 프라이버시 보호가 크게 중요하지 않은 현실임
솔직히 대부분의 사람들은 이미 인터넷에서 프라이버시란 게 없다는 사실에 익숙해진 상태임
다만 폐쇄형 소스 코드나 보안 관련 데이터를 신뢰를 바탕으로 맡길 기업이나 사람들은 상당히 타격을 입을 수밖에 없음
근데 그런 부분은 애초에 어느 업체에도 외주를 주면 안 된다는 입장임 -
이미 자리를 잡은 기업들은 이번 이슈로 기존 계약, 규정, 리스크 허용 범위를 재검토해야 하는 필요성 있음
ChatGPT 기반 서비스의 래퍼 스타트업들도 프라이버시 정책을 재점검하고, 사용자가 프라이버시를 포기하고 있다는 사실을 명확히 밝혀둘 필요 있음 -
내가 도입했던 모든 GPT 통합은 Azure 서비스를 통한 이유가 내 데이터로 학습하지 않겠다는 계약상의 의무 때문임
내가 이해하기론 Azure 서비스, 즉 Microsoft에는 이번 판결이 적용되지 않는 걸로 알고 있음 -
만약 너가 독점 코드를 다뤘던 상황이면, 클라우드 LLM은 애초에 사용하면 안 됐던 셈이고, 이번 이슈로 그 사실이 더 명확해진 느낌임
-
어떻게 비즈니스에 타격이냐는 질문에 대해, 이것은 법적 리스크 대비로 데이터를 보관하는 조치이지, 훈련 목적으로 쓰기 위한 게 아님을 강조함
다른 기업들과의 계약에서도 데이터를 학습에 사용하지 않는다는 조건을 계약상에 명시할 수 있다고 생각함
-
-
더 자세한 배경 기사를 여기에서 확인 가능함
-
이 링크가 실제 자료원임
해당 글로 링크를 업데이트하는 게 좋을 듯함 -
기사 밑에 달린 댓글들이 정말 웃긴 분위기라 소개함
저작권 옹호자들을 반AI 진영으로 그리며 풍자하는 느낌임
개인적으로 OpenAI가 남의 콘텐츠를 대하는 안하무인 태도는 별로 좋아하지 않지만, 한편으로 저작권자도 지나치게 강한 요구를 하는 것은 공감하기 어려움
생성형 AI와 훈련 문제는 현행 지식재산권법의 시대착오적 요소를 극명하게 드러낸다고 봄
앞으로 변화가 필요하지만 그 변화가 대기업이나 부자들만 유리하게 가선 안 되고, 평범한 사람들에게 도움이 되어야 한다고 생각함 -
LLM의 저작권 침해에 대체로 비판적인 입장이지만, 이번 판결의 논리 전개 방식은 다소 이상하게 느껴짐
판사가 hypothetical로 ChatGPT를 통해 어떤 사용자가 유료벽을 우회해서 New York Times 콘텐츠를 뽑아내고, 이후 사건을 알게 된 뒤 자신이 내보낸 기록 모두를 삭제해 달라고 요구하면 판결의 취지를 회피하는 게 아니냐는 지적임
사실 이런 판결이 나왔다는 걸 들으면 사용자는 그 기간 동안 조심하게 되지 않을까 하는 의문이 듦 -
OpenAI가 이제는 사용자가 대화 내역을 삭제하거나 Temporary Chat 기능으로 임시 대화를 해도, 법적 명령 때문에 로그를 남겨야 하는 상황이 평범한 웹브라우저 이력과 다를 게 뭐냐는 비판임
Safari가 사용자가 지운 기록까지 무조건 저장해야 하는 등, 왜 OpenAI만 특별히 강제되는지 의아함
-
-
더 나은 기사 링크를 스레드에 제시함
아르스 테크니카 원문 기사 링크임
단순 Mastodon 게시글이 아니라 실제 정보가 담긴 기사를 참고해야 한다고 덧붙임 -
최근 Hacker News에서 LLM의 장점이나 단점을 논하는 개인적인 칼럼이 여럿 올라오는데, 프라이버시 문제는 전혀 언급하지 않는 경향이 있음
내가 LLM을 활용하거나 소스 코드를 Prompt 창에 붙이지 않는 핵심 이유는 프라이버시 때문임
우리 회사는 NDA와 ITAR 같은 정부 규제 때문에 코드가 서버 밖으로 나가면 바로 규정 위반임
이번 이슈는 프라이버시가 LLM의 아킬레스건임을 보여줌
LLM이 온프레미스 형태로 자리잡기 전엔 이 문제에서 자유로울 수 없음- 자기 서버에 LLM을 직접 호스팅하는 방법도 있으니, 이런 고민 해결에는 완전한 자가관리 방식이 정답임
아주 쉽고 간단하게 직접 LLM을 구축할 수 있음
- 자기 서버에 LLM을 직접 호스팅하는 방법도 있으니, 이런 고민 해결에는 완전한 자가관리 방식이 정답임
-
OpenAI가 데이터를 서버에 저장할 수밖에 없는 상황은, 소송 중인 기업들의 법무팀이 Discovery(문서제출명령) 절차에서 사용자와 ChatGPT의 대화 내역을 볼 수 있게 되는 상황으로 이어짐
예를 들어 NYT의 변호사들이 법정에서 당사자의 프라이빗한 대화를 근거 자료로 읽게 될 수 있음-
차라리 대화 로그를 익명화해서 보관하는 것이 해법이 될 수 있다는 의견임
OpenAI가 기술적으로 익명화 작업을 할 수도 있는데, 이 부분이 최적의 해결책으로 보임 -
이런 데이터는 Spectra TFinity ExaScale 라이브러리와 같은 테이프 스토리지 기반 솔루션, 혹은 AWS Glacier 등과 같이 깊게 아카이빙하는 시스템에 백업할 수 있음
데이터 복구에 시간이 몇 시간~몇 일이 걸리는 이러한 구조라면 법원 명령도 지키고, 비용도 저렴하게 맞출 수 있으며
대규모 정보 유출 시에도 오랜 시간과 노력을 들여야 훔칠 수 있어 탐지와 방어에 유리함 -
이제 미국 내 모든 클라우드 기반 AI와 주고받는 챗/API 콜은 모두 법적 검색 대상임을 전제로 의심해야 함
만약 이게 감당 안 되는 리스크라면 로컬 LLM으로 전환을 진지하게 고려해야 함
-
-
Times 같은 매체가 어떻게 사용자의 데이터를 볼 수 있는 권리를 가지게 되는지 의문임
결국 이런 판결로 신문사 측이 사용자의 데이터를 들여다보게 되는 상황임 -
이 법원 명령은 한 곳 이상의 관할권에서 프라이버시 법률 위반 소지가 있고, OpenAI가 기존 고객들과 맺은 계약을 어기게 될 가능성도 존재함
-
기존 계약은 법원이 명령을 내리는 것에 아무런 영향을 주지 못한다는 설명임
법적 명령이 최우선임 -
이번 명령 자체가 새로운 프라이버시법 위반을 추가로 만드는 건 아님
애초에 데이터를 보관하고 제3자에 제공하는 것 자체가 위반이었음 -
이 명령이 실제로는 5월 13일 자로 소급 적용되고 있음
OpenAI가 지금까지 사용자에게 별도 메일 등으로 이 사실을 알리지 않은 이유가 사업상 악영향 때문이라는 느낌임
하지만, 사용자 신뢰를 명백히 저버린 행동으로 느껴짐
-
-
ChatGPT API를 통해 민감한 데이터를 주고받던 기업들이 입력, 출력 데이터가 저장되지 않는다는 설명을 믿었을 텐데
실제로는 OpenAI가 설정만 바꿔 버리면 데이터를 남길 수 있는 상황임
별도 공지가 갔던 건지, 아니면 다들 언론 보도를 통해서야 이 사실을 알게 된 건지 궁금함 -
원글 링크가 트래픽 과부하(HN hug of death)로 접속이 안 됐는데 Wayback Machine에서 읽는 데 성공함
Mastodon 개인 인스턴스여서 방문자가 급증하면 과부하 걸리는 게 이해됨