1P by GN⁺ 4일전 | ★ favorite | 댓글 1개
  • Anthropic이 소비자용 이용약관개인정보 처리방침을 업데이트함
  • 사용자는 자신의 데이터를 모델 개선에 활용 허용 여부를 직접 선택할 수 있게 변경됨
  • Claude Free, Pro, Max 플랜에 적용되며, 기존 상업용 서비스 및 API 사용자는 제외
  • 데이터 제공을 허용하면 모델 안전성 강화와 향후 모델의 코딩 등 기능 향상에 기여할 수 있음
  • 데이터 활용 동의 및 기간, 변경 사항 등은 설정에서 언제든지 관리 가능

업데이트 주요 내용

  • Anthropic은 Claude AI의 성능 향상과 사용자 보호 강화를 위해 소비자 이용약관 및 개인정보 처리방침을 업데이트함
  • 사용자는 자신의 데이터를 Claude의 모델 개선 및 안전장치 강화를 위해 제공할 것인지 선택 가능함
  • 환경설정에서 언제든지 데이터 제공 여부를 조정 가능

적용 대상 및 예외

  • 이번 업데이트는 Claude Free, Pro, Max 플랜 및 해당 플랜의 Claude Code 이용자에게만 적용됨
  • 상업용 약관 아래의 서비스, 즉 Claude for Work, Claude Gov, Claude for Education, API 이용(타사 경유 포함, 예: Amazon Bedrock, Google Cloud Vertex AI)에는 적용되지 않음

데이터 사용 동의의 영향

  • 데이터 제공에 동의할 경우, 모델의 안전성 향상과 함께 피해·오용 방지 시스템의 정밀도가 증가함
  • 코딩·분석·추론 등 미래 Claude 모델의 다양한 실력 향상에 기여할 수 있음
  • 본 설정은 항상 사용자가 직접 제어 가능하며, 신규 가입 시 또는 기존 사용자는 팝업 창을 통해 옵션을 선택할 수 있음

알림 및 효력 발생

  • 앱 내 알림을 통해 사용자에게 업데이트 사항과 설정 변경의 기회를 안내함
  • 기존 사용자는 2025년 9월 28일까지 약관 동의 및 데이터 제공 여부를 결정할 수 있음
  • 동의 시 즉시 새로운 정책이 적용되며, 신규 또는 재개된 대화나 코딩 세션에만 적용
  • 2025년 9월 28일 이후에는 설정을 직접 선택해야 계속 Claude를 사용할 수 있음
  • Privacy Settings에서 옵션 변경 가능함

데이터 보관 기간 연장

  • 모델 훈련에 데이터 제공 동의 시 데이터 보관 기간이 5년으로 연장됨
  • 이 보관 연장은 신규/재개된 대화 및 코딩 세션에만 적용되며, 모델 개선 및 안전성 향상에 활용
  • 대화를 삭제할 경우, 해당 데이터는 향후 모델 훈련에 사용되지 않음
  • 데이터 제공에 동의하지 않을 경우, 기존 30일 보관 정책이 유지됨

피드백 데이터 처리

  • 사용자 피드백 역시 5년 보관 정책이 적용됨

개인정보 보호 및 데이터 처리 방식

  • Anthropic은 민감한 데이터를 자동화된 도구와 프로세스로 필터링/가명처리하여 사용자 프라이버시를 보호
  • 사용자의 데이터는 제3자에게 판매되지 않음

추가 정보

  • 소비자 이용약관 및 개인정보 처리방침의 자세한 변경 사항은 FAQ 섹션에서 확인 가능함
Hacker News 의견
  • 사용자가 실제로는 도움을 받은 뒤에도 매번 불만족한 피드백을 남기거나, 악의적으로 대화를 파괴적인 방향으로 유도한 뒤 매우 긍정적인 피드백을 남기는 등, 미래 학습 데이터셋을 오염시킬 수 있을지 궁금함

  • 기본값이 opt-in인 것처럼 표시하면서도 사실상 opt-out 방식으로, 단순한 약관 업데이트인 듯한 프롬프트로 유도하는 점이 마음에 들지 않음, 5년간 데이터 보존도 과하다고 생각함, 새로운 약관에 문제 되는 내용이 더 없는지 의심됨, 결국 이게 계기가 되어 구독을 취소함

    • Anthropic의 다른 모든 설정에서는 스위치가 활성화되면 파란색, 비활성화면 검은색이지만, 이번 변경 안내 상자에서만 슬라이더가 두 상태 모두 회색임을 발견함, 환경설정에 가서 차이를 직접 보면 알 수 있음, 누군가 고의적으로 이렇게 만든 것 같아 실망스러움과 동시에 약간 씁쓸함
    • “opt-in by default”라는 표현에 태클을 걸고 싶음, 사실상 “opt-out”이 맞음, opt-out 설정이 기본값임
    • “5년 보존”이라는 부분을 언급함, 한 번 모델에 학습되면 영원히 남는 것임
    • 실제로 걱정되는 건 5년 보존임, 앞으로 5년 동안 그들이 계속 약관을 변경하고 opt-out 옵션을 재제시하면, 한 번만 실수로 클릭해도 모든 데이터를 가져가게 됨, 나중에는 opt-out 자체를 없앨 수도 있음, 4년 364일 후 약관 바꾸고 10년 보존으로 늘릴 수도 있음, 그때쯤이면 프라이버시는 이미 크게 약화되어 이런 옵션이 아예 실재하지 않는다는 사실 자체를 눈치채는 사람도 없을 것임
    • 앱을 열었을 때 변경 안내 팝업과 함께 opt-out 옵션이 떴음, 투명함 측면에서는 괜찮아 보임
  • Claude가 나의 수학 연구를 도와주는 중임, 대화하면서 아직 발표되지 않은 연구 아이디어를 Claude에게 전달하면, 이후 Claude가 다른 사람에게 똑같은 아이디어를 추천해주고 그 사람이 그걸 자기 아이디어라고 믿는 상황이 걱정임, 상업 계정뿐만 아니라 개인도 AI를 이용한 지식 개발에서 프라이버시가 꼭 필요하다고 느꼈음

    • Claude가 결국 다른 사람의 작업을 도운 셈 아니냐는 질문을 받음, Claude는 본인의 채팅 외에는 학습 데이터 외에 아는 게 없기에, 이런 현상은 클래식한 AI 메커니즘임
    • AI를 거대한 연관성 엔진처럼 바라봄, 수학 연구에서 “아무도 생각하지 않은 아이디어”와 “누군가는 이미 생각한 아이디어”를 구분하는 건 원래 오래 걸렸음, 이제는 인터넷, MathSciNet, ArXiv 등을 거치면서 키워드를 찾아내는 반복 과정이 많았는데, AI에서는 6개월 넘게 희귀한 답을 얻는 프롬프트를 찾아내는 학습에 투자함, AI의 일반화 능력이 오히려 혼란을 줌, 가령 가장 참신해 보일 때가 사실은 이전에 다들 생각하고 있던 부분을 연결해주는 것이라 역설적임, 적절하게 프롬프트를 짜면 AI 역시 이런 식으로 아이디어를 연결해줄 수 있음
    • 새 약관 관련 팝업에서 opt-out을 선택하면, 내 채팅은 학습에 사용되지 않음
    • 정말 참신한 작업이면, 이런 모델에서 이후에 등장할 확률이 매우 낮음, 이런 시스템은 본질적으로 많은 사람이 공유하는 데이터를 기반으로 일반화된 출력을 내놓으므로, 개념이 학습 데이터에서 아주 흔해야 인퍼런스에서 출력됨, 실제론 혁신과 프라이버시 모두를 지키는 구조임, 어느 정도 대중화된 개념이라면 공개 지식에 포함될 자격도 충분함(IP 문제를 제외하고)
    • AI 기업이 실제로 소유하지 않은 인간 지식을 어디까지 활용할 것인지 경계가 흐릿함, 어쩌면 아예 경계가 그어지지 않았을 가능성도 생각됨
  • 예상할 만한 일임, 주요 플레이어들은 이미 인터넷 전체와 (소송까지 불러온) 도용된 콘텐츠까지 거의 모든 데이터로 학습하는 한계에 봉착함, 최근 몇 년간 모델 아키텍처에서 큰 혁신이 없어서, 이제 더 많은 학습 데이터를 두고 전쟁 중임, 결국엔 사용자 데이터에까지 손을 뻗으며 점점 미심쩍은 수단까지 동원하려 듦

    • 수백 명의 데이터 브로커들도 사용자 데이터를 원하지만, AI 회사는 사용자들이 매일 자발적으로 데이터를 제공하는 이미 구축된 채널이 있음, 이들은 다크 패턴의 약관 변경과 미미한 PR 관리만 필요함, 이런 논란은 1주일이면 모두 잊힐 것임
    • 최근 AI 모델들이 자작 데이터를 학습하면서 품질 하락을 겪는 게 흥미로움, 좀 더 신중하게 사람+AI 콘텐츠를 분리하거나 출판사와 계약을 맺었다면 상황이 달라졌을 수도 있음, 하지만 다들 조급하게 모든 데이터를 긁어모으느라 결국 모두가 피해를 봄
    • “도용” 여부가 논란이 아니라, 법정에서 스스로 불법 복제 사실을 인정함
    • AI 기업에게 데이터는 광고업계보다 훨씬 강력한 금광임, 생존에 필수 요소임, AI와 광고업이 만나는 곳에서 나올 비윤리적 행태가 진짜 문제임, Google이나 Facebook도 이미 각 데이터 플랫폼을 서로 연동 중일 것으로 추정함, 이게 공공연하게 허용되는 날이면 어떤 활용 케이스가 나올지 기대 반, 걱정 반임
    • 이런 사례 자체가 더 강력한 규제와 안전장치의 필요성을 보여줌
  • 많은 사람이 놀라지 않지만, 개인적으로는 상당히 충격적임, 예를 들어 Google이 사용자의 Gmail 본문을 검색 결과에 올리진 않듯, 이런 행위는 자해적인 사업 결정이라 생각함, 내가 뭔가를 놓치고 있나 싶음

    • Gmail도 2017년까지 수년간 이메일을 분석해 광고를 송출한 적 있음 링크
    • 해당 정책 변경은 업무용, 교육용 Claude 계정에는 적용되지 않고 기존 프라이버시 보호가 유지된다는 점을 기사 링크 덕분에 알게 됨, 사실상 무료 또는 비상업적 계정은 Anthropic 입장에서 돈이 되지 않아 덜 신경쓰는 집단임, 이번 결정으로 이런 “공짜 이용자” 유입을 줄이고자 함, 조만간 “여러분의 의견을 경청해 프라이버시 중심 상품을 새로 출시합니다, 월 30불만 내세요” 같은 발표가 나올 것이라고 예상함
    • 이런 데이터는 강화학습에 매우 유용함, 타사도 모두 하고 있음, 게다가 필요하면 opt-out도 가능함
    • 반응이 놀라움이라는 프레임 자체가 이상함, 다들 예측하던 일임
    • Google은 이메일을 심층적으로 채굴하여 마케팅이나 정부 전송 등 다양한 목적으로 활용함, 그러나 이메일 본문을 검색 결과에 올리는 것과 Claude가 학습에 사용하는 것은 다름, 이 행위로 Google은 큰 처벌을 받지 않았음
  • 사실 그동안 AI가 사용자와의 상호작용에서 전혀 학습하지 못한다는 점, 특히 같은 실수를 반복한다는 부분이 답답했고, 이번 변경이 이제서야 이루어진 게 놀라움

    • 실시간 학습은 일어나지 않음, 내 데이터가 즉각적으로 반영되는 것도 아님, 학습용 데이터는 여전히 모델 훈련(여러 달 걸리는 작업)에 사용됨, 한두 명의 데이터가 대부분의 이용자 흐름에서 큰 영향을 미치지 않음, 특정한 내 작업 방식이 반영되는 것보다 여러 사용자에 공통적인 것만 학습 효과를 냄
    • 상호작용 자체에서 많은 걸 학습하지 못함, 평가지표 역시 개별 사용자가 아니라 글로벌 기준 중심이어서 서비스가 점점 평범해질 뿐임
    • 같은 구독료에 더 많은 데이터를 얻으려는 전략임, 할인이나 환불 가능성은 낮음
  • 많은 사람이 반대 입장이라면, 나는 오히려 긍정적으로 봄, LLM이 과거 대화를 학습하도록 허용하면 모형 발전에 매우 중요함, 장기적으로는 소수 기업에 집단 지식이 집중되는 것이 위험할 수 있다고 인식함, 그래서 궁극적으로는 개별 조직이나 개인이 자체적으로 모델을 운영하고 학습하는 “자체 보관(self custody)” 방식이 유일한 해법이 될 것 같음, 물론 비용은 상당히 많이 내려가야 현실화 가능함

    • 상호성만 있다면 이 방식이 좋을 거라 생각함, 그런데 내가 매달 20달러를 내고 있는데 학습 데이터는 무료로 Anthropic에 제공해야 한다는 게 불합리함
    • “모두 함께 LLM을 발전시킨다”기보단 결국 단일 LLM(Claude)을 위한 학습 데이터 제공임이 빠졌다고 생각함
    • 기업의 소스코드, 시나리오, 건강·금융정보 등 민감 데이터를 학습시킨다면 위험이 커짐
    • LLM이 크게 발전하지 않아도 괜찮다고 생각함
    • 오히려 LLM이 더 좋아져도 대부분 사용자에게 실질적 이득이 클지 불확실함, 전체적으로는 오히려 손해일 가능성도 보임
  • 이제서야 정책이 바뀐 게 오히려 더 나쁨, 나는 이미 내 데이터를 학습에 쓰길 바랐고, 심지어 계속 학습해도 상관없다고 봄, 데이터 프라이버시에 극단적으로 집착하고 싶으면 본인 데이터만 쓰지 않으면 됨, 나는 오히려 완전히 반대에 서 있는데 기업들은 이런 성향을 전혀 고려하지 않음, Google에도 “내 모든 데이터를 적극적으로 학습에 사용해 달라”라는 옵션이 없어서 불만임, 내가 어디 사는지 이미 여러 번 입력했는데 계속 놓침, '누구도 자신의 데이터를 공유하고 싶지 않다'는 전제로 모든 게 설계됨, 의학 분야 DeepMind 인터뷰도 전부 데이터 공유의 공포, 재앙, 강박으로 시작함, 나는 그로 인한 큰 피해를 본 적도 없고 오히려 의학 발전에 도움만 봄, NHS도 ‘내 데이터를 적극 활용하라’ 체크를 매번 하려고 애씀, 항상 기본값은 “모두 거부”라 선택지가 번거로움, 단 한 번의 마스터 체크로 “내 데이터를 전부 활용하고 다시 묻지 마라”는 옵션이 있으면 좋겠음

    • 이런 입장에 더 공감할 수 있으려면, 기업들이 여전히 사용자를 위해 봉사한다는 믿음이 있어야 함, 하지만 실제로는 내 정보가 오히려 내 이익에 반하는 용도로(가령 사기성 제품 광고 타겟팅 등) 더 많이 쓰임, AI 회사들도 대부분 VC의 영향 아래서 사용자를 위한 제품 개발보단 이윤 중심이고, 지금은 시장점유율 확보를 위해 이용자가 후하게 보상받는 “MoviePass” 시대이며, 앞으로 서비스 질이 악화되고 남용 가능성만 커질 것임 MoviePass 위키피디아
    • 비판적 사고 없이 진지하게 이런 의견을 갖는다는 것 자체가 이해하기 힘듦
    • 의료 데이터가 얼마나 중요한 프라이버시 자산인지, 사보험 체계 국가에 살아보면 금세 알게 됨
    • 혹시 트롤링 아니냐, 아니면 기업이 사용자를 최우선으로 생각하는 이상적 세계에 사는 건지 의문임
    • 나의 인생에서 “LLMs가 조금 더 잘 되면 좋겠다”보다 우선되는 가치가 분명히 존재함
  • Anthropic이 장기적인 관점에서 소규모지만 기술적으로 강한 사용자층을 겨냥한다고 믿었음, 원칙적으로 구독을 취소할 예정임, 오픈소스 모델이 Claude만큼 내 요구(ISO/IEEE 표준 중심 보안테스트 준비)엔 아직 못 미치지만 해결책을 찾을 것임

    • 결국 사용자가 할 수 있는 건 서비스 해지뿐임, 법이나 규제는 기대하기 어렵고, 제정된다 해도 비용 지불 정도로 무마될 것임, 웹 서비스나 앱에 데이터 제공한 순간, 그 데이터는 더 이상 내 전유물이 아니라고 생각하고 사용해야 함
  • 왜 perplexity.ai가 작성한 AI 요약 기사가 아니라 실제 공식 발표문을 직접 링크하지 않는지 의문임, 실제 발표문 링크에서 중요한 사항은 다음과 같음: 앱 내 알림 팝업을 통해 변경 안내 및 opt-out 선택 가능, 설정 메뉴에서 언제든지 opt-out 가능, 9월 28일부터 시행임, 새 약관 동의 및 세션 갱신 시에만 해당됨, API/external 서비스, Claude Gov, Claude for Education 등에는 적용 안 됨, 원문 링크가 더 유용할 것임

    • opt-out이 가능하다면 크게 신경 쓰지 않음, 다만 JetBrains AI, Zed 같은 Claude API 연동 제3자 앱들은 사용자를 대신해 opt-in 여부를 결정하는지 의문임, API 기반의 경우, 이런 학습 옵션은 절대 기본 opt-in이 되면 안 되며 업계 전반이 이 방식을 따라야 한다고 생각함
    • 내가 받은 앱 팝업에는 버튼과 이미지뿐 글자가 없었음, 혹시 다크모드 문제인가 싶어 DOM도 확인했지만 텍스트를 찾을 수 없었음, 단순히 새 기능 공지인 줄 알고 무시함, Reddit에서 최근 바뀐 정책을 우연히 발견하지 않았다면 내용을 몰랐을 것임, 아마 나 외에도 많은 사용자가 이 내용을 놓쳤을 수도 있음
    • 내 기존 댓글이 맥락상 안 맞았음을 인정하고 수정함, 원래 perplexity.ai의 여러 기사 요약에 대한 링크였는데 마침 모더레이터가 원본 발표문으로 교체함, 많은 댓글이 AI 요약만 훑고 성급히 판단한 결과임, 오히려 원본으로 바뀐 게 다행임
    • 여러 기사 요약 대신 원본 출처를 링크하는 게 훨씬 더 낫다고 생각함