1P by GN⁺ 3일전 | ★ favorite | 댓글 1개
  • Anthropic의 Claude 서비스를 사용하는 경우, 앞으로 본인의 데이터가 AI 학습에 활용됨
  • 이용자의 입력 데이터가 차후 AI 시스템 발전을 위한 모델 트레이닝에 사용될 예정임
  • 과거 데이터는 제외하며, 앞으로 입력되는 새로운 데이터가 해당됨
  • 삭제나 비공개 처리한 데이터는 학습에 사용되지 않음
  • 이용자는 설정을 통해 학습 거부 옵션(opt-out) 을 선택 가능함

Claude의 데이터 수집 및 AI 학습 정책 변경

  • Anthropic이 운영하는 Claude 계정의 이용자는 이제부터 본인이 서비스에 입력하는 모든 데이터가 AI 트레이닝에 사용된다는 점을 인지할 필요가 있음
  • 본 정책은 향후 입력된 새로운 데이터에 적용되며, 이전에 제공된 데이터는 해당 사항이 없음
  • 사용자가 삭제한 데이터비공개 표시한 데이터는 별도의 처리로 인해 AI 학습 데이터셋에 포함되지 않음
  • Anthropic은 서비스 안내를 통해, 이용자가 원한다면 데이터 학습 활용을 설정 메뉴(opt-out) 를 통해 거부할 수 있도록 안내하고 있음
  • AI 서비스 발전과 사용자 데이터 보호 사이에서 균형 잡힌 정책이 적용되고 있는 상황임
Hacker News 의견
  • 솔직히, 이 회사들은 이미 테라바이트급 데이터를 훔쳐갔고, 데이터셋도 공개하지 않음, 그래서 내가 뭘 서비스에 던져 넣더라도 그들은 무조건 다 수집해서 트레이닝한다고 가정해야 함
    • 인터넷에 자유롭게 올라온 글을 읽는 게 이제는 도둑질이 되어버린 것임? 이건 재산권에 대한 지나치게 가혹한 해석이라고 생각함
    • 그렇게 나쁘게 가정할 필요가 없는 것임, 모두가 악의를 가지고 행동할 거라고 생각하면 안 되고, 이런 생각이 보편화되는 것도 경계해야 함
    • 위 의견이 가장 합리적인 해석이라고 생각함
  • 나는 원래 모든 데이터가 이미 AI 트레이닝에 사용되고 있다고 전제하고 있었음, 혹시 나만 그랬던 건지 궁금함
    • 2025년에 컴퓨터 공학 최고의 난제는 '우리는 여러분의 모든 개인정보를 AI에 학습시키고 있지 않습니다'라고 사람들을 설득하는 일일 것임, 솔직히 Anthropic도 사람들이 아무도 내 데이터를 학습에 안 쓴다고 안 믿으니, 그냥 쓰기로 결정한 게 아닐까 하는 생각이 듬, 오히려 사람들이 스스로 컨트롤할 수 있는 선택지를 제공하면 신뢰가 더 올라갈 수도 있음
    • 이런 사고방식을 잘 이해하지 못하겠음, 왜 무조건 가정하고 들어가는지 모르겠음, Claude를 처음 사용할 때 몇 분만 투자해도 개인정보 설정 내용을 확인할 수 있었음, 난 어떤 서비스를 처음 쓸 때마다 항상 확인함, 모든 게 공유된다고 냉소적으로 단정하면 그냥 아무것도 확인 안 하고 넘기게 됨, 설정->개인정보 메뉴 들어가면 바로 볼 수 있는데
    • 구글/META/Apple/Microsoft 서버에서 문서를 삭제하면 진짜로 사라진다고 믿는 사람들의 순진함과 같음, 구글은 지난 20년간 색인한 모든 정보의 백업본을 아마도 다 갖고 있을 것임, 이건 인터넷 아카이브도 부러워할 수준임
    • 무료 계정은 원래 AI 트레이닝에 사용된다고 생각하고 있었음, 내가 굳이 남기고 싶지 않은 데이터는 서비스에서 삭제하면 된다고 생각함, 그런데 유료 계정까지 포함하고 데이터를 5년씩 보관한다는 건 이해가 안 됨
    • 물론 우리 사회의 약속이라는 기본 가치를 여전히 믿는 사람들이 있을 것임, 하지만 그 약속들이 불편할 때마다 비틀리고 무시되는 걸 보고 나면, 냉소적인 시각이 흔해져도 놀랍지 않음, 문제는 이런 시각이 실제 선택에 어떤 영향을 주는지임, 결국 예전엔 공개됐던 게 점점 비공개로 바뀜, 나는 그래서 로컬 버전을 직접 써보고, 내가 더 잘 통제할 수 있는 걸 만들어보려 함
  • 나중엔 결국 누가 opt-out을 했든 상관없이 모든 사람의 데이터로 트레이닝했다는 게 밝혀지는 상황이 올 것 같음, Claude를 계속 쓰고 싶지만 내가 만들어낸 모든 솔루션이 공용 지식처럼 퍼져버리는 건 원치 않음
    • 이전에 어느 회사가 opt-out 요청을 무시한 적이 있냐는 질문이 있음, 뭐가 마음에 남아있는 것처럼 들림
    • 난 회사/AI가 내 입력으로 좀 더 나아지는 것 자체는 괜찮음, 다만 그게 내 이름이나 정보랑 직접 연결되는 건 싫음, Chatham House 룰이 적용된다면 좋겠음 (Chatham House Rule: 대화 내용은 공유하되 발언자 신분은 익명 보장)
    • 왜 자신의 인사이트를 공유하고 싶지 않은지 궁금함, 직접적으로 공유하는 방식이 AI 트레이닝을 통해 데이터가 흘러나가는 것보다는 좋다고 생각함, 다만 당신의 표현이 좀 더 강하게 느껴짐
  • 결국 트레이닝용 데이터가 부족해진 것 같음, 얼마나 데이터에 의존할 수 있는지, 어떤 '지식'을 뽑아낼 수 있을지 궁금함, 난 피드백을 거의 안 주고 대부분 (6번 중 5번은) 잘못된 결과를 받음, 그럼에도 불구하고 어떻게 그 결과가 가치 있는지 판단할지 모르겠음
    • 구글처럼 유저가 특정 링크를 클릭하고 추가 검색을 안 하면 결과가 도움이 됐다고 판단하는 방법을 쓸 수도 있음, 내 침묵도 내가 만족했다는 약한 신호로 판단할 가능성이 있음 (물론, 유저의 사용 패턴에 따라 다름)
    • 결국 뭘 트레이닝에 쓰든 실제 가치가 있는지 모름, 내가 틀린 답을 받아도 불만을 표시 안 하면 회사는 별로 신경 안 쓸 것임
  • 이번 건이 AI Safety Index 발표 직후라는 점이 떠오름, 해당 보고서가 Anthropic이 사용자 데이터를 학습에 사용하지 않는다고 칭찬했음, 그래서 나도 더 신뢰하고 쓰려고 했었음
    https://futureoflife.org/ai-safety-index-summer-2025/
  • 최신 AI는 데이터에 기반함, 우리 대화가 트레이닝에 안 쓰인다는 약속을 믿는 건 마치 먹보에게 제일 좋아하는 음식을 주고 절대 먹지 말라고 약속받는 것과 같음, 뭐 그렇다고 해도 대화가 외부에 완전히 유출되지만 않는다면 괜찮음, 나는 이미 이런 조건은 감수하고 쓰고 있음
    • 이런 일을 정상적인 것으로 만들지 말아야 함, 계약상의 의무를 지키고 우리 프라이버시와 인권을 지키려면 반드시 집행해야 함
  • iOS 앱에서 로그인하자마자 바로 opt-out 설정 팝업이 나옴, 다소 귀찮긴 했지만 처리 방식은 괜찮았음
    • Claude 같은 LLM에게서 내 대화나 피드백을 통해 더 똑똑해지길 원하는 입장임, 유저별 장기적 기억이나 대화 히스토리가 내장되지 않는 점이 매우 답답함, Anthropic에 opt-in 기능을 6개월째 요청 중임, 물론 프라이버시 이슈도 이해함, 하지만 내 전문분야(인지 연구, 유전학, 신경철학)에선 Claude가 더 똑똑해져야 하고, 내가 가진 정보를 공유해서 진짜 좋은 생각 파트너를 얻고 싶음
  • 믿기 힘듦, 이건 프라이버시 측면에서 Meta의 악명 높은 결정들과 맞먹는 윤리적 문제임, 정말 잘못된 롤아웃임, 기존 대화창에 이런 modal(설정 안내창)이 그대로 떴음, 내 데이터나 아이디어, 연봉, 가족력 등에 사용 승인한 적 없는데 PR 쪽에선 "modal에서 opt-in 하셨잖아요?"라고 할까 걱정임
    https://imgur.com/afqMi0Z
  • 무슨 데이터를 학습에 쓴 건지 모르겠지만, Claude를 두 번째로 해지함, 웹 인터페이스 UI 버그, 계속 깜빡거리는 현상도 짜증나고, 최근 AI 답변이 과하게 부정적이고 거만해짐, 예전이나 다른 LLM에선 없던 현상임, 아마 예전에 아첨한다고 비난받아서 조정하려다 실패한 것 같음, 이제는 내 행동을 추측하며 기술적 맥락을 넘어서 비판함, Gemini를 쓰면 항상 내가 답변에 화난 것처럼 가정하는데 그나마 무례하지는 않음, 그래서 다시 chatgpt로 넘어와서 계속 비교 테스트 중임
    • power user들에게는 API처럼 조정 가능한 다이얼(아첨/안전/아이 보호모드 해제 등)이 필요함, 전자레인지처럼 잠금 해제 스위치까지 있으면 좋겠음
  • 이 글과 비슷한 글이 여기에 있음
    • 적어도 이 글에는 Anthropic이 실제로 보낸 공지 원문이 포함되어 있어서 의미 있음, Perplexity에서 제공하는 요약이 비전문가들에겐 더 보기 좋을 수도 있음