솔직히, 이 회사들은 이미 테라바이트급 데이터를 훔쳐갔고, 데이터셋도 공개하지 않음, 그래서 내가 뭘 서비스에 던져 넣더라도 그들은 무조건 다 수집해서 트레이닝한다고 가정해야 함
인터넷에 자유롭게 올라온 글을 읽는 게 이제는 도둑질이 되어버린 것임? 이건 재산권에 대한 지나치게 가혹한 해석이라고 생각함
그렇게 나쁘게 가정할 필요가 없는 것임, 모두가 악의를 가지고 행동할 거라고 생각하면 안 되고, 이런 생각이 보편화되는 것도 경계해야 함
위 의견이 가장 합리적인 해석이라고 생각함
나는 원래 모든 데이터가 이미 AI 트레이닝에 사용되고 있다고 전제하고 있었음, 혹시 나만 그랬던 건지 궁금함
2025년에 컴퓨터 공학 최고의 난제는 '우리는 여러분의 모든 개인정보를 AI에 학습시키고 있지 않습니다'라고 사람들을 설득하는 일일 것임, 솔직히 Anthropic도 사람들이 아무도 내 데이터를 학습에 안 쓴다고 안 믿으니, 그냥 쓰기로 결정한 게 아닐까 하는 생각이 듬, 오히려 사람들이 스스로 컨트롤할 수 있는 선택지를 제공하면 신뢰가 더 올라갈 수도 있음
이런 사고방식을 잘 이해하지 못하겠음, 왜 무조건 가정하고 들어가는지 모르겠음, Claude를 처음 사용할 때 몇 분만 투자해도 개인정보 설정 내용을 확인할 수 있었음, 난 어떤 서비스를 처음 쓸 때마다 항상 확인함, 모든 게 공유된다고 냉소적으로 단정하면 그냥 아무것도 확인 안 하고 넘기게 됨, 설정->개인정보 메뉴 들어가면 바로 볼 수 있는데
구글/META/Apple/Microsoft 서버에서 문서를 삭제하면 진짜로 사라진다고 믿는 사람들의 순진함과 같음, 구글은 지난 20년간 색인한 모든 정보의 백업본을 아마도 다 갖고 있을 것임, 이건 인터넷 아카이브도 부러워할 수준임
무료 계정은 원래 AI 트레이닝에 사용된다고 생각하고 있었음, 내가 굳이 남기고 싶지 않은 데이터는 서비스에서 삭제하면 된다고 생각함, 그런데 유료 계정까지 포함하고 데이터를 5년씩 보관한다는 건 이해가 안 됨
물론 우리 사회의 약속이라는 기본 가치를 여전히 믿는 사람들이 있을 것임, 하지만 그 약속들이 불편할 때마다 비틀리고 무시되는 걸 보고 나면, 냉소적인 시각이 흔해져도 놀랍지 않음, 문제는 이런 시각이 실제 선택에 어떤 영향을 주는지임, 결국 예전엔 공개됐던 게 점점 비공개로 바뀜, 나는 그래서 로컬 버전을 직접 써보고, 내가 더 잘 통제할 수 있는 걸 만들어보려 함
나중엔 결국 누가 opt-out을 했든 상관없이 모든 사람의 데이터로 트레이닝했다는 게 밝혀지는 상황이 올 것 같음, Claude를 계속 쓰고 싶지만 내가 만들어낸 모든 솔루션이 공용 지식처럼 퍼져버리는 건 원치 않음
이전에 어느 회사가 opt-out 요청을 무시한 적이 있냐는 질문이 있음, 뭐가 마음에 남아있는 것처럼 들림
난 회사/AI가 내 입력으로 좀 더 나아지는 것 자체는 괜찮음, 다만 그게 내 이름이나 정보랑 직접 연결되는 건 싫음, Chatham House 룰이 적용된다면 좋겠음 (Chatham House Rule: 대화 내용은 공유하되 발언자 신분은 익명 보장)
왜 자신의 인사이트를 공유하고 싶지 않은지 궁금함, 직접적으로 공유하는 방식이 AI 트레이닝을 통해 데이터가 흘러나가는 것보다는 좋다고 생각함, 다만 당신의 표현이 좀 더 강하게 느껴짐
결국 트레이닝용 데이터가 부족해진 것 같음, 얼마나 데이터에 의존할 수 있는지, 어떤 '지식'을 뽑아낼 수 있을지 궁금함, 난 피드백을 거의 안 주고 대부분 (6번 중 5번은) 잘못된 결과를 받음, 그럼에도 불구하고 어떻게 그 결과가 가치 있는지 판단할지 모르겠음
구글처럼 유저가 특정 링크를 클릭하고 추가 검색을 안 하면 결과가 도움이 됐다고 판단하는 방법을 쓸 수도 있음, 내 침묵도 내가 만족했다는 약한 신호로 판단할 가능성이 있음 (물론, 유저의 사용 패턴에 따라 다름)
결국 뭘 트레이닝에 쓰든 실제 가치가 있는지 모름, 내가 틀린 답을 받아도 불만을 표시 안 하면 회사는 별로 신경 안 쓸 것임
최신 AI는 데이터에 기반함, 우리 대화가 트레이닝에 안 쓰인다는 약속을 믿는 건 마치 먹보에게 제일 좋아하는 음식을 주고 절대 먹지 말라고 약속받는 것과 같음, 뭐 그렇다고 해도 대화가 외부에 완전히 유출되지만 않는다면 괜찮음, 나는 이미 이런 조건은 감수하고 쓰고 있음
이런 일을 정상적인 것으로 만들지 말아야 함, 계약상의 의무를 지키고 우리 프라이버시와 인권을 지키려면 반드시 집행해야 함
iOS 앱에서 로그인하자마자 바로 opt-out 설정 팝업이 나옴, 다소 귀찮긴 했지만 처리 방식은 괜찮았음
Claude 같은 LLM에게서 내 대화나 피드백을 통해 더 똑똑해지길 원하는 입장임, 유저별 장기적 기억이나 대화 히스토리가 내장되지 않는 점이 매우 답답함, Anthropic에 opt-in 기능을 6개월째 요청 중임, 물론 프라이버시 이슈도 이해함, 하지만 내 전문분야(인지 연구, 유전학, 신경철학)에선 Claude가 더 똑똑해져야 하고, 내가 가진 정보를 공유해서 진짜 좋은 생각 파트너를 얻고 싶음
믿기 힘듦, 이건 프라이버시 측면에서 Meta의 악명 높은 결정들과 맞먹는 윤리적 문제임, 정말 잘못된 롤아웃임, 기존 대화창에 이런 modal(설정 안내창)이 그대로 떴음, 내 데이터나 아이디어, 연봉, 가족력 등에 사용 승인한 적 없는데 PR 쪽에선 "modal에서 opt-in 하셨잖아요?"라고 할까 걱정임 https://imgur.com/afqMi0Z
무슨 데이터를 학습에 쓴 건지 모르겠지만, Claude를 두 번째로 해지함, 웹 인터페이스 UI 버그, 계속 깜빡거리는 현상도 짜증나고, 최근 AI 답변이 과하게 부정적이고 거만해짐, 예전이나 다른 LLM에선 없던 현상임, 아마 예전에 아첨한다고 비난받아서 조정하려다 실패한 것 같음, 이제는 내 행동을 추측하며 기술적 맥락을 넘어서 비판함, Gemini를 쓰면 항상 내가 답변에 화난 것처럼 가정하는데 그나마 무례하지는 않음, 그래서 다시 chatgpt로 넘어와서 계속 비교 테스트 중임
power user들에게는 API처럼 조정 가능한 다이얼(아첨/안전/아이 보호모드 해제 등)이 필요함, 전자레인지처럼 잠금 해제 스위치까지 있으면 좋겠음
Hacker News 의견
https://futureoflife.org/ai-safety-index-summer-2025/
https://imgur.com/afqMi0Z