나는 “이 앱에서는 프라이버시가 거의 없다”고 말하는 게 괜찮다고 생각함
TikTok은 기본적으로 공개 중심의 플랫폼이고, 닫힌 그룹이나 상호 팔로우 개념이 약함
프라이버시가 필요하면 Signal이나 Snapchat 같은 다른 앱으로 옮기면 됨
다만, TikTok이 과거에는 중국 정부의 감시 아래 있었고 지금은 미국판 금권적 악몽이 된 만큼, 그들에게 원칙적인 태도를 기대하는 건 무의미하다고 봄
오히려 Facebook처럼 ‘프라이버시’를 내세우면서 CSAM(아동 성착취물) 대응에 자원을 충분히 투입하지 않는 게 더 문제라고 생각함
TikTok에도 1:1 비공개 메시지 기능이 있고 수억 명이 사용 중임
개인 간 메시징을 제공할 거라면 반드시 E2EE(종단 간 암호화) 를 적용해야 함
아니면 아예 공개 포럼처럼 운영하는 게 낫다고 봄
TikTok처럼 거대한 네트워크 효과를 가진 플랫폼에서는 대체 앱을 선택할 자유가 사실상 없음
이런 독점을 깨려면 연합(federation) 을 강제하는 규제가 필요하다고 생각함
그래야 플랫폼들이 사용자 락인 대신 수익화나 사용성으로 경쟁할 수 있음
솔직한 선택지를 제공한다면 괜찮겠지만, TikTok은 “필요할 때만 메시지를 읽는다”는 식으로 거짓말을 함
실제로는 정치적 반대 의견을 억누르거나 통제 목적으로 메시지를 읽음
대부분의 사용자는 이런 프라이버시와 CSAM의 혼동을 구분하지 못함
TikTok이 “우리가 당신을 지켜본다”는 플랫폼으로 남는 건 괜찮음
하지만 그걸 “안전”이라고 포장하는 건 기만이며, 여론을 왜곡하는 행위임
WhatsApp이나 Facebook 같은 앱들도 E2EE를 홍보용으로만 쓰는 경우가 많다고 봄
진짜 E2EE라면
키쌍을 기기 내에서 생성하고,
서버는 개인 키를 절대 볼 수 없으며,
클라이언트 앱이 오픈소스로 검증 가능해야 함
사용자가 직접 빌드해 쓸 수 있어야 함
이런 조건이 없다면 E2EE라 부르지 말아야 함
정부가 오래전부터 주장하던 “E2EE는 아동에게 위험하다”는 논리를 기업이 재포장하고 있다고 생각함
아이들은 감시국가를 만드는 데 너무 효과적인 도구가 되어버림
차라리 미성년자는 ‘제한된 기기’를 쓰게 하고, 성인이 되면 해제할 수 있도록 하는 게 낫다고 봄
이렇게 하면 모든 SaaS가 사용자 신분을 직접 확인할 필요가 없어짐
모든 아동 보호 시스템이 왜 나이 인증을 요구하는지 이해가 안 됨
스마트폰 단위에서 ‘child’ 플래그를 앱에 전달하는 식으로도 충분히 가능함
결국 기업은 자기 마음대로 정책을 정할 자유가 있고, 사용자는 그걸 보고 선택하면 됨
이런 논리가 먹히는 이유는 이웃들의 가치관과 맞닿아 있기 때문임
사람들의 가치 자체를 바꾸려는 건 헛수고임
해결책은 간단함 — 아이들의 SNS 접근을 막는 것이 가장 확실한 방법임
요즘 사람들은 나이 인증 문제를 너무 단편적으로 봄
이미 대부분의 서비스가 사용자 나이를 알고 있고, 그 데이터를 기반으로 불투명한 알고리즘 최적화를 하고 있음
그래서 나이 인증뿐 아니라 데이터 마이닝과 알고리즘 조정 자체를 금지해야 한다고 생각함
아이들의 DM보다 그들의 데이터가 어떻게 쓰이는지가 더 큰 문제임
“아이들의 DM은 걱정하면서 데이터 수집은 신경 안 쓴다”는 말은 허튼소리라고 생각함
둘 다 걱정하는 사람들도 많음
아이들의 DM을 감시할 책임은 부모에게 있음
부모가 원하면 키로거나 화면 녹화를 설치할 수 있지만, Google 같은 기업은 절대 안 됨
대부분은 그냥 생년월일을 1970년으로 설정하는 게 관행처럼 되어 있음
“나이 인증을 금지해야 한다”는 주장에 동의하지 않음 Verifiable Credentials 같은 기술로 개인정보를 넘기지 않고도 나이만 검증할 수 있음
DM은 현실의 사적 대화와 같음
따라서 모든 DM 기능은 E2EE를 포함해야 함
만약 플랫폼이 그걸 원치 않으면 아예 DM 기능을 없애고 모든 메시지를 공개로 두는 게 낫다고 생각함
부모가 자녀에게 DM 접근 권한을 개별적으로 부여할 수 있는 구조가 필요함
“DM을 없애고 전부 공개하자”는 건 말이 안 됨
현실에서도 완전한 공개와 완전한 비공개 사이의 중간 지대가 존재함
TikTok이 곧 부모가 자녀의 DM을 감시할 수 있는 기능을 넣을 거고, 부모들은 그걸 좋아할 것 같음
E2EE라고 해도 실제로는 서버가 키를 관리하거나, 정부 요청 시 키를 교체할 수 있음
즉, E2EE는 단지 순진한 중간자만 막는 수준임
법적으로 프라이버시를 보장하는 시스템이 있다면 굳이 E2EE가 필요하지 않다고 생각함
두 개념은 별개의 문제임
어떤 부모들은 자녀의 모든 대화를 AI로 분석하고 싶어할 정도로 감시에 집착함
TikTok은 정부 감시의 전초기지 같은 존재라 이런 입장을 취하는 게 놀랍지 않음
사실 모든 소셜 미디어는 정부 감시의 도구로 봐야 함
정부는 이미 E2EE가 있어도 데이터를 접근할 수 있음
E2EE가 없다고 해서 그 능력이 줄어드는 건 아님
이제는 감시가 프랜차이즈화된 느낌임
각 지역에서 정보 수집을 위해 운영권을 사들이는 구조임
“사용자를 덜 안전하게 만든다”는 말은 핑계라고 생각함
실제로는 정부와의 마찰을 피하려는 것뿐임
돈 앞에서는 원칙 따위는 사라짐
“덜 안전하다”는 말은 누구에게 덜 안전한가를 말하지 않음
독재 정부 입장에서는 덜 안전하겠지만, 그건 그들이 감내해야 할 일임
폐쇄형 앱에서 E2EE를 신뢰하기 어렵다고 생각함
설령 감사인이 libsignal을 제대로 연결했다고 해도, 내부 코드에 콘텐츠 스캐닝 훅이 있을 수 있음
Apple이 이미지 스캐닝 기술을 거의 완성했었다는 걸 보면 가능성은 충분함
그래도 E2EE의 장점은 서버가 해킹당해도 데이터가 무의미한 암호 덩어리로 남는다는 점임
E2EE는 구현이 어렵고, 사용자 실수로 쉽게 무력화됨
예를 들어 Signal 사용자 중 실제로 안전 번호를 비교하는 사람은 거의 없음
결국 보안보다 사용성이 문제임
사람들은 E2EE를 종교처럼 믿는 경향이 있음
검증 불가능해도 “보호 = E2EE”라고 여김
나는 “I don’t trust Signal”이라는 글에서도 이 점을 지적했음
E2EE를 논할 때는 ‘끝점이 누구인가’ 를 명확히 해야 함
서버가 끝점이라면 그건 진짜 E2EE가 아님
게다가 대화 내용보다 메타데이터가 훨씬 더 가치 있음
심지어 비밀번호조차 평문 저장일 수도 있음
TikTok은 원래 공개 영상 플랫폼인데, 왜 굳이 비공개 대화에 쓰는지 모르겠음
TikTok은 젊은 세대의 SNS임
나이 든 사람은 그걸 잘 모름
처음엔 친구끼리 영상만 주고받다가, 자연스럽게 채팅으로 이어지는 흐름이 생김
보안이 약하다는 걸 알아도 대화의 성격상 큰 문제는 아님
TikTok DM을 써본 적 없는 사람이 하는 말처럼 들림
대부분의 10대는 암호화나 보안 개념을 잘 모름
단지 편리함 때문에 TikTok을 씀
TikTok은 단순한 영상 플랫폼 이상임
“논란이 되는 프라이버시 기능”이라는데, 누가 논란이라고 하는지 궁금함
NSA나 GCHQ 기준인가?
기사에 따르면 NSPCC와 Internet Watch Foundation 같은 아동 보호 단체들이 반대함
Meta 내부에서도 Monika Bickert와 Antigone Davis가 E2EE가 아동에게 위험하다고 언급함
관련 내용은 Reuters 기사에서도 확인 가능함
Hacker News 의견들
나는 “이 앱에서는 프라이버시가 거의 없다”고 말하는 게 괜찮다고 생각함
TikTok은 기본적으로 공개 중심의 플랫폼이고, 닫힌 그룹이나 상호 팔로우 개념이 약함
프라이버시가 필요하면 Signal이나 Snapchat 같은 다른 앱으로 옮기면 됨
다만, TikTok이 과거에는 중국 정부의 감시 아래 있었고 지금은 미국판 금권적 악몽이 된 만큼, 그들에게 원칙적인 태도를 기대하는 건 무의미하다고 봄
오히려 Facebook처럼 ‘프라이버시’를 내세우면서 CSAM(아동 성착취물) 대응에 자원을 충분히 투입하지 않는 게 더 문제라고 생각함
개인 간 메시징을 제공할 거라면 반드시 E2EE(종단 간 암호화) 를 적용해야 함
아니면 아예 공개 포럼처럼 운영하는 게 낫다고 봄
이런 독점을 깨려면 연합(federation) 을 강제하는 규제가 필요하다고 생각함
그래야 플랫폼들이 사용자 락인 대신 수익화나 사용성으로 경쟁할 수 있음
실제로는 정치적 반대 의견을 억누르거나 통제 목적으로 메시지를 읽음
대부분의 사용자는 이런 프라이버시와 CSAM의 혼동을 구분하지 못함
하지만 그걸 “안전”이라고 포장하는 건 기만이며, 여론을 왜곡하는 행위임
진짜 E2EE라면
이런 조건이 없다면 E2EE라 부르지 말아야 함
정부가 오래전부터 주장하던 “E2EE는 아동에게 위험하다”는 논리를 기업이 재포장하고 있다고 생각함
차라리 미성년자는 ‘제한된 기기’를 쓰게 하고, 성인이 되면 해제할 수 있도록 하는 게 낫다고 봄
이렇게 하면 모든 SaaS가 사용자 신분을 직접 확인할 필요가 없어짐
스마트폰 단위에서 ‘child’ 플래그를 앱에 전달하는 식으로도 충분히 가능함
사람들의 가치 자체를 바꾸려는 건 헛수고임
요즘 사람들은 나이 인증 문제를 너무 단편적으로 봄
이미 대부분의 서비스가 사용자 나이를 알고 있고, 그 데이터를 기반으로 불투명한 알고리즘 최적화를 하고 있음
그래서 나이 인증뿐 아니라 데이터 마이닝과 알고리즘 조정 자체를 금지해야 한다고 생각함
아이들의 DM보다 그들의 데이터가 어떻게 쓰이는지가 더 큰 문제임
둘 다 걱정하는 사람들도 많음
부모가 원하면 키로거나 화면 녹화를 설치할 수 있지만, Google 같은 기업은 절대 안 됨
Verifiable Credentials 같은 기술로 개인정보를 넘기지 않고도 나이만 검증할 수 있음
DM은 현실의 사적 대화와 같음
따라서 모든 DM 기능은 E2EE를 포함해야 함
만약 플랫폼이 그걸 원치 않으면 아예 DM 기능을 없애고 모든 메시지를 공개로 두는 게 낫다고 생각함
부모가 자녀에게 DM 접근 권한을 개별적으로 부여할 수 있는 구조가 필요함
현실에서도 완전한 공개와 완전한 비공개 사이의 중간 지대가 존재함
즉, E2EE는 단지 순진한 중간자만 막는 수준임
두 개념은 별개의 문제임
TikTok은 정부 감시의 전초기지 같은 존재라 이런 입장을 취하는 게 놀랍지 않음
E2EE가 없다고 해서 그 능력이 줄어드는 건 아님
각 지역에서 정보 수집을 위해 운영권을 사들이는 구조임
“사용자를 덜 안전하게 만든다”는 말은 핑계라고 생각함
실제로는 정부와의 마찰을 피하려는 것뿐임
돈 앞에서는 원칙 따위는 사라짐
“덜 안전하다”는 말은 누구에게 덜 안전한가를 말하지 않음
독재 정부 입장에서는 덜 안전하겠지만, 그건 그들이 감내해야 할 일임
폐쇄형 앱에서 E2EE를 신뢰하기 어렵다고 생각함
설령 감사인이 libsignal을 제대로 연결했다고 해도, 내부 코드에 콘텐츠 스캐닝 훅이 있을 수 있음
Apple이 이미지 스캐닝 기술을 거의 완성했었다는 걸 보면 가능성은 충분함
그래도 E2EE의 장점은 서버가 해킹당해도 데이터가 무의미한 암호 덩어리로 남는다는 점임
예를 들어 Signal 사용자 중 실제로 안전 번호를 비교하는 사람은 거의 없음
결국 보안보다 사용성이 문제임
검증 불가능해도 “보호 = E2EE”라고 여김
나는 “I don’t trust Signal”이라는 글에서도 이 점을 지적했음
서버가 끝점이라면 그건 진짜 E2EE가 아님
게다가 대화 내용보다 메타데이터가 훨씬 더 가치 있음
TikTok은 원래 공개 영상 플랫폼인데, 왜 굳이 비공개 대화에 쓰는지 모르겠음
나이 든 사람은 그걸 잘 모름
보안이 약하다는 걸 알아도 대화의 성격상 큰 문제는 아님
단지 편리함 때문에 TikTok을 씀
“논란이 되는 프라이버시 기능”이라는데, 누가 논란이라고 하는지 궁금함
NSA나 GCHQ 기준인가?
Meta 내부에서도 Monika Bickert와 Antigone Davis가 E2EE가 아동에게 위험하다고 언급함
관련 내용은 Reuters 기사에서도 확인 가능함