1P by GN⁺ 11시간전 | ★ favorite | 댓글 1개
  • 메타 CEO 마크 저커버그의 2024년 미 상원 청문회 증언이 내부 문서와 상충하며, 의도적 허위 진술이 드러났다는 보고서가 공개됨
  • The Tech Oversight Project는 비공개 문서와 전문가 보고서를 분석해, 저커버그가 아동 보호·정신건강·콘텐츠 안전성 관련 발언에서 사실을 왜곡했다고 밝힘
  • 내부 자료에 따르면 메타는 13세 미만 사용자 유입 전략, 성매매 방조, 비공개 연구 은폐 등 조직적 문제를 인지하고도 방치함
  • 보고서는 메타가 청소년 안전 기능을 홍보했지만 실제로는 대부분 비효율적이며, 내부 연구는 오히려 정신건강 악화와 중독성 강화를 입증했다고 지적
  • 단체는 이러한 행태를 바로잡기 위해 ‘Kids Online Safety Act’ 같은 입법 조치가 필요하다고 강조

Tech Oversight Project의 보고서 개요

  • 워싱턴 D.C.에서 발표된 이번 보고서는 2024년 상원 사법위원회 청문회에서의 저커버그 증언과 새로 공개된 내부 문서를 대조함
    • 문서들은 저커버그가 의회에 거짓말을 했으며, 메타가 청소년 보호 실패를 은폐했다고 밝힘
  • 단체는 관련 증거를 모은 ‘Big Tech on Trial’ 마이크로사이트를 개설해 재판 진행 중 지속 업데이트 예정
  • Sacha Haworth 전무는 “메타는 Section 230 뒤에 숨어왔으며, 이제 의회가 행동해야 한다”고 발언

청문회 발언과 내부 증거의 불일치

1. 청소년 안전 기능 관련

  • 저커버그는 “청소년 보호를 위해 업계 선도적 노력을 하고 있다”고 발언했으나,
    Fairplay 등 단체의 조사에 따르면 인스타그램의 53개 안전 기능 중
    • 64%는 비활성 또는 무효,
    • 19%는 제한적 효과,
    • 17%만이 정상 작동
  • 보고서는 “대부분의 기능이 청소년을 보호하지 못한다”고 결론

2. 제품 설계와 아동 안전

  • 저커버그는 “피해자 보상 기금은 내 역할이 아니다”라고 했으나,
    전문가 Tim Estes의 법정 보고서는 메타 플랫폼이 아동 안전을 고려하지 않은 설계였다고 명시
    • 약한 연령 인증, 비효율적 부모 통제, 무한 스크롤·자동재생·알림 기능 등이 문제로 지적

3. 정신건강 영향 부정

  • 저커버그는 “과학적 증거가 소셜미디어가 해롭다는 주장을 뒷받침하지 않는다”고 했으나,
    WSJ의 Facebook Files과 내부 연구는 인스타그램이 10대의 자존감 저하·불안·섭식장애 위험을 악화시킨다고 보고
    • 특히 여성 청소년에게 심리적 악영향이 집중됨

4. 성적 콘텐츠 및 인신매매

  • 저커버그는 “성적 콘텐츠를 허용하지 않는다”고 했지만,
    내부 문서에 따르면 메타는 성매매 계정에 17회 위반까지 허용하는 정책을 운영
    • 2020년 아동 성매매의 79%가 메타 플랫폼에서 발생,
    • 인스타그램 이용 미성년자 중 22%가 성적 접촉 경험 보고

5. 13세 미만 사용자 금지 주장

  • 저커버그는 “13세 미만은 서비스 이용 불가”라 했으나,
    내부 문서에는 6~10세 ‘Kid’, 10~13세 ‘Tween’ 을 포함한 연령별 타깃 전략이 명시
    • ‘Tweens Competitive Audit’과 ‘Youth Privacy’ 문서에서 어린이 시장 확보 목표 확인

6. 정신건강 연구 은폐

  • 메타는 내부 ‘비활성화 연구’ 에서 SNS 중단 시 불안·우울 감소를 확인했으나,
    결과가 부정적이라는 이유로 공개를 중단
    • 직원은 “담배회사처럼 보일 수 있다”고 우려한 발언 기록

7. Messenger Kids 결함

  • 저커버그는 “Messenger Kids는 더 안전하다”고 했지만,
    2019년 버그로 승인되지 않은 사용자와 아동이 단체 채팅 가능
    • 메타는 이를 조용히 수정했으나, The Verge 보도로 공개

8. 부모 협력 주장과 내부 방침

  • 저커버그는 “부모와 함께 아이를 보호한다”고 했지만,
    내부 이메일에는 “부모에게 알리면 제품이 망가질 것”이라며 부모 통보 회피 방침이 기록
    • 또 다른 메일에는 “화학 시간에 몰래 휴대폰 보는 것을 최적화해야 한다”는 문구 존재

9. 청소년 가치 평가

  • 2018년 내부 이메일에서 13세 청소년의 평생 가치가 270달러로 계산됨
    • “2030년까지 3천만 명의 청소년 사용자를 잃을 수 있다”는 경영진 우려 포함

Meta의 추가 사례

1. 인스타그램 중독성 연구

  • Adam Mosseri는 “앱의 영향은 미미하다”고 했으나,
    2019년 내부 연구 ‘Teen Mental Health: Creatures of Habit’은
    • “10대는 인스타그램을 끄고 싶어도 끌 수 없다”,
    • “중독적 사용과 완벽함 압박이 불안의 핵심”이라 명시

2. 콘텐츠 검열 시스템의 실효성

  • 메타는 2023년 보고서에서 아동 착취물 99% 자동 제거를 주장했으나,
    내부 고발자 Arturo Béjar는 실제 탐지율이 5% 미만이라 폭로
    • 경영진이 디자인 개선 제안 무시 및 연구팀 해체한 사실도 드러남

결론

  • 보고서는 메타가 청소년 보호 실패와 허위 진술을 반복해 왔음을 지적
  • 입법적 강제 조치 없이는 기업이 자발적으로 개선하지 않을 것이라 경고
  • 특히 Kids Online Safety Act 통과가 아동·청소년 보호의 핵심 수단으로 강조됨
Hacker News 의견들
  • 실제 거짓말과 단순한 판단의 문제를 섞지 않는 게 좋겠음
    예를 들어, 보호 도구에 대한 투자 수준을 거짓으로 단정하는 건 애매함. 많이 투자했지만 효과가 없을 수도 있음
    읽다 보면 진짜 거짓도 있지만, 일부는 단순한 해석 차이로 보였음. 이런 경계선상의 표현은 빼거나 ‘신뢰하기 어렵다’ 정도로 제시하는 게 나을 것 같음
    • 전적으로 동의함. 기사에 나온 심각한 사례들을 요약하자면,
      1. Mark가 “모든 연령에서 성적으로 노골적인 콘텐츠를 금지한다”고 했지만, 실제로는 17회 경고 정책이 있었고, 2020년 아동 성매매 피해자의 65%가 Facebook, 14%가 Instagram에서 유입된 것으로 보고됨 (출처 보고서)
      2. 내부 연구에서 Facebook/Instagram 사용을 중단한 이용자들이 불안·우울·외로움이 감소했지만, Meta는 연구를 중단하고 결과를 공개하지 않았음
      3. Adam Mosseri는 “10대 정신건강에 미치는 영향은 작다”고 했지만, 내부 보고서에서는 “10대들이 중독처럼 앱을 끊지 못하고, 완벽해야 한다는 압박을 느낀다”고 분석했음
    • 최소한 가장 명백한 거짓부터 제시하고, 애매한 부분은 뒤로 미루는 게 좋겠음
    • 많은 돈을 투자하고도 결과가 미미할 수도 있고, 혹은 71개의 도구 중 17%만 효과가 있었지만 그게 충분했을 수도 있음. 효과의 비율이 곧 전체 성과를 의미하지는 않음
    • “건포도랑 똥을 섞으면 결국 똥이다”는 말처럼, 강한 주장과 약한 주장을 섞으면 전체 신뢰도가 떨어짐
    • 억만장자들이 하는 모든 말을 싫어하는 분노한 사람들과 봇이 많음. 그 소음을 걸러내면서 진짜 문제를 구분하는 게 어렵다고 느낌
  • “2020년 아동 성매매의 79%가 Meta 플랫폼에서 발생했다”는 주장이 너무 과장돼 보여서 출처를 확인했음. 실제로는 “소셜미디어를 통한 유입 피해자 중 65%가 Facebook, 14%가 Instagram에서”였음. 과장된 수치는 선정주의로 보임. 참고로 나는 Facebook 계정도 없고 Meta에 아무 관심 없음
    • 나도 같은 부분을 봤음. 연구는 “소셜미디어를 통해 유입된 피해자”만을 대상으로 했고, 100%가 소셜미디어 기반이었음. 결국 이건 단순히 플랫폼 점유율 지도일 뿐, 전체 성매매 피해자의 79%라는 주장은 명백한 왜곡임
    • 그 수치가 틀렸다는 건 이해하지만, 근거 자료나 논리를 함께 제시해주면 더 설득력 있을 것 같음
  • 이 문제에 크게 관심 없었는데, 기사 속 사례들을 보고 Tech Oversight의 결론에 공감하게 됨
    최근 Reels을 보다가 명백히 성인용 콘텐츠를 발견했고 신고했지만 “정책 위반 아님”으로 처리됐음. 신고량이 많겠지만, Meta가 말하는 콘텐츠 관리 목표를 제대로 달성하지 못하고 있음
    • 이제는 “신고가 너무 많다”는 게 변명이 되기 어려움. AI 투자를 그렇게 많이 하는 회사라면, 명백한 사례는 AI로 우선순위 분류 후 사람이 처리할 수 있어야 함
    • 나도 예전에 참수 영상을 신고했는데 “정책 위반 아님”으로 닫힘
    • 폭력 위협을 신고했는데 Instagram이 “정책 위반 아님”이라 했음
    • 예전에도 신고가 무시되다가 며칠 뒤 계정이 사라지는 걸 봤음. 아마 일괄 처리로 시스템을 숨기는 듯함
    • 트위터에서도 수십 번 신고했지만 제대로 처리된 적이 거의 없음
  • 내가 아는 사례들만 봐도 대부분은 ‘거짓’이라기보단 맥락 왜곡에 가까움
    예를 들어, “Meta가 6~13세 아동을 위한 제품을 기획했다”는 건 Messenger Kids용 슬라이드였고, COPPA 준수 목적이었음.
    또 “부모를 돕는다고 하면서 청소년이 부모 몰래 소통하게 만든다”는 비판도, 실제로는 라이브 스트리밍 기능 설계 문제를 논의한 문맥이었음.
    나도 Facebook을 좋아하지 않지만, 이 기사보다는 Mark Zuckerberg의 말을 더 신뢰함
  • Instagram 인수 당시 “FB와 통합하지 않겠다”는 조건이 있었다고 기억하지만, 실제로는 뒤에서 완전히 통합된 느낌임. 두 서비스가 동시에 다운되기도 함
    • 그건 조건이 아니었음. 당시 발표문을 보면 “Instagram의 독립성과 강점을 유지하겠다”고만 했음 (공식 발표문 링크)
      지금 상황은 그 약속을 지킨 셈으로도 볼 수 있음
    • 단순히 계정 관리뿐 아니라, Instagram 콘텐츠와 댓글이 Facebook으로 자동 전송되기도 함
    • 결국 그는 처음부터 의도를 숨겼던 것 같음
    • FB는 eBay 검색 기록까지 알고 있음. 기업 간 데이터 공유가 이용자 동의 없이 이뤄지는 구조임
    • 그는 처음부터 조종적인 인물이었음. 업계 상층부 대부분이 비슷한 유형이고, 사람들은 자신이 ‘도덕적 편’에 있다고 믿으며 일함. 광고 기반 기업이라면 다 거기서 거기임
  • 의회나 DOJ가 아무 조치도 안 하겠지만, 의회 위증(perjury) 의 법적 처벌은 명확히 규정돼 있음
    관련 조항은 Congress.gov 문서에 정리돼 있음.
    허위 진술 시 최대 5~8년 징역형 가능, 특히 성매매나 아동 착취 관련이면 8년까지 가능함
  • 1994년 담배회사 CEO의 의회 증언 영상에서 “니코틴은 중독성이 없다”고 말한 장면이 떠오름
    • Nixon의 “나는 부패하지 않았다”, Clinton의 “그 여성과 관계가 없었다”, Trump는 말할 것도 없음
      이런 사례들을 보면, 선서하고 진실을 말하라는 절차가 오히려 거짓말을 더 강하게 만들어주는 것 같음
      Watergate 사건, Clinton–Lewinsky 스캔들 참고
  • 어릴 땐 “법을 어기면 감옥 간다”고 믿었는데, 그 시절이 그립다는 생각이 듦
    • 그건 여전히 우리 같은 평범한 사람들에게만 해당됨. 부자나 권력층은 예외임
    • 나도 어릴 땐 정의가 통하고 정부가 국민을 위해 일한다고 믿었음. 지금은 그게 다 환상이었음을 느낌
    • 거물 금융인 스캔들을 보고 확신했음. 법은 부자에게 통하지 않음. 이런 사람들을 다루려면 법 외의 수단이 필요함
    • 이건 좌파 판사 때문이 아님. 구조적인 문제임
  • “Meta의 위험한 행태를 막으려면 Kids Online Safety Act 같은 법이 필요하다”는 주장에 대해,
    최근 Discord의 연령 인증 논란을 예로 들며, 이런 규제가 결국 모든 이용자에게 신원 확인을 강제하게 된다고 우려함
    소셜미디어를 안 쓴다고 해도 Hacker News 같은 곳도 법적 정의상 소셜미디어로 분류될 수 있음
    • 언젠가 “검열된 인터넷” 하면 중국이 아니라 서방 국가(특히 영국이나 미국) 가 먼저 떠오를지도 모르겠음
    • 그렇다면 대안은 무엇인지 궁금함
    • Discord 논란은 ID 확인 방식 때문이었고, KOSA 법안에는 그런 조항이 없음. KOSA를 신원 확인 법안으로 오해하는 건 무지한 일임
    • “이웃의 가정폭력범을 없애려면 마을 한가운데 핵폭탄을 터뜨리자”는 식의 과잉 대응 같음
    • “기업의 이익이 인간의 선과 충돌할 때는 규제가 필요하다”는 논리에는 동의함.
      Facebook이 청소년에게 해롭고, Meta가 이를 알고도 방치했다면 규제는 불가피한 수단
  • iOS Safari에서 CSS가 완전히 깨져서 첫 번째 열이 고정되고 너무 작아, 행이 비정상적으로 길어짐
    • Android Firefox에서도 마찬가지임. Reader 모드를 쓰면 좀 낫지만 여전히 불편함
    • iOS에서 웹사이트가 이렇게 망가진 건 심각함. 의회가 개입해야 할 수준이라는 농담까지 나옴