2P by GN⁺ 3시간전 | ★ favorite | 댓글 1개
  • AI 학습용 스마트 안경 콘텐츠를 검토하던 케냐 Sama 노동자들은 Meta의 계약 종료로 1,108명 해고가 예상되는 분쟁에 놓여 있음
  • 계약 종료는 노동자들이 Meta 안경 영상에서 사용자의 화장실 이용과 성관계 장면을 봤다고 한 지 두 달도 안 돼 이뤄짐
  • Meta는 Sama가 운영 기준을 충족하지 못했다고 했고, Sama는 Meta를 포함한 고객 업무에서 운영·보안·품질 기준을 충족했으며 기준 미달 통보를 받은 적이 없다고 반박함
  • Meta는 사용자가 Meta AI와 공유한 스마트 안경 콘텐츠를 하청 노동자가 때때로 검토할 수 있으며, 제품 성능 개선을 위한 인간 검토에는 명확한 사용자 동의를 받는다고 밝힘
  • 영국 ICO와 케냐 데이터보호위원회가 프라이버시 우려에 대응했고, Sama의 이전 Facebook 콘텐츠 moderation 계약 논란까지 겹치며 AI 데이터 노동의 위험이 드러남

Meta와 Sama 계약 종료를 둘러싼 쟁점

  • Meta는 AI 학습에 활용하던 Sama와의 대형 계약을 종료했고, Sama는 이 결정으로 1,108명이 해고될 것으로 봄
  • 계약 종료는 케냐 기반 Sama 노동자들이 Meta 스마트 안경 영상에서 사용자의 화장실 이용과 성관계 장면을 봤다고 한 지 두 달도 안 돼 이뤄짐
  • Meta는 Sama가 자사 운영 기준을 충족하지 못해 계약을 끝냈다고 함
  • Sama는 Meta를 포함한 고객 업무에서 요구된 운영·보안·품질 기준을 지속적으로 충족했고, 기준 미달 통보를 받은 적이 없다고 반박함
  • 케냐 노동자 조직은 Meta의 결정이 직원들의 공개 발언 때문에 내려졌다고 보지만, Meta는 이 의혹에 직접 답하지 않음

스마트 안경 영상 검토와 개인정보 문제

  • 2월 말 스웨덴 매체 Svenska Dagbladet와 Goteborgs-Posten의 조사에서 익명 노동자들은 Meta 안경으로 촬영된 영상을 검토했다고 밝힘
  • 노동자 중 한 명은 “거실부터 알몸까지 모든 것을 본다”고 했고, 영상에는 화장실 이용이나 성관계 장면도 포함됐다고 함
  • Meta는 사용자가 Meta AI와 공유한 스마트 안경 콘텐츠를 하청 노동자가 때때로 검토할 수 있음을 인정함
  • Meta는 이 검토가 고객 경험 개선 목적이며, 다른 회사들에서도 흔한 관행이라고 봄
  • Meta는 BBC에 보낸 문장에서 사진과 영상은 사용자에게 비공개이며, 제품 성능 개선을 위한 AI 콘텐츠의 인간 검토에는 명확한 사용자 동의를 받는다고 밝힘

규제기관과 제품 사용 리스크

  • 스웨덴 보도 직후 영국 데이터 감독기관 ICO는 해당 보도를 “우려스럽다”고 보고 Meta에 서한을 보냄
  • 케냐 데이터보호위원회도 스마트 안경에서 제기된 프라이버시 우려에 대해 조사를 시작함
  • Meta는 9월 Ray-Ban 및 Oakley와 함께 AI 기반 안경 제품군을 공개
  • 기능에는 텍스트 번역, 사용자가 보고 있는 대상에 대한 질문 응답 등이 있으며, 시각장애인이나 저시력 사용자에게 특히 유용할 수 있음
  • 기기 인기가 높아지면서 오용 우려도 커졌고, 케냐에서는 여성에 대한 비동의 촬영과도 연결됨
  • Meta 안경은 내장 카메라가 녹화 중일 때 프레임 모서리의 표시등이 켜지는 구조임

데이터 라벨링 노동과 이전 계약 논란

  • Sama 노동자들은 데이터 annotator로서 Meta AI가 이미지를 해석하도록 콘텐츠에 수동 라벨을 붙였고, AI와의 상호작용 transcript도 검토함
  • 한 노동자에 따르면 남성의 안경이 침실에서 녹화를 계속했고, 이후 남성의 아내로 보이는 여성이 옷을 벗는 장면이 촬영됨
  • Sama는 미국에 본사를 둔 아웃소싱 기업이며, 기술 일자리 제공을 통한 고용 확대를 목표로 한 비영리 조직에서 출발해 현재는 “ethical” B-corp로 운영됨
  • Meta와 Sama의 이전 Facebook 콘텐츠 moderation 계약도 비판과 전직 직원들의 법적 조치를 불러왔고, 일부 직원은 노골적이고 트라우마를 주는 콘텐츠에 노출됐다고 함
  • Sama는 이후 그 업무를 맡은 것을 후회한다고 밝힘
  • Africa Tech Workers Movement의 Naftali Wambalo는 스마트 안경 계약 노동자들과도 접촉했고, Meta가 인간 노동자의 스마트 안경 콘텐츠 검토 사실이 공개되는 것을 원하지 않았다고 봄
  • Wambalo는 Meta가 말하는 기준이 “비밀 유지의 기준”에 가깝다고 표현함
  • Meta는 이전에 서비스 약관에서 사용자가 인간 검토 가능성을 알 수 있었다고 밝힌 바 있음
  • Oversight Lab의 Mercy Mutemi는 Meta의 문장이 케냐 정부에 대한 경고가 되어야 하며, AI 생태계 진입 경로로 제시된 기반이 매우 취약하다고 봄
Hacker News 의견들
  • Meta가 스마트 안경 콘텐츠 분류를 맡긴 아웃소싱 업체와의 계약을 취소했는데, 그 업체 직원들이 분류 대상 콘텐츠의 심각한 프라이버시 문제를 내부고발한 뒤 벌어진 일임

    • “재미있는” 보너스 사실: Sama가 이런 문제를 겪은 건 처음이 아님
      OpenAI가 CSAM 분류를 맡겼고, Sama는 2022년에 OpenAI를 고객에서 해지했음: https://time.com/6247678/openai-chatgpt-kenya-workers/
      그로부터 4년, 해당 보도가 나온 지 3년이 지났는데도 테크 기업 운영 방식은 하나도 나아지지 않았음
    • 맞는 말처럼 들림. 이런 스마트 안경을 쓰는 사람을 안다면 절대 용인하지 않는 게 중요함
      대화하거나 교류하지 말고, 같은 공간에 있는 것조차 추천하지 않음
    • Mark Zuckerberg와 사용자 프라이버시 무시라니, 이보다 더 상징적인 조합이 있을까 싶음
    • “분류하도록 돈을 받은 콘텐츠”라고 하지만, 케냐 노동자 단체는 Meta의 결정이 직원들이 문제를 공개적으로 말했기 때문이라고 봄
      Meta는 Sama가 자사 기준을 충족하지 못했기 때문이라고 했고, Sama는 그 비판을 부인함
    • 내부고발자 보호는 제대로 작동하는 사회의 핵심임
      범죄자를 보호하면서 내부고발자를 망신 주는 건 독재정권과 과두제뿐임
      아웃소싱 업체가 어느 나라에 있든 상관없고, 범죄가 글로벌해졌다면 내부고발자 보호도 글로벌해져야 함
  • “거실부터 나체까지 다 본다”고 한 노동자가 말했다고 함
    Meta는 이것이 고객 경험 개선 목적이며 다른 회사들도 흔히 하는 관행이라고 했는데, 이걸 제대로 읽은 게 맞나 싶음
    인터넷에서 20년 동안 본 발언 중 아마 가장 기괴함

    • 완전한 판타지임. Big Tech에서 일해봤지만, 수정되지 않은 사적인 사진이나 집 내부 사진을 “고객 경험 개선” 같은 모호한 이유로 업로드하고 회사나 계약업체가 보게 하는 건, 내가 일한 어디에서도 표면적인 프라이버시·데이터 보호 리뷰조차 통과하지 못함
      Meta는 자기들이 무슨 말을 하는지 읽기나 하는 걸까 싶음
    • 예전에 작은 바닥청소 로봇 Ecovacs Deebot U2 pro 매뉴얼을 읽었는데, 사용하면 사진을 찍어 원격 서버로 보낼 권리를 부여한다는 식으로 적혀 있었음
      문제 분석 같은 목적이라고 했던 것 같음
    • 제대로 읽어야 했던 건 Facebook 약관이었음
      WhatsApp을 안 쓴다고 말하면 아직도 이상한 반응을 듣는데, Meta의 모든 자산은 오염돼 있어서 쓰지 않음
    • 이게 왜 이상한가 싶음. 사람들은 아주 작은 편의성 이득을 위해 오래전부터 프라이버시를 넘겨왔음
    • 태깅, 태깅, 태깅임. “개선”이란 건 LLM과 diffusion 모델을 가르치는 일임
  • 여기서 뭐가 더 나쁜지 모르겠음. Meta가 고객의 스마트 안경에서 영상을 녹화하는 것인지, 아니면 그 얘기를 한 사람들을 해고하는 것인지

    • 후자가 더 나쁨. 적어도 그건 실수였다거나 “그냥 버그였다”고 주장할 수도 없기 때문임
    • 사람들이 파트너와 섹스하면서 감시 안경을 쓰는 게 더 나쁠 수도 있음
      이런 회사들이 쓰레기처럼 굴지 못하게 압박해야 하는 건 맞지만, 결국 사람들이 넘겨준 데이터가 있어야 그 데이터로 쓰레기 짓을 할 수 있음
      Flock처럼 “공공” 감시 데이터로 쓰레기 짓을 하는 예외는 있음
      기업 감시 고글을 쓰고 친밀한 순간을 보내는 일이 정상화될 만큼 문화가 망가졌다는 건 알지만, 어떻게 이렇게까지 신뢰하게 됐는지 모르겠음
    • Meta와 관련된 모든 것은, 그 이름부터 시작해서 처음부터 악했음
    • 아주 조금만 끼워 넣자면, 왜 나체이거나 섹스 중에 인터넷 카메라를 몸에 착용하고 있는 건지 이해가 안 됨
      더 넓게 보면, Meta가 당연히 모니터링할 인터넷 연결 카메라를 왜 착용하는지도 모르겠음
  • 스마트 안경과 다른 “개인용” 기술 주변의 까다로운 프라이버시·보안 문제는 신중하고 성실하며 반응 빠른 회사라면 충분히 다룰 수 있다고 봄
    그래서 Meta의 개인용 기기는 절대 손대지 않을 것임
    그들의 DNA 전체가 사용자를 이윤을 위해 착취하도록 쓰여 있음
    내 판단으로는 이런 문제를 착취의 깊이를 사람들이 모르게 가리는 대상으로만 볼 뿐, 말 그대로 제대로 고려할 수도 없고 앞으로도 그러지 않을 것임

  • 안경에서 찍힌 영상이 어떤 조건에서 분류용으로 업로드되는지 궁금함
    아마 사용자가 안경에 보고 있는 것에 대해 뭔가 물어보면, 답을 만들기 위해 영상이 분류용으로 업로드되는 구조일 듯함
    사람들은 “그냥 AI”라고 생각해서 프라이버시를 별로 걱정하지 않는 듯함

    • 기본값으로 항상 그렇다고 가정함
  • 이 헤드라인을 보니 “row”가 거의 평생 잘못 발음해온 단어 중 하나였다는 게 떠오름. 올해에서야 정확한 발음을 알았음
    이 문맥의 row는 dough가 아니라 cow와 운이 맞음
    처음 떠오른 운율 예시는 bow였는데, 그 예시에 문제가 있다는 걸 깨달았음

    • 적어도 영국에서는 농담 소재임. 대부분의 미국인은 차이를 모름
      “공통의 언어로 갈라진 두 나라”라는 말이 딱 맞음
    • 놀랍게도 나도 평생 이걸 잘못 발음해왔음. 원어민인데도 영어는 계속 놀라게 함
      https://www.merriam-webster.com/dictionary/row#dictionary-en...
    • rowdy의 row처럼 발음하면 됨
  • 전 Meta 직원임. 야유해도 맞음
    내부에는 데이터 등급이 4단계 있었고, 1은 “하늘은 파랗다” 같은 공개 영역 정보, 4는 개인 사용자 데이터나 유출·공유되면 민감한 정보였음
    기본적으로 모든 사용자 데이터는 레벨 4라고 들었고, 제대로 된 승인 없이 뭔가 하면 즉시 해고되는 구조였음
    부트캠프 중 매달 최소 한 명쯤 사용자 데이터에 접근했다가 몇 시간 안에 건물 밖으로 호송됐다는 얘기가 많았음
    내가 일한 시각 연구 쪽에서는 공공장소에서 영상을 녹화할 허가를 받기 위해 1년어치 법무 절차를 거쳐야 했음
    익명화 파이프라인, 탄탄한 감사 추적, 가능한 한 많은 데이터 삭제, 뭔가 잘못되면 자동 삭제되는 체계를 만들어야 했음
    데이터 저장 위치와 접근 가능한 사람에 대한 엄격한 규칙도 있었음
    계약서에 서명하지 않은 사람이 조금이라도 나올 수 있는 “야생” 영상은 제3자에게 넘어가므로 주석 작업용으로 공유할 수 없었음
    공개 데이터셋에 들어간 추적 가능한 사람과 장소는 모두 법적 면책서가 서명돼 있었음
    그런데 이제 와서 사적 데이터를 어노테이터에게 그냥 쏟아부어 학습 데이터로 썼다고 들으니, 기본적인 통제조차 없었던 셈임
    Zuck이나 수익화가 뭔가 원하면 규칙이 적용되지 않는다는 걸 보여줄 뿐임
    그 산업 전체가 스스로 무너지는 걸 기대함

    • Meta 사업의 규모와 성격을 보면 더 나은 시스템이 있을 거라고 생각했음
      SWE는 사용자나 고객의 명시적 동의가 있는 경우, 예컨대 지원 티켓 같은 상황에서만 PII에 접근할 수 있어야 함
      특히 부트캠프 중인 사람이라면 더더욱 그렇고, 교육 중에 비익명화 사용자 데이터에 접근할 수 있는 건지 의문임
      내 전 회사에서도 고객 동의가 있어도 사용자 데이터에 접근하려면 정말 많은 절차를 거쳐야 했음
    • Cambridge Analytica 이후 Meta가 개인용 작업에도 API 사용 요건을 매우 엄격하게 적용한 걸 보며 늘 궁금했음
      내부에서는 전혀 다른 이야기가 벌어지고 있다는 게 노골적으로 보였기 때문임
  • 스마트 안경의 더 큰 상업적 틈새 중 하나가 POV 포르노 촬영이라서, 그런 콘텐츠가 모더레이션 큐에 들어간 건 별로 놀랍지 않음
    프로젝트는 그 사용 사례를 고려해 계획했어야 함

    • Meta가 그 사용 사례의 존재를 인정하기 얼마나 어색한지도 이해함
      Oculus Go 시절에도 “우리 기기는 사람들이 포르노를 볼 수 있도록 브라우저를 포함해 출시해야 한다”는 말을 피하려고 내부에서 정중한 완곡어법이 많았음
    • 애초에 왜 “모더레이션 큐”가 있는지 모르겠음. 이건 사람들의 사적 녹화물이 아닌가
    • 사람들이 하는 일을 어떻게 모더레이션한다는 건가
      서버로 스트리밍됐으니 누군가를 보내 섹스를 못 하게 막겠다는 건가
  • https://archive.ph/ubWba

  • AI 학습의 불쾌한 측면이 제3세계 빈곤 노동자에게 떠넘겨지는 방식을 더 읽고 싶다면 Karen Hao의 Empire of AI를 추천함
    이 노동자들은 불안정한 일자리에서 시간당 푼돈을 받고 끔찍한 자료에 노출됨

    • 그 책에서는 어떤 예시들을 다뤘는지 궁금함