GN⁺: Youtube, AI를 이용해 만든 현실감 있는 동영상에 라벨링 요구
(blog.google)- YouTube가 창작자가 실제와 혼동될 수 있는 인공지능(AI)으로 생성된 콘텐츠를 시청자에게 공개하도록 하는 새로운 도구를 소개
- 이 도구는 Creator Studio에 추가되며, 창작자는 실제 사람, 장소 또는 사건으로 쉽게 오인될 수 있는 콘텐츠가 변경되거나 인공적으로 생성된 경우 이를 시청자에게 알려야 함
- 공개는 비디오 설명이 확장되거나 비디오 플레이어 전면에 라벨 형태로 표시됨
필수 공개 대상 콘텐츠 예시
- 실제 인물의 모습 사용: 다른 사람의 얼굴로 대체하거나 인공적으로 생성된 목소리로 비디오를 해설하는 등의 디지털 변형 콘텐츠
- 실제 사건이나 장소의 영상 변경: 실제 건물에 불이 난 것처럼 보이게 하거나 실제 도시 경관을 현실과 다르게 보이도록 변경하는 경우
- 현실적인 장면 생성: 실제 마을을 향해 이동하는 토네이도와 같은 가상의 주요 사건을 현실적으로 묘사하는 경우
공개가 필요 없는 콘텐츠 예시
- 명백히 비현실적인 콘텐츠, 색상 조정 또는 조명 필터, 특수 효과, 미용 필터 등의 시각적 향상
- 창작 과정에서 생산성을 위해 사용된 인공지능, 예를 들어 스크립트 생성, 콘텐츠 아이디어 제공, 자동 자막 생성 등은 공개 대상에서 제외됨
라벨 표시 방법
- 대부분의 비디오에서는 설명이 확장될 때 라벨이 표시되지만, 건강, 뉴스, 선거, 금융 등 민감한 주제를 다루는 비디오의 경우 비디오 자체에 더 눈에 띄는 라벨이 표시됨
- 라벨은 휴대폰의 YouTube 앱부터 시작하여, 데스크톱과 TV에서도 곧 볼 수 있을 예정임
- YouTube는 창작자가 이 정보를 공개하지 않기로 지속적으로 선택하는 경우 향후 집행 조치를 고려할 것임
YouTube와 업계 협력
- YouTube는 디지털 콘텐츠 주변의 투명성을 높이기 위해 업계 전반과 협력을 계속하고 있으며, C2PA의 주도 멤버로 활동하고 있음.
- 또한, AI로 생성되거나 변경된 콘텐츠로 인해 식별 가능한 개인(얼굴 또는 목소리 포함)의 프라이버시가 침해된 경우, 해당 콘텐츠의 제거를 요청할 수 있는 업데이트된 프라이버시 프로세스를 개발 중임.
GN⁺의 의견
- YouTube의 새로운 정책은 디지털 콘텐츠의 투명성을 높이고, 시청자와 창작자 간의 신뢰를 구축하는 데 기여할 것으로 보임.
- 인공지능이 창작 과정에서 점점 더 중요한 역할을 하게 되면서, 이러한 도구는 사용자들이 AI 생성 콘텐츠를 인식하고 이해하는 데 도움을 줄 수 있음.
- 그러나 이러한 정책이 창작자에게 부담을 주거나, 창작의 자유를 제한할 수 있다는 우려도 있을 수 있음.
- 이 기술의 도입은 콘텐츠의 진위를 판별하는 능력을 향상시키지만, 동시에 창작자들에게 추가적인 책임을 요구함으로써 득과 실이 공존함.
- 유사한 기능을 제공하는 다른 플랫폼이나 도구로는 Adobe의 Content Authenticity Initiative가 있으며, 이는 디지털 콘텐츠의 출처와 진위를 추적하는 데 초점을 맞추고 있음.
Hacker News 의견
-
첫 번째 댓글 요약:
- 비즈니스와 학습 관점에서 볼 때, Google의 접근 방식은 AI를 어떻게 정의하고 라벨링할 것인지에 대한 규칙을 설정함으로써 올바른 방향으로 나아가는 초기 단계임.
- 이 규칙은 실제 사람이 하지 않은 말이나 행동을 한 것처럼 보이게 하거나, 실제 사건이나 장소의 영상을 변경하거나, 실제로 발생하지 않은 현실적인 장면을 생성하는 것을 포함함.
- 이러한 가설들을 테스트하고, 법적 논쟁이 일어날 가능성에 대해 궁금해함. 예를 들어, 색상 보정이나 미용 필터, 다양한 비디오 각도에서 AI를 사용하여 추가 장면을 생성하는 것 등이 논의될 수 있음.
-
두 번째 댓글 요약:
- Google 지원 페이지에 따르면, 콘텐츠 제작자가 공개하지 않아도 되는 예시와 공개해야 하는 예시가 명시되어 있음.
- 공개하지 않아도 되는 예시에는 유니콘을 타고 있는 사람, 우주에서 떠다니는 사람을 그린스크린으로 표현하는 것, 색상 조정이나 조명 필터, 배경 흐림이나 빈티지 효과 같은 특수 효과 필터, AI 도구를 사용한 비디오 개요, 스크립트, 썸네일, 제목, 인포그래픽의 생성이나 개선, 자막 생성, 비디오 선명도 향상, 업스케일링 또는 수리, 음성이나 오디오 수리, 아이디어 생성 등이 포함됨.
- 공개해야 하는 예시에는 인공적으로 생성된 음악, 다른 사람의 목소리를 복제하여 음성 해설로 사용하는 것, 실제 장소의 추가 영상을 인공적으로 생성하는 것, 실제 프로 테니스 선수들 간의 경기를 현실적으로 보이게 만드는 비디오, 실제로 하지 않은 조언을 한 것처럼 보이게 하는 것, 인기 있는 가수가 라이브 공연에서 음을 놓친 것처럼 오디오를 디지털로 변경하는 것, 실제로 발생하지 않은 토네이도나 다른 기상 현상이 실제 도시로 이동하는 것처럼 보이게 하는 것, 병원 직원들이 아픈 환자나 부상자를 돌려보낸 것처럼 보이게 하는 것, 공공 인물이 훔친 것처럼 보이게 하거나 훔친 것을 인정하는 것처럼 보이게 하는 것, 실제로 체포되거나 감옥에 간 것처럼 보이게 하는 것 등이 포함됨.
-
세 번째 댓글 요약:
- 이러한 규정은 새로운 EU AI 법을 준수하기 위한 것임.
- AI가 생성한 콘텐츠는 식별 가능해야 하며, 공공의 이익에 관한 정보를 제공하기 위해 게시된 AI 생성 텍스트는 인공적으로 생성된 것으로 라벨링되어야 함. 이는 딥페이크를 구성하는 오디오 및 비디오 콘텐츠에도 적용됨.
-
네 번째 댓글 요약:
- 가수가 라이브 공연에서 음을 놓친 것처럼 오디오를 디지털로 변경하는 것이 흥미로운 예시로 언급됨.
- 이는 최근 슈퍼볼에서 Alicia Keys의 공연 중 발생한 사건과 반대되는 상황으로, NFL이 그녀의 '쉰 음'을 조용히 편집하여 수정한 것과 관련이 있음.
-
다섯 번째 댓글 요약:
- 실제로 발생하지 않은 주요 사건의 현실적인 묘사, 예를 들어 실제 마을로 이동하는 토네이도를 보여주는 것이 공개가 필요한 콘텐츠의 예시임.
- 이는 현재 YouTube 썸네일의 일반적인 상황과 유사하며, AI에만 국한되지 않지만, 이를 감시하는 것이 어려울 것임을 의미함.
-
여섯 번째 댓글 요약:
- 은행이 범죄자들이 거짓말을 할 것으로 예상하면서도 형식적인 서류 작성을 요구하는 것과 유사하게, Google에 거짓말하는 것에 대한 명확한 결과는 없지만, 거짓말을 하는 계정을 더 의심스럽게 만드는 신호로 사용될 수 있음.
-
일곱 번째 댓글 요약:
- 실제 사건이나 장소의 영상을 변경하는 것, 예를 들어 실제 건물이 불에 타는 것처럼 보이게 하거나 실제 도시 경관을 실제와 다르게 보이게 하는 것이 공개가 필요한 콘텐츠임.
- 비디오의 실제 내용을 다루는 기사와는 별개로, 클릭 유도를 위한 과장된 미리보기 이미지에 대한 문제 제기가 있음.
-
여덟 번째 댓글 요약:
- Google Photos 팀이 실제로 발생하지 않은 장면을 표현하기 위해 비디오와 사진을 변경할 것을 적극 권장하고 있음을 YouTube가 인지하고 있는지 의문을 제기함.
-
아홉 번째 댓글 요약:
- 과거 Google은 'AI가 아닌' 필터를 고급 검색에 제공했을 것이지만, 현재 Google은 월스트리트의 불만을 잠재우기 위해 AI 도구를 판매하는 데 바쁘며, AI 비디오가 이미 '바늘을 찾는 건초더미'와 같은 검색의 문제를 어떻게 할 것인지 고려하지 않고 있음.
-
열 번째 댓글 요약:
- YouTube의 정책 담당자들이 향후 몇 년 동안 모호한 사례들을 해석해야 하는 거의 불가능한 과제에 직면해 있음을 지적함.