2P by neo 2달전 | favorite | 댓글과 토론
  • 케빈 뱅크스터의 트윗에 따르면 구글의 Gemini AI 서비스가 사용자 허락 없이 비공개 드라이브 문서를 읽고 있음
  • 구글의 명성에 어울리지 않는 일이며 민감한 개인 정보에 대한 통제권이 전혀 없음
  • AI의 강제적인 출시에 따른 향후 프라이버시 문제에 좋은 징조가 아님

정확히 무슨 일이 일어나고 있는 것인가?

  • 구글 지원팀과 Gemini AI 모두 정확히 알지 못하지만 케빈 뱅크스터는 몇 가지 이론을 제시함
  • 구글 문서가 아닌 구글 드라이브 전체에서 기술적으로 일어나고 있음

이 문제의 원인은 무엇인가?

  • Gemini AI에 따르면 Gemini에 알려야 할 개인 정보 보호 설정을 공개적으로 사용할 수 있어야 하지만 그렇지 않음
  • AI가 "환각(거짓말)을 하고 있거나" 구글 서버의 일부 내부 시스템에 오작동이 있는 것으로 보임
  • 이 비공개 데이터가 Gemini AI 교육에 사용되지 않는다 하더라도 좋아 보이지 않음

뱅크스터가 발견한 설정 토글의 문제점

  • Gemini 요약 기능이 이미 비활성화되어 있었음
  • Gemini 봇이 처음에 가리킨 웹 페이지와 완전히 다른 곳에 있었음

뱅크스터의 경우 문제가 구글 드라이브에 국한된 것으로 보임

  • 최소한 하나의 문서에서 Gemini 버튼을 누른 후에만 발생함
  • 일치하는 문서 유형(이 경우 PDF)은 구글 드라이브 내에서 열리는 모든 동일 유형의 파일에 대해 향후 자동으로 구글 Gemini를 트리거함
  • 2023년에 Google Workspace Labs를 활성화한 것이 원인일 수 있음. 의도한 Gemini AI 설정을 무시할 수 있음

이 문제가 Google Workspace Labs 사용자에게만 국한된다 하더라도 심각한 단점임

  • 최신 기술 테스트를 도운 대가로 치러야 할 대가
  • 잠재적으로 민감한 정보와 관련하여 세부적인 수준에서 사용자 동의가 여전히 중요함
  • 구글은 이 원칙을 지키지 못함으로써 최소한 사용자 기반의 한 부분에 대해 완전히 실패함

GN⁺의 의견

  • 사용자 동의 없이 개인 정보를 수집하고 분석하는 것은 심각한 프라이버시 침해임. 특히 세금 환급과 같은 민감한 정보일 경우 더욱 그러함
  • AI 기술이 발전하면서 이러한 문제가 더욱 심각해질 수 있음. 기업들은 사용자 프라이버시 보호를 최우선으로 고려해야 함
  • Google Workspace Labs와 같은 베타 테스트 프로그램에 참여하는 사용자들을 위한 더 나은 보호 장치와 투명성이 필요함
  • AI 기술 도입 시 사용자 동의와 선택권을 존중하는 것이 중요함. 강제적인 방식은 사용자의 신뢰를 잃게 됨
  • 구글은 이번 사태를 계기로 Gemini AI를 포함한 자사 서비스의 프라이버시 정책을 점검하고 사용자와의 소통을 강화해야 할 것임