- 케빈 뱅크스터의 트윗에 따르면 구글의 Gemini AI 서비스가 사용자 허락 없이 비공개 드라이브 문서를 읽고 있음
- 구글의 명성에 어울리지 않는 일이며 민감한 개인 정보에 대한 통제권이 전혀 없음
- AI의 강제적인 출시에 따른 향후 프라이버시 문제에 좋은 징조가 아님
정확히 무슨 일이 일어나고 있는 것인가?
- 구글 지원팀과 Gemini AI 모두 정확히 알지 못하지만 케빈 뱅크스터는 몇 가지 이론을 제시함
- 구글 문서가 아닌 구글 드라이브 전체에서 기술적으로 일어나고 있음
이 문제의 원인은 무엇인가?
- Gemini AI에 따르면 Gemini에 알려야 할 개인 정보 보호 설정을 공개적으로 사용할 수 있어야 하지만 그렇지 않음
- AI가 "환각(거짓말)을 하고 있거나" 구글 서버의 일부 내부 시스템에 오작동이 있는 것으로 보임
- 이 비공개 데이터가 Gemini AI 교육에 사용되지 않는다 하더라도 좋아 보이지 않음
뱅크스터가 발견한 설정 토글의 문제점
- Gemini 요약 기능이 이미 비활성화되어 있었음
- Gemini 봇이 처음에 가리킨 웹 페이지와 완전히 다른 곳에 있었음
뱅크스터의 경우 문제가 구글 드라이브에 국한된 것으로 보임
- 최소한 하나의 문서에서 Gemini 버튼을 누른 후에만 발생함
- 일치하는 문서 유형(이 경우 PDF)은 구글 드라이브 내에서 열리는 모든 동일 유형의 파일에 대해 향후 자동으로 구글 Gemini를 트리거함
- 2023년에 Google Workspace Labs를 활성화한 것이 원인일 수 있음. 의도한 Gemini AI 설정을 무시할 수 있음
이 문제가 Google Workspace Labs 사용자에게만 국한된다 하더라도 심각한 단점임
- 최신 기술 테스트를 도운 대가로 치러야 할 대가
- 잠재적으로 민감한 정보와 관련하여 세부적인 수준에서 사용자 동의가 여전히 중요함
- 구글은 이 원칙을 지키지 못함으로써 최소한 사용자 기반의 한 부분에 대해 완전히 실패함
GN⁺의 의견
- 사용자 동의 없이 개인 정보를 수집하고 분석하는 것은 심각한 프라이버시 침해임. 특히 세금 환급과 같은 민감한 정보일 경우 더욱 그러함
- AI 기술이 발전하면서 이러한 문제가 더욱 심각해질 수 있음. 기업들은 사용자 프라이버시 보호를 최우선으로 고려해야 함
- Google Workspace Labs와 같은 베타 테스트 프로그램에 참여하는 사용자들을 위한 더 나은 보호 장치와 투명성이 필요함
- AI 기술 도입 시 사용자 동의와 선택권을 존중하는 것이 중요함. 강제적인 방식은 사용자의 신뢰를 잃게 됨
- 구글은 이번 사태를 계기로 Gemini AI를 포함한 자사 서비스의 프라이버시 정책을 점검하고 사용자와의 소통을 강화해야 할 것임