GN⁺: AI 및 종단간 암호화 논의
(blog.cryptographyengineering.com)- 최근 NYU와 Cornell 연구진이 발표한 "How to think about end-to-end encryption and AI"라는 논문을 접하게 되었음. 이 논문은 AI와 종단간 암호화에 대한 중요한 질문들을 다루고 있으며, 일부 결론에는 동의하지 않지만 매우 중요한 주제를 다루고 있음.
종단간 암호화란 무엇이며 AI와 어떤 관련이 있는가?
- 지난 10년 동안 가장 중요한 프라이버시 관련 이야기는 종단간 암호화 통신 플랫폼의 부상이었음. 2011년 이전에는 대부분의 클라우드 연결 기기가 데이터를 평문으로 업로드했음.
- 종단간 암호화는 서버가 메시지의 평문 내용을 볼 수 없도록 하는 기술임. 그러나 이 기술은 서버가 데이터를 처리하기 어렵게 만들 수 있음.
- AI의 발전으로 인해 많은 데이터 처리가 원격 서버로 오프로드될 가능성이 높아지고 있음. 이는 프라이버시 문제를 야기할 수 있음.
AI가 종단간 암호화 메시징에 미치는 영향
- 종단간 암호화 시스템은 메시지 내용이 전송 중에 참여자의 기기 외에는 접근할 수 없도록 설계됨. 그러나 사용자가 데이터를 어떻게 처리할지는 보장하지 않음.
- AI가 데이터를 처리하는 방식은 사용자의 동의와 관련된 복잡한 문제를 야기할 수 있음. 일부 회사는 사용자를 잘 안내할 수 있지만, 그렇지 않은 회사도 있을 것임.
신뢰할 수 있는 하드웨어와 Apple의 "Private Cloud Compute"
- Apple은 AI의 프라이버시 문제를 해결하기 위해 "Private Cloud Compute"라는 접근 방식을 도입했음. 이는 신뢰할 수 있는 하드웨어를 사용하여 데이터를 보호하는 방법임.
- 이 시스템은 공격자와 Apple 직원 모두가 데이터를 유출하기 어렵게 만듦. 그러나 여전히 암호화보다 약한 보안 보장을 제공함.
AI 에이전트는 누구를 위해 일하는가?
- AI 에이전트가 사용자의 데이터를 처리하는 방식은 정부가 접근을 요구할 가능성을 열어줄 수 있음. 이는 프라이버시와 관련된 중요한 질문을 제기함.
- 기술적 선택이 프라이버시를 보장하지 못할 수 있으며, 사회가 올바른 정치적 선택을 할 것인지에 대한 확신이 부족함.
Hacker News 의견
-
자동화된 탐지 시스템이 증가하면서, 개별 사례를 처리하는 인력은 줄어들고 관리자는 자동 탐지에 더 의존하게 됨. 이는 잘못된 긍정 결과가 발생할 때 문제 해결이 어려워져 큰 좌절감을 초래할 수 있음. 특히 법 집행에 사용될 경우, 이는 개인의 삶에 치명적일 수 있음
-
예를 들어, Amazon에서 불법 리뷰로 잘못 표시되어 문제를 해결하기 위해 사람과 접촉하려고 했으나 실패한 경험이 있음. 이러한 상황이 심각한 범죄 문제에 발생하면 개인의 삶을 망칠 수 있음
-
자동 탐지 시스템은 인간을 대체하는 것이 아니라 보완하여 더 적은 인력으로 더 많은 일을 할 수 있도록 해야 함. 그러나 현재는 인센티브가 부족하고 의사결정자들이 실제 사례를 다루지 않기 때문에 문제를 인식하지 못함
-
-
AI가 개인의 작업을 가속화하는 것에서 조직의 통제를 위한 도구로 확장될 때 진정한 위협이 발생할 수 있음. 이는 조직을 더 효과적으로 만들 수 있지만, 직원들이 실제 인간이라는 믿음을 약화시킬 수 있음
-
대량 감시의 진정한 위험은 불편한 사람에 대한 정보를 수집하여 그들을 더 이상 불편하게 만들지 않도록 하는 것임. 대량 감시의 모든 결과가 아직 드러나지 않았음
-
OpenAI는 데이터가 30일 동안 보관되며, 직원과 제3자 계약자가 이를 검토할 수 있다고 투명하게 밝힘
-
AI 시스템이 실제로 우리를 위해 일하는지에 대한 어려운 질문이 제기되고 있음. 현재의 경향은 중립적이고 프라이버시를 우선시하는 미래에 대한 희망이 제한적임
-
Apple은 보안 연구자가 버그를 확인할 수 있도록 소프트웨어 이미지를 공개하겠다고 발표했으나, 소스 코드는 공개하지 않음. Apple은 사용자 데이터를 보관하지 않으며, 지원 엔지니어가 사용자 데이터를 볼 수 없다고 주장함
-
AI가 누구를 위해 일하는지에 대한 문제는 광고 기술 회사가 AI를 사용자 이익에 반하여 작동하게 할 가능성이 큼. 이는 광고 지원 "무료" 서비스에 대한 기대 때문임
-
AI 에이전트가 실제로 누구를 위해 일하는지에 대한 법적 개념이 중요함. 현재 제안된 내용은 다양한 위협에 대한 감시를 포함함
-
대량 감시의 결과로 클라우드에 저장된 데이터가 스캔 가능해지면서, 단순한 반대 의견으로 인해 감시를 받을 수 있는 위험이 증가함
-
기술적 보장은 사용자 약속과 다름. Apple의 PCC는 보안성을 높이지만 투명성이나 책임성을 보장하지 않음. 투명성이 보안보다 더 큰 문제임
-
AI가 사회에 봉사하기 위해서는 정보 불균형을 해소해야 함. 좋은 기업 행동을 원한다면 그들이 투명하게 운영되도록 해야 함
-
기술적 선택이 프라이버시 문제를 해결하지 못할 수 있음. AI 에이전트에 대한 접근 권한이 누구에게 주어질지가 중요함. 기술적으로는 에이전트를 로컬에서 실행하고 시스템에 접근할 수 없는 사람과의 대화를 차단할 수 있음