▲GN⁺ 2025-01-19 | parent | ★ favorite | on: AI 및 종단간 암호화 논의(blog.cryptographyengineering.com)Hacker News 의견 자동화된 탐지 시스템이 증가하면서, 개별 사례를 처리하는 인력은 줄어들고 관리자는 자동 탐지에 더 의존하게 됨. 이는 잘못된 긍정 결과가 발생할 때 문제 해결이 어려워져 큰 좌절감을 초래할 수 있음. 특히 법 집행에 사용될 경우, 이는 개인의 삶에 치명적일 수 있음 예를 들어, Amazon에서 불법 리뷰로 잘못 표시되어 문제를 해결하기 위해 사람과 접촉하려고 했으나 실패한 경험이 있음. 이러한 상황이 심각한 범죄 문제에 발생하면 개인의 삶을 망칠 수 있음 자동 탐지 시스템은 인간을 대체하는 것이 아니라 보완하여 더 적은 인력으로 더 많은 일을 할 수 있도록 해야 함. 그러나 현재는 인센티브가 부족하고 의사결정자들이 실제 사례를 다루지 않기 때문에 문제를 인식하지 못함 AI가 개인의 작업을 가속화하는 것에서 조직의 통제를 위한 도구로 확장될 때 진정한 위협이 발생할 수 있음. 이는 조직을 더 효과적으로 만들 수 있지만, 직원들이 실제 인간이라는 믿음을 약화시킬 수 있음 대량 감시의 진정한 위험은 불편한 사람에 대한 정보를 수집하여 그들을 더 이상 불편하게 만들지 않도록 하는 것임. 대량 감시의 모든 결과가 아직 드러나지 않았음 OpenAI는 데이터가 30일 동안 보관되며, 직원과 제3자 계약자가 이를 검토할 수 있다고 투명하게 밝힘 AI 시스템이 실제로 우리를 위해 일하는지에 대한 어려운 질문이 제기되고 있음. 현재의 경향은 중립적이고 프라이버시를 우선시하는 미래에 대한 희망이 제한적임 Apple은 보안 연구자가 버그를 확인할 수 있도록 소프트웨어 이미지를 공개하겠다고 발표했으나, 소스 코드는 공개하지 않음. Apple은 사용자 데이터를 보관하지 않으며, 지원 엔지니어가 사용자 데이터를 볼 수 없다고 주장함 AI가 누구를 위해 일하는지에 대한 문제는 광고 기술 회사가 AI를 사용자 이익에 반하여 작동하게 할 가능성이 큼. 이는 광고 지원 "무료" 서비스에 대한 기대 때문임 AI 에이전트가 실제로 누구를 위해 일하는지에 대한 법적 개념이 중요함. 현재 제안된 내용은 다양한 위협에 대한 감시를 포함함 대량 감시의 결과로 클라우드에 저장된 데이터가 스캔 가능해지면서, 단순한 반대 의견으로 인해 감시를 받을 수 있는 위험이 증가함 기술적 보장은 사용자 약속과 다름. Apple의 PCC는 보안성을 높이지만 투명성이나 책임성을 보장하지 않음. 투명성이 보안보다 더 큰 문제임 AI가 사회에 봉사하기 위해서는 정보 불균형을 해소해야 함. 좋은 기업 행동을 원한다면 그들이 투명하게 운영되도록 해야 함 기술적 선택이 프라이버시 문제를 해결하지 못할 수 있음. AI 에이전트에 대한 접근 권한이 누구에게 주어질지가 중요함. 기술적으로는 에이전트를 로컬에서 실행하고 시스템에 접근할 수 없는 사람과의 대화를 차단할 수 있음
Hacker News 의견
자동화된 탐지 시스템이 증가하면서, 개별 사례를 처리하는 인력은 줄어들고 관리자는 자동 탐지에 더 의존하게 됨. 이는 잘못된 긍정 결과가 발생할 때 문제 해결이 어려워져 큰 좌절감을 초래할 수 있음. 특히 법 집행에 사용될 경우, 이는 개인의 삶에 치명적일 수 있음
예를 들어, Amazon에서 불법 리뷰로 잘못 표시되어 문제를 해결하기 위해 사람과 접촉하려고 했으나 실패한 경험이 있음. 이러한 상황이 심각한 범죄 문제에 발생하면 개인의 삶을 망칠 수 있음
자동 탐지 시스템은 인간을 대체하는 것이 아니라 보완하여 더 적은 인력으로 더 많은 일을 할 수 있도록 해야 함. 그러나 현재는 인센티브가 부족하고 의사결정자들이 실제 사례를 다루지 않기 때문에 문제를 인식하지 못함
AI가 개인의 작업을 가속화하는 것에서 조직의 통제를 위한 도구로 확장될 때 진정한 위협이 발생할 수 있음. 이는 조직을 더 효과적으로 만들 수 있지만, 직원들이 실제 인간이라는 믿음을 약화시킬 수 있음
대량 감시의 진정한 위험은 불편한 사람에 대한 정보를 수집하여 그들을 더 이상 불편하게 만들지 않도록 하는 것임. 대량 감시의 모든 결과가 아직 드러나지 않았음
OpenAI는 데이터가 30일 동안 보관되며, 직원과 제3자 계약자가 이를 검토할 수 있다고 투명하게 밝힘
AI 시스템이 실제로 우리를 위해 일하는지에 대한 어려운 질문이 제기되고 있음. 현재의 경향은 중립적이고 프라이버시를 우선시하는 미래에 대한 희망이 제한적임
Apple은 보안 연구자가 버그를 확인할 수 있도록 소프트웨어 이미지를 공개하겠다고 발표했으나, 소스 코드는 공개하지 않음. Apple은 사용자 데이터를 보관하지 않으며, 지원 엔지니어가 사용자 데이터를 볼 수 없다고 주장함
AI가 누구를 위해 일하는지에 대한 문제는 광고 기술 회사가 AI를 사용자 이익에 반하여 작동하게 할 가능성이 큼. 이는 광고 지원 "무료" 서비스에 대한 기대 때문임
AI 에이전트가 실제로 누구를 위해 일하는지에 대한 법적 개념이 중요함. 현재 제안된 내용은 다양한 위협에 대한 감시를 포함함
대량 감시의 결과로 클라우드에 저장된 데이터가 스캔 가능해지면서, 단순한 반대 의견으로 인해 감시를 받을 수 있는 위험이 증가함
기술적 보장은 사용자 약속과 다름. Apple의 PCC는 보안성을 높이지만 투명성이나 책임성을 보장하지 않음. 투명성이 보안보다 더 큰 문제임
AI가 사회에 봉사하기 위해서는 정보 불균형을 해소해야 함. 좋은 기업 행동을 원한다면 그들이 투명하게 운영되도록 해야 함
기술적 선택이 프라이버시 문제를 해결하지 못할 수 있음. AI 에이전트에 대한 접근 권한이 누구에게 주어질지가 중요함. 기술적으로는 에이전트를 로컬에서 실행하고 시스템에 접근할 수 없는 사람과의 대화를 차단할 수 있음