GN⁺ 2025-01-19 | parent | ★ favorite | on: AI 및 종단간 암호화 논의(blog.cryptographyengineering.com)
Hacker News 의견
  • 자동화된 탐지 시스템이 증가하면서, 개별 사례를 처리하는 인력은 줄어들고 관리자는 자동 탐지에 더 의존하게 됨. 이는 잘못된 긍정 결과가 발생할 때 문제 해결이 어려워져 큰 좌절감을 초래할 수 있음. 특히 법 집행에 사용될 경우, 이는 개인의 삶에 치명적일 수 있음

    • 예를 들어, Amazon에서 불법 리뷰로 잘못 표시되어 문제를 해결하기 위해 사람과 접촉하려고 했으나 실패한 경험이 있음. 이러한 상황이 심각한 범죄 문제에 발생하면 개인의 삶을 망칠 수 있음

    • 자동 탐지 시스템은 인간을 대체하는 것이 아니라 보완하여 더 적은 인력으로 더 많은 일을 할 수 있도록 해야 함. 그러나 현재는 인센티브가 부족하고 의사결정자들이 실제 사례를 다루지 않기 때문에 문제를 인식하지 못함

  • AI가 개인의 작업을 가속화하는 것에서 조직의 통제를 위한 도구로 확장될 때 진정한 위협이 발생할 수 있음. 이는 조직을 더 효과적으로 만들 수 있지만, 직원들이 실제 인간이라는 믿음을 약화시킬 수 있음

  • 대량 감시의 진정한 위험은 불편한 사람에 대한 정보를 수집하여 그들을 더 이상 불편하게 만들지 않도록 하는 것임. 대량 감시의 모든 결과가 아직 드러나지 않았음

  • OpenAI는 데이터가 30일 동안 보관되며, 직원과 제3자 계약자가 이를 검토할 수 있다고 투명하게 밝힘

  • AI 시스템이 실제로 우리를 위해 일하는지에 대한 어려운 질문이 제기되고 있음. 현재의 경향은 중립적이고 프라이버시를 우선시하는 미래에 대한 희망이 제한적임

  • Apple은 보안 연구자가 버그를 확인할 수 있도록 소프트웨어 이미지를 공개하겠다고 발표했으나, 소스 코드는 공개하지 않음. Apple은 사용자 데이터를 보관하지 않으며, 지원 엔지니어가 사용자 데이터를 볼 수 없다고 주장함

  • AI가 누구를 위해 일하는지에 대한 문제는 광고 기술 회사가 AI를 사용자 이익에 반하여 작동하게 할 가능성이 큼. 이는 광고 지원 "무료" 서비스에 대한 기대 때문임

  • AI 에이전트가 실제로 누구를 위해 일하는지에 대한 법적 개념이 중요함. 현재 제안된 내용은 다양한 위협에 대한 감시를 포함함

  • 대량 감시의 결과로 클라우드에 저장된 데이터가 스캔 가능해지면서, 단순한 반대 의견으로 인해 감시를 받을 수 있는 위험이 증가함

  • 기술적 보장은 사용자 약속과 다름. Apple의 PCC는 보안성을 높이지만 투명성이나 책임성을 보장하지 않음. 투명성이 보안보다 더 큰 문제임

  • AI가 사회에 봉사하기 위해서는 정보 불균형을 해소해야 함. 좋은 기업 행동을 원한다면 그들이 투명하게 운영되도록 해야 함

  • 기술적 선택이 프라이버시 문제를 해결하지 못할 수 있음. AI 에이전트에 대한 접근 권한이 누구에게 주어질지가 중요함. 기술적으로는 에이전트를 로컬에서 실행하고 시스템에 접근할 수 없는 사람과의 대화를 차단할 수 있음