4P by xguru 1달전 | favorite | 댓글 1개

- 애플은 이 발표가 "오해되었다" 라고 말함
- Craig Federighi는 "2가지 기능을 동시에 발표한 것이 혼란을 불러왔다" 라고 BBC와 인터뷰
1. 이미지 스캐닝
ㅤ→ 사용자가 iCloud 저장소에 사진을 업로드 할때 CSAM(아동 성 학대 자료)인지 판별 하는 것
ㅤ→ NCMEC가 보유한 해시코드와 비교를 통해서 이루어짐
ㅤ→ 이 해시비교는 페이스북, 구글, MS 같은 클라우드 업체들도 이미 다 하고 있음(미국의 법률 때문에)
ㅤ→ 유사하게 구현하지만, iCloud에 올리기전에 사용자의 아이폰/아이패드에서 그 해시와 비교를 먼저 하는 것
ㅤ→ 사진에 대해서 스캐닝은 하지 않음. Fingerprint 매칭만 수행
ㅤ→ 이 해시와 일치하는 이미지를 30개이상 업로드 하려고 하면 그때 애플이 계정에 플래그하고 해당 이미지 검토를 수행
2. 메시지 필터링
ㅤ→ 부모가 자녀들의 계정에서 활성화 할 수 있는 자녀 보호 기능
ㅤ→ 활성화시 iMessage 앱에서 자녀가 받거나 보낸 사진을 확인
ㅤ→ 머신러닝 시스템이 사진에 과도한 노출이 있다고 판단하면, 사진을 가리고 아동에게 경고를 표시
ㅤ→ 부모는 자녀가 사진을 보기로 선택한 경우 알림을 받도록 선택이 가능

- 즉, 애플은 아이폰에서 이미지를 스캔 하지 않는다는 것.
ㅤ"우리가 하는 일에 대해 매우 긍정적이고 강하게 느끼고 있으며, 이게 아주 많이 오해되고 있는 것 같다" - 크레이그 페더리기

xguru 1달전  [-]

- 애플, 아동 보호를 위한 새로운 안전기능 도입 https://news.hada.io/topic?id=4775