【Apple】蘋果為查兒童性剝削內容 證實會掃描用戶iCloud郵件

科技 18:07 2021/08/24

分享:

近日蘋果向外媒證實,該企早於2019年就開始掃描用戶iCloud Mail的郵件,是否含有兒童性剝削內容(Child Sexual Abuse Material,CSAM)。

蘋果(Apple)早前宣布「兒童保護」(Child Safety)政策,並會引入3項全新機制,自動偵測iPhone、iCloud 可能存在的兒童色情圖像。近日蘋果向外媒證實,該企早於2019年就開始掃描用戶iCloud Mail的郵件,是否含有兒童性剝削內容(Child Sexual Abuse Material,CSAM),但就強調並未包含iCloud Photos或iCloud備份。

【蘋果新品】傳Mac mini秋季亮相 將搭載蘋果自家M1X處理器

【蘋果Siri】蘋果推測試程式 收集語音數據增Siri效能

根據科技網站9To5Mac報道指,蘋果在今年8月初首次表示,將於蘋果的iOS、MacOS等各作業系統上植入CSAM資料庫,當用家上傳照片到iCloud時,就會與該資料庫進行比對,一旦符合CSAM資料庫的照片數量達到30張,就會觸發警報並進入人工審查,再決定是否關閉該用戶的帳號或通報主管機關。

而相關的新政策就惹起外界熱議,質疑蘋果此舉觸犯了使用者的私隱權。9To5Mac其後追查,向蘋果查詢關於兒童色情政策,並好奇為何蘋果會知道自家渠道成為成為散布兒童色情的最佳平台。

在9To5Mac追問下,蘋果向其證實該企自2019年起,就開始掃描用戶iCloud Mail的附加檔案是否包含CSAM。而蘋果更坦承,除iCloud Mail外,他們更掃描了其他資料,但就強調不包含iCloud備份。

【蘋果爭議】 蘋果無理拒更新 FlickType停支援盲人用iPhone鍵盤

責任編輯:曾曉汶

緊貼財經時事新聞分析,讚好hket Facebook 專版