蘋果偵測兒童性剝削內容工具引發私隱疑慮 官方宣布延遲推出

科技 15:33 2021/09/06

分享:

由於各界對於CSAM檢測工具存有私隱疑慮,蘋果宣布,將延遲推出有關的兒童安全保護功能。

為了打擊兒童色情行為,蘋果(Apple)曾於上個月宣布,計劃在iOS、MacOS等系統引入CSAM工具,用作偵測疑與兒童色情有關的相片。最新外媒指出,由於各界對該項功能存有私隱疑慮,官方就宣布,將延遲推出有關的兒童安全保護功能。

<<【Apple】蘋果再讓步! 允「閱讀器」App開發商加入網站連結管理帳戶

<<【侵犯私隱】Siri偷聽對話涉侵犯用戶私隱 蘋果或面臨集體訴訟

Apple在上月曾表示,將在iOS 15、iPadOS 15、watchOS 8等操作系統中,加入「兒童性剝削內容」 CSAM檢測工具。該工具利用人工智能(AI)技術進行偵測,若懷疑用戶發送或接收到任何色情圖片,系統會向未成年用戶及其父母發送警告。

此外,若系統在iCloud、iMessage、Siri等平台偵測兒童性侵犯內容,即向美國國家兒童失蹤與受虐兒童援助中心(NCMEC)進行舉報。雖然Apple強調,此項功能不會對用戶私隱造成影響,但仍有不少外界表示憂慮,並反對Apple實行該計劃。

在受到各界爭議下,官方表示,未來會利用更多時間收集不同客戶、團體、研究人員等意見,因應作出研究及改善,因此延遲推出有關功能。

責任編輯:李寶如

緊貼財經時事新聞分析,讚好hket Facebook 專版
訂閱《香港經濟日報》電郵通訊
收取第一手財經新聞資訊 了解更多投資理財知識 提交代表本人同意收取香港經濟日報集團所發出的推廣訊息,你也可以查閱本網站的私隱政策使用條款