蘋果早在 2019 年就開始在 iCloud 郵件上,執行兒童色情照片掃描


line banner

CSAM iCould

前一陣子蘋果推出的新兒童安全政策,為了保護兒童安全與阻止兒童性虐待素材 CSAM(Child Sexual Abuse Material)傳播,新功能會檢查儲存在 iCloud 中的照片,若有 CSAM 相關的照片存在 iCloud 中,會自動與相關執法單位。但外媒 9to5Mac 報導表示,蘋果向他們承認,早在 2019 年就開始執行相關的掃描作業。

蘋果早在 2019 年就開始掃描 iCloud 郵件

近日蘋果向外媒 9to5Mac 承認,蘋果自 2019 年,就已經開始掃描 iCloud 郵件,檢查兒童性虐待素材 CSAM(Child Sexual Abuse Material),但是並沒有掃描 iCloud 照片與 iCloud 備份。

因為電子郵件沒有加密,所以掃描郵件這件事對於蘋果來說是一件非常容易的事。蘋果也表示,目前也正在進行一些線上有限掃描,但是沒有明說是掃瞄哪些東西,只是稍微暗示是小規模掃描。但確定不包含 iCould 備份。

蘋果執行 CSAM 掃描的原因

蘋果在兒童安全說明頁面內文(節錄):

無論產品在哪使用,蘋果都致力於保護整個生態系統中的兒童,我們將繼續在該領域繼續創新。

作為承諾的一部分,蘋果使用圖像匹配技術來幫助檢查與通報兒童虐待案件,就像電子郵件中的過濾器一樣,我們的系統使用電子簽名檔來檢查涉嫌兒童虐待的行為。透過單獨審核來驗證,含有虐待兒童相關內容的帳戶違反了我們的服務條款,我們發現後都會將這樣的帳戶禁用。

CSAM iCould

另外兩種新兒童安全功能

除了檢測上傳至 iCloud 的兒童色情照片外,蘋果也發表了另外 2 項兒童安全功能:訊息 App 會阻擋敏感圖片搜尋敏感內容時會發出警告

訊息 App 會阻擋敏感圖片

收到敏感內容的照片時,照片會自動模糊,兒童不會看到相關的敏感內容。同時為了確保孩童安全,在收到或是發送內含敏感內容的訊息時,孩童與家長都會收到警告訊息,即時阻止敏感訊息傳播。

iOS 15 iPadOS 15 watchOS 8 macOS 12 Monterey 兒童安全 CSAM

搜尋敏感內容時會發出警告

若使用 Siri、Spotlight 搜尋 CSAM、相關兒童色情內容時,新功能也會阻擋,並發出警告訊息。 Siri、Spotlight 的警告功能,將在今年稍晚更新至 iOS 15、iPadOS 15、watchOS 8、macOS 12 Monterey 中。

iOS 15 iPadOS 15 watchOS 8 macOS 12 Monterey 兒童安全 CSAM

延伸閱讀》