蘋果公司從其兒童安全網頁上刪除了對有爭議的CSAM掃描功能的提及

蘋果公司已經悄悄地從其兒童安全網頁上刪除了所有提及CSAM的內容,這表明在對其方法提出重大批評后,其檢測iPhone和iPad上兒童性虐待圖像的有爭議的計劃可能懸而未決甚至可能中途夭折。

蘋果公司在8月宣布了一套計劃中的新的兒童安全功能,包括掃描用戶的iCloud照片庫中的兒童性虐待材料(CSAM),在接收或發送色情照片時警告兒童及其父母的通信安全,以及擴大Siri和搜索中的CSAM指導。

Child-Safety-Feature-yellow.webp

這些功能公布后,受到廣泛的個人和組織的批評,包括安全研究人員、隱私吹哨人愛德華·斯諾登、電子前沿基金會(EFF)、Facebook的前安全主管、政治家、政策團體、大學研究人員,甚至一些蘋果員工都對此表示明確反對。

大多數批評都是針對蘋果公司計劃的設備上CSAM檢測,研究人員抨擊其依賴無效和危險的技術,近乎於實施大規模監視,並嘲笑其實際上在識別兒童性虐待圖像方面沒有效果。

蘋果繼續為”信息”功能推出通信安全特性,本周早些時候隨着iOS 15.2的發布而上線,但在批評的洪流中,蘋果決定推遲CSAM的推出,這顯然是它沒有想到的。

9月,該公司表示,”根據客戶、宣傳團體、研究人員和其他方面的反饋,我們決定在未來幾個月花更多時間收集意見,並在發布這些極其重要的兒童安全功能之前進行改進。”

上述聲明之前被添加到蘋果公司的兒童安全頁面,但它現在已經消失了,這就提出了一種可能性,即蘋果公司可能已經把擱置,甚至完全放棄了這個計劃。

(0)
上一篇 2021-12-15 18:27
下一篇 2021-12-15 18:27

相关推荐