最近,蘋果公推出了一項新的兒童安全功能,它可以代表政府掃描用戶iCloud照片中跟兒童性虐待相關的圖片。然而,這一決定卻遭到了隱私倡導者的嚴厲批評。現在,針對這些批評,路透社報道稱,這家科技巨頭已經澄清,它將使用該功能掃描“被多個國家的資訊交換中心所標記”的圖像。
自動掃描系統只有在圖像超過30張的初始閾值時才會提醒蘋果以便由人工審查人員處理這個問題。
該公司表示,這一數字最終將在未來一段時間內減少。它還明確表示,它的圖像標識符列表是通用的,對於它所應用的任何設備都是相同的。
蘋果進一步說明,它的部署會產生一個加密的設備上兒童性虐待材料(CSAM)的哈希數據庫,它們來自不少於兩個或更多的組織並在獨立的國家政府的贊助下運轉。
這家科技巨頭沒有說明這一影響是否對其立場有任何影響,但它表示,對於最初的聲明存在困惑且該項目仍在開發中。