蘋果高管承認兒童安全功能讓用戶混淆 並透露相關保障措施新細節

蘋果公司軟件工程高級副總裁Craig Federighi今天在接受《華爾街日報》的重要採訪時,為該公司計劃中有爭議的兒童安全功能進行了辯護,透露了一些關於蘋果公司掃描用戶照片庫中的兒童性虐待材料(CSAM)保障措施的新細節。

Craig Federighi承認,蘋果在上周宣布這兩項新功能時處理得不好,這兩項功能涉及檢測兒童信息中的明確內容和存儲在iCloud照片庫中的CSAM內容,並承認圍繞這些工具存在廣泛的混淆。很明顯,很多信息在如何理解方面被搞得很亂,蘋果希望可以更加清楚地向用戶進行說明。

QQ圖片20210814013021.png

事後看來,在同一時間推出這兩個功能是造成這種混亂的主要原因。蘋果推出的通信安全功能意味着,如果兒童通過iMessage發送或接收露骨的圖像,他們在查看之前會得到警告,圖像會被模糊,並且會有一個選項讓他們的父母得到提醒。另一方面,CSAM掃描則試圖在上傳到iCloud之前,將用戶的照片與已知CSAM的散列圖像進行匹配。檢測到CSAM的賬戶將接受蘋果公司的人工審查,並可能被報告給美國國家失蹤和被剝削兒童中心(NCMEC)。

這些新功能受到了來自用戶、安全研究人員、電子前沿基金會(EFF)和愛德華斯諾登的大量批評,甚至是蘋果員工的批評。在這些批評聲中,Craig Federighi解決了其中一個主要的關注領域,強調蘋果的系統將受到保護,防止被政府或其他第三方利用,並有多層次的可審計性。

Craig Federighi還透露了圍繞該系統保障措施的一些新細節,例如,用戶需要在其照片庫中滿足約30個CSAM內容的匹配,蘋果才會被提醒,屆時它將確認這些圖像是否是CSAM的真實實例。如果而且只有當用戶達到30張已知兒童色情圖片的匹配門檻時,蘋果才會知道用戶的賬戶和這些圖片的情況,而且在這一點上,蘋果只知道這些圖片,不知道用戶的任何其他圖片。

Craig Federighi還指出了將匹配過程直接放在iPhone上的安全優勢,而不是發生在iCloud的服務器上。因為它在手機上,安全研究人員能夠不斷研究蘋果手機軟件中發生了什麼。因此,如果做出任何改變,以某種方式擴大這個範圍,安全研究人員就會及時發現。

當被問及用於匹配用戶設備上CSAM內容的圖像數據庫是否會插入其他材料(如政治內容)而受到影響時,Craig Federighi解釋說,該數據庫是由多個兒童安全組織的圖像構建的,其中至少有兩個是在不同的司法管轄區。據Craig Federighi稱,這些兒童保護組織以及一個獨立的審計機構將能夠核實圖像數據庫只包括來自這些實體的內容。

(0)
上一篇 2021-08-14 01:50
下一篇 2021-08-14 02:58

相关推荐