安全研究人員對蘋果掃描iCloud照片的計劃表示擔憂

據外媒報道,蘋果今日(當地時間8月5日)宣布,隨着iOS 15和iPadOS 15的發布,它將開始在美國掃描iCloud照片以尋找已知的兒童性虐待材料(CSAM),另外還計劃向國家失蹤和被剝削兒童中心(NCMEC)報告調查結果。

as1.jpg

據悉,在蘋果詳細闡述其計劃之前,有關CSAM倡議的消息就已泄露,安全研究人員已經開始對蘋果的新圖像掃描協議在未來可能如何使用表示擔憂。

眼下,蘋果正在使用NeuralHash系統,其將已知的CSAM圖像跟用戶iPhone上的照片進行比較然後再上傳到iCloud上。如果匹配,照片就會跟加密安全憑證一起上傳,當達到一定閾值時就會觸發審查,該審查會檢查該名用戶的設備上是否有CSAM。

目前,蘋果正在使用其圖像掃描和匹配技術來尋找虐待兒童的情況,但研究人員擔心,在未來,它可能會被用於掃描其他更令人擔憂的圖像如抗議活動中的反政府標語。

來自約翰霍普金斯大學的密文研究員Matthew Green在一系列推文中指出,CSAM掃描是一個非常糟糕的主意,因為在未來,它可能會擴展到掃描端到端加密的照片,而不僅僅是上傳到‌iCloud‌的內容。對於兒童,蘋果正在實施一項單獨的掃描功能,其直接在端到端加密的iMessages中尋找色情內容。

Green還對蘋果計劃使用的哈希提出了擔憂,因為這裡面可能存在“衝突”,即某人發送一個跟CSAM共享哈希的無害文件進而可能導致錯誤標記。

對此,蘋果方面表示,其掃描技術具有極高的準確性以確保賬號不會被錯誤標記,在用戶的‌iCloud‌賬號被禁用並向NCMEC發送報告之前報告會被手動審查。

Green認為,蘋果的實施將會推動其他科技公司也採用類似的技術。他寫道:“這將打破障礙。政府會要求每個人都這麼做。”他把這項技術比作是“專制政權部署的工具”。

as2.png

曾在Facebook工作的安全研究員Alec Muffett表示,蘋果實施這種圖像掃描的決定是“對個人隱私而言的巨大倒退”。

劍橋大學的安全工程教授Ross Anderson稱這絕對是一個可怕的想法,其將可能導致對設備進行分佈式大規模監控。

正如許多人在Twitter上指出的那樣,多家科技公司已經為CSAM做了圖像掃描。Google、Twitter、微軟、Facebook和其他網站使用圖像哈希法來尋找和報告已知的虐待兒童的圖像。

安全研究人員對蘋果掃描iCloud照片的計劃表示擔憂

安全研究人員對蘋果掃描iCloud照片的計劃表示擔憂

同樣值得注意的是,蘋果在推出新的CSAM倡議之前就已經掃描了一些兒童虐待圖片的內容。2020年,蘋果首席隱私官Jane Horvath表示,蘋果使用篩查技術尋找非法圖像,如果檢測到CSAM的證據就會封掉該賬號。

由於蘋果曾在2019年更新了其隱私政策–它將掃描上傳的內容以尋找潛在的非法內容,包括兒童性剝削材料–所以現在這份新的聲明並不完全是新的。

(0)
上一篇 2021-08-06 11:14
下一篇 2021-08-06 11:14

相关推荐