拒絕後門:公開信呼籲蘋果停止實施CSAM虐童圖像檢測系統

在蘋果周四宣布了基於本機 AI 處理的“兒童受虐材料”(簡稱 CSAM)特徵圖像檢測系統之後,行業專家與隱私倡導機構已紛紛表達了擔憂和反對意見。儘管蘋果的初衷很是積極正面,但這項技術也有着兩面性,乃至向別有用心者敞開一個難以被封堵的後門。最新消息是,業界多方已經向蘋果送去了一封公開信,呼籲該公司停止實施計劃中的 CSAM 系統。

拒絕後門:公開信呼籲蘋果停止實施CSAM虐童圖像檢測系統

(來自:Apple Privacy Letter 網站)

Apple Insider 指出,與其說是一封公開信,這份文件讀起來更像是一份起訴書。其先是簡要介紹了蘋果周四發布的公告,然後認真剖析了即將推出的 CSAM 檢測功能。

據悉,經過多方面的努力,蘋果 CSAM 系統可利用本機算力,檢測並上報傳輸到 iCloud 上的“違規內容”、以及保護兒童免受通過消息傳遞服務分享的敏感圖像的侵害。

然而 Apple Privacy Letter 公開信中寫道:“儘管虐童是一個很嚴重的問題,且針對此類違法行為的打擊是絕對正義的。但蘋果提議的這套 CSAM 方案,還是在系統中引入了一個後門,且最終可能破壞對所有蘋果用戶的基本隱私保護承諾”。

拒絕後門:公開信呼籲蘋果停止實施CSAM虐童圖像檢測系統

具體說來是,蘋果 CSAM 系統會將用戶照片與數據庫中已知的文件哈希值進行匹配。該過程會在將文件上傳到 iCloud 之前,於設備端完成。

其次是利用設備上的 AI 功能,來保護 17 歲以下兒童免受消息傳遞服務中的色情圖片的困擾。有需要的家長,可在 13 歲以下兒童收發此類內容時收到警告通知。

然而據這封公開信所述,蘋果暴露的最大問題,就是繞過了原本旨在加強用戶隱私的端到端加密方案。這樣就算蘋果公開承諾新協議不會導致其軟硬件留下後門,公眾的信任度也會在頃刻間崩塌。

最後,這封公開信還彙集了一系列專家評論。比如很早的時候,約翰·霍普金斯大學密碼學教授 Matthew Green 就對蘋果的這項措施表達了擔憂,另有 19 個組織和 640 名個人在 GitHub 上添加了相關署名標記。

最後,在呼籲蘋果停止實施 CSAM 的同時,這封公開信要要求蘋果發表一份新聲明,以重申其對於端到端加密和用戶隱私保障的承諾。

相關文章:

諸多專家機構對蘋果CSAM兒童安全檢測系統表達擔憂

(0)
上一篇 2021-08-07 15:26
下一篇 2021-08-07 15:26

相关推荐