9 月 1 日消息,蘋果公司在遭到媒體、非營(yíng)利機(jī)構(gòu)和消費(fèi)者的諸多反對(duì)之后,于去年 12 月宣布,iCloud 云服務(wù)停止兒童性虐待材料(CSAM)檢測(cè)計(jì)劃。
這項(xiàng)檢測(cè)計(jì)劃于 2021 年 8 月開始測(cè)試,主要會(huì)檢測(cè)存儲(chǔ)在 iCloud 的 CSAM 圖像資料,但自推出以來(lái)備受爭(zhēng)議。
Illustration: Jacqui VanLiew
蘋果最初表示,CSAM 檢測(cè)將在 2021 年底之前在 iOS15 和 iPadOS15 的更新中實(shí)現(xiàn),但該公司最終根據(jù) "客戶、宣傳團(tuán)體、研究人員和其它方面的反饋" 推遲了這項(xiàng)功能。
一家名為 Heat Initiative 的兒童安全組織本周告知蘋果公司,正組織一項(xiàng)活動(dòng),要求公司從 iCloud 中“檢測(cè)、報(bào)告和刪除”CSAM,并要求為用戶提供更豐富的工具,來(lái)向蘋果公司舉報(bào) CSAM 內(nèi)容。
IT之家援引 Wired 報(bào)道,蘋果公司罕見地回應(yīng)了 Heat Initiative,蘋果公司用戶隱私和兒童安全總監(jiān) Erik Neuenschwander 在回應(yīng)中概述了放棄開發(fā) iCloud CSAM 掃描功能的原因:
兒童性虐待材料是令人憎惡的,我們致力于打破使兒童易受其影響的脅迫和影響鏈。
不過(guò)掃描每個(gè)用戶私人存儲(chǔ)的 iCloud 數(shù)據(jù),會(huì)成為數(shù)據(jù)竊賊發(fā)現(xiàn)和利用創(chuàng)造新的威脅載體。
而且這種方式會(huì)導(dǎo)致很多預(yù)期之外的嚴(yán)重后果,例如掃描一種類型的內(nèi)容為批量監(jiān)控打開了大門,并可能產(chǎn)生跨內(nèi)容類型搜索其他加密消息傳遞系統(tǒng)的愿望。
蘋果公司此前在關(guān)閉 CSAM 計(jì)劃時(shí)表示:
在廣泛征求專家意見,收集我們?nèi)ツ晏岢龅膬和Wo(hù)舉措的反饋后,我們正加大對(duì) 2021 年 12 月上線的 Communication Safety 功能的投資。我們決定不再推進(jìn)我們之前提出的 iCloud 照片的 CSAM 檢測(cè)工具。
兒童可以在沒(méi)有公司梳理個(gè)人數(shù)據(jù)的情況下得到保護(hù),我們將繼續(xù)與政府、兒童倡導(dǎo)者和其它公司合作,幫助保護(hù)年輕人,維護(hù)他們的隱私權(quán),讓互聯(lián)網(wǎng)成為兒童和我們所有人更安全的地方。
【來(lái)源:IT之家】