12 月 8 日消息,在分享給 WIRED 的一份聲明中,蘋(píng)果今天宣布 iCloud 云服務(wù)已放棄兒童性虐待材料(CSAM)檢測(cè)計(jì)劃。這項(xiàng)檢測(cè)計(jì)劃于 2021 年 8 月開(kāi)始測(cè)試,主要會(huì)檢測(cè)存儲(chǔ)在 iCloud 的 CSAM 圖像資料,但自推出以來(lái)備受爭(zhēng)議。
Illustration: Jacqui VanLiew
蘋(píng)果最初表示,CSAM 檢測(cè)將在 2021 年底之前在 iOS15 和 iPadOS15 的更新中實(shí)現(xiàn),但該公司最終根據(jù) "客戶、宣傳團(tuán)體、研究人員和其它方面的反饋" 推遲了這項(xiàng)功能。現(xiàn)在,經(jīng)過(guò)一年的沉默,蘋(píng)果已經(jīng)完全放棄了 CSAM 檢測(cè)計(jì)劃。
IT之家了解到,蘋(píng)果的計(jì)劃受到了廣泛的個(gè)人和組織的批評(píng),包括安全研究人員、電子前沿基金會(huì)(EFF)、政治家、政策團(tuán)體、大學(xué)研究人員,甚至還包括一些蘋(píng)果員工。
一些批評(píng)者認(rèn)為,該功能將為設(shè)備創(chuàng)造一個(gè) "后門(mén)",政府或執(zhí)法機(jī)構(gòu)可以利用它來(lái)監(jiān)視用戶。另一個(gè)擔(dān)憂是誤報(bào),包括有人可能故意將 CSAM 圖像添加到另一個(gè)人的 iCloud 賬戶中,使其賬戶被標(biāo)記。
蘋(píng)果公司在聲明中表示:
在廣泛征求專家意見(jiàn),收集我們?nèi)ツ晏岢龅膬和Wo(hù)舉措的反饋后,我們正加大對(duì) 2021 年 12 月上線的 Communication Safety 功能的投資。我們決定不再推進(jìn)我們之前提出的 iCloud 照片的 CSAM 檢測(cè)工具。 兒童可以在沒(méi)有公司梳理個(gè)人數(shù)據(jù)的情況下得到保護(hù),我們將繼續(xù)與政府、兒童倡導(dǎo)者和其它公司合作,幫助保護(hù)年輕人,維護(hù)他們的隱私權(quán),讓互聯(lián)網(wǎng)成為兒童和我們所有人更安全的地方。
【來(lái)源:IT之家】