【ITBEAR科技資訊】9月1日消息,蘋果公司去年12月宣布,取消了其備受爭議的iCloud云服務兒童性虐待材料(CSAM)檢測計劃。這一計劃最早于2021年8月開始測試,旨在通過掃描存儲在iCloud中的圖像資料,幫助阻止兒童性虐待。然而,這一舉措引發了媒體、非營利機構和消費者的廣泛反對聲音。
起初,蘋果公司表示計劃將在iOS15和iPadOS15的更新中實現,但由于來自客戶、宣傳團體、研究人員等方面的強烈反饋,該公司最終決定推遲實施該功能。一家名為Heat Initiative的兒童安全組織本周與蘋果公司取得聯系,表示正在策劃一項活動,呼吁蘋果在iCloud中實施CSAM的檢測、報告和刪除,并提供更多工具,讓用戶能夠向公司舉報CSAM內容。
蘋果公司罕見地對Heat Initiative做出了回應。蘋果公司的用戶隱私和兒童安全總監Erik Neuenschwander在回應中解釋了放棄開發iCloud CSAM掃描功能的原因。他表示,盡管兒童性虐待材料是令人憎惡的,但掃描用戶私人存儲的iCloud數據可能會成為數據竊賊的目標,從而創造出新的安全威脅。此外,這種掃描方式可能導致意想不到的嚴重后果,例如可能被濫用用于大規模監控,甚至可能引發跨不同內容類型的搜索需求,擴展到其他加密消息傳遞系統。
蘋果公司之前曾表示,經過廣泛征求專家意見并考慮到兒童保護舉措的反饋后,他們決定加大對"Communication Safety"功能的投資,該功能于2021年12月推出。因此,他們決定不再推進之前提出的iCloud照片CSAM檢測工具。蘋果公司強調,兒童可以在不需要公司梳理個人數據的情況下得到保護,并將繼續與政府、兒童倡導者以及其他公司合作,共同努力維護年輕人的隱私權,使互聯網成為更安全的環境。