近日,中央網信辦聯合其他三個部門,共同發布了針對網絡平臺算法問題的專項治理行動通知,旨在打破“信息繭房”,促進信息內容的多樣性和豐富性。
所謂“信息繭房”,這一概念最早由哈佛大學的凱斯·R·桑斯坦教授在其著作《信息烏托邦》中提出。它形象地描繪了一個看似舒適、友好的信息環境,其中充滿了用戶喜愛和認同的內容,討論和觀點也仿佛只是自己的回音。然而,這種環境實際上是一個封閉的信息空間,由算法根據用戶的點擊、瀏覽和搜索歷史精心構建。
在這個“黑箱子”里,用戶接收到的信息都是算法精心篩選的,他們的想法和觀點也往往受到算法潛移默化的影響。這種現象在互聯網信息爆炸的時代尤為明顯,知識已經轉化為無窮無盡的信息流,用戶面臨的難題不再是尋找知識,而是如何辨別信息的真偽。
算法的發展經歷了從1.0到2.0的演變。在算法1.0時代,用戶需要主動選擇和收集信息,算法則通過協同過濾技術,挖掘用戶的歷史行為,預測并推薦用戶可能感興趣的內容。而到了算法2.0時代,大數據的加入使得算法能夠更精準地推送用戶偏好的信息,幾乎無需用戶主動收集和選擇。
這種精準推送雖然帶來了個性化的體驗,但也加劇了“信息繭房”的形成。不同種族、階層、群體和觀點的用戶,都被算法圈養在自己的信息世界里,每個人都覺得自己的觀點是最正確的,從而滿足了精神需求,卻也可能因此失去了接觸和了解不同觀點的機會。
算法的影響對不同用戶群體而言是截然不同的。對于興趣廣泛的用戶來說,他們可能接收到的是寵物、旅游、數碼等多樣化的內容。但對于生活單一、自控能力不強、信息獲取渠道有限的用戶,如藍領、中老年人或中小學生,他們更容易沉迷于算法推薦的“黑絲女”、“腹肌男”等內容,甚至接收到不適合自己年齡階段的信息。
這種算法推薦帶來的社會性問題不容忽視。如果用戶的信息攝入充滿誤導,他們的認知可能會受到影響。例如,當用戶在短視頻平臺上頻繁看到與LGBT相關的內容時,他們可能會誤以為LGBT已經成為社會主流的性取向。這種認知一旦形成,就很難被改變,因為推翻它需要用戶否定自己已經形成的全部認知。
面對算法的“信息繭房”,用戶仿佛置身于《黑客帝國》中的虛擬世界。他們可以選擇藍藥丸,繼續沉浸在迎合自己需求的算法世界中;也可以選擇紅藥丸,面對殘酷但真實的現實世界。然而,大部分用戶可能會選擇前者,因為那是一個讓他們感到舒適和愉悅的世界。
法國經濟學家塞德里克·迪朗在其著作《技術封建主義》中,將算法背后的企業比作“地主”,將用戶比作“農奴”。他認為,算法和數字技術的應用使得用戶變成了數字農奴,失去了自主權和控制權。他們被算法束縛在數字平臺的“領地”中,按照算法的邏輯行動。
以外賣騎手和網約車司機為例,他們看似擁有自由的工作時間,不受老板監管,但實際上他們只是從“企業老板”的奴役轉變為了“企業工具”的奴役。他們必須遵循平臺算法給出的訂單、路線和價格,否則就無法工作。這種算法統治的現象,使得用戶在社會互動中形成的數據不斷成為算法優化和決策的“養料”,而社會互動又被算法的結果所“操縱”。
要打破算法的圈禁,就必須將選擇的權利交還給用戶。讓他們能夠主動選擇自己需要的信息,而不是被動接受所謂的“定制化觸達”、“垂直化推薦”和“精準化投放”等商業行為。只有這樣,用戶才能擺脫算法的束縛,走出“信息繭房”,接觸到更廣闊的世界。
最后,讓我們再次思考這個問題:面對算法的“信息繭房”,你是選擇繼續沉浸在虛擬的舒適世界中,還是勇敢地面對現實世界的挑戰?