你知道,算法究竟是如何影響美國大選的嗎?
今天,「Meta的算法影響2020年美國選舉」研究登上了Science封面。

Meta首次一口氣發表了4篇具有里程碑意義的研究論文。
目的是為了探討Facebook和Ins在美國2020年選舉中,對關鍵政治態度和行為的影響。
研究發現,幾乎沒有證據表明,Meta平臺會造成有害的 「情感」兩極分化,或對關鍵政治態度、信仰或行為產生有實際意義的影響。
眾所周知,2020年的大選,是拜登勝出。

如果細看選票的統計的話,會發現,從全美普選票來看,在計票率為97%時,拜登以50.8%的得票率超過特朗普的47.4%,拜登的優勢并不是特別大。
據稱,特朗普團隊和拜登團隊僅僅用于Facebook的「政治廣告精準投放」花費,分別高達9770萬美元、8210萬美元。
而事實真如Meta所說的如此嗎?
Meta自證清白
2020年的美國大選,到今天還是個熱議的話題。
一直以來,Facebook和Ins的算法驅動著數十億人在社交網絡上看到的內容,甚至一度成為民主辯論的舞臺。
三年前,Meta便開始著手研究Facebook和Ins對2020年選舉的影響。

現在,發表在Science和Nature上的4篇同行評議論文中,Meta首次向公眾展示了研究結果。
這些研究為Facebook和Ins的算法,如何影響用戶在2020年總統大選前夕看到的內容提供了一個有趣的新視角。
布里斯托大學的心理學家Stephan Lewandowsky表示,這些實驗很重大。
研究發現,美國保守派人士在Facebook上接觸到的虛假新聞報道比自由派人士多得多。

但令人驚訝的是,從所有的動態中刪除一切轉發的內容,并沒有影響用戶的政治態度,或者減少他們觀點的兩極分化。
甚至,不讓大數據推內容,就讓系統推最新最火的事兒,也沒用。
具體是怎么回事?
四大研究
「回音室」效應無效
在許多人看來,Meta的內容傳輸算法,會優先處理來自志同道合者和團體的信息,從而助長政治兩極分化。
人們擔心這一系統會強化互聯網「回音室」,助長黨派和虛假信息的傳播。
在Nature的一篇論文中,研究人員主要關注了社交媒體「回音室」在多大程度上推動政治兩極分化的觀點。
回音室效應,就是在說用戶接觸到,大量志同道合的信息來源時產生的影響。

研究人員證實,大多數美國用戶看到的大部分內容都來自朋友、頁面和群組。但他們指出,所有這些內容都不是明確的政治或新聞相關內容。
另外,還發現,減少一致內容的數量會降低參與度,但不會顯著改變用戶的信仰或態度。

a. 美國 Facebook 月活躍成年用戶在其 Facebook Feed 中接觸志同道合來源、交叉來源和兩類來源內容的分布情況;b. 按來源類型劃分的曝光率累積分布函數。
「信息流」影響用戶體驗
在Science的另一篇研究中,主要著眼于按時間順序排列的信息流,與算法生成的信息流的對比效果。
研究中,23391名Facebook用戶和21373名 Ins用戶被分為兩組:一組接收由Meta常用算法提供的精選內容,另一組按時間順序接收新聞和信息。
其理論依據是,向用戶提供最新的新聞和信息,將擴大他們看到的內容。

論文地址:https://www.science.org/doi/10.1126/science.abp9364?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
這項研究的出的結論,Meta平臺的算法信息流影響了用戶的體驗。
谷歌操縱大選的揭秘者Frances Haugen稱,這個問題在2021年變得尤為突出,并主張回歸按時間順序排列的信息流。
另外,作者還發現,按時間順序接收內容的參與者在Meta社交媒體平臺上花費的時間更少,接觸到的內容更多樣化(但不一定更可信)。
不過,對兩組參與者的調查顯示,他們的政治極化程度沒有明顯差異。調查還顯示,參與者的政治活動(如簽署請愿書)也沒有差異。

研究者稱,按時間順序提供的內容大大減少了用戶在平臺上花費的時間,降低了用戶在平臺上參與內容的程度,并改變了他們獲得的內容組合。
同時,研究人員表示,按時間順序提供的信息并沒有引起下游政治態度、知識或離線行為的可察覺變化。
刪除轉發內容研究
同樣,另一項同樣發表在Science上的研究,對2020年大選前「轉發內容」的影響進行了研究。

論文地址:https://www.science.org/doi/10.1126/science.add8424?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
結果發現,刪除轉發內容大大減少了政治新聞的數量,包括來自不可信來源的內容。
但并沒有顯著影響政治兩極化,或任何個人層面政治態度的衡量標準。

用戶訂閱源政治新聞分析
最后,研究人員從自由派還是保守派的角度,分析了用戶訂閱源中出現的政治新聞。
這項研究分析了大約2.08億美國 Facebook用戶的數據訪問習慣,發現左傾和右傾用戶在分享和消費信息方面存在巨大差異。

論文地址:https://www.science.org/doi/10.1126/science.ade7138?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
他們得出的結論是,Facebook在意識形態上有實質性的隔離,但意識形態隔離在頁面和群組發布的內容中的表現,遠遠多于好友發布的內容。
另外,研究還發現,保守派用戶更有可能看到來自「不可信」來源的內容,以及被Meta的第三方事實核查機構評為虛假的文章。

總體上看,4項研究的發現,對Meta自身來說很有利,沒有直接證據去表明算法操縱選舉。
遺憾的是,研究人員稱沒有直接的解決方案,來解決社交媒體上的兩極分化問題。

就像Science中所稱,沒有人愿意說,這意味著社交媒體沒有負面影響。

有網友稱,我打賭你不知道Meta付給我300美元,讓我在2020年大選期間停用賬戶。

Meta在官博表示,未來會發表更多一系列論文,總共16篇。
谷歌被爆用ML操控選舉
Meta通過發表研究自撇清白。
不過,Meta之外,谷歌也曾深陷操縱2020大選風波中。
2019年8月,谷歌高級工程師Zachary Vorhies泄露了950頁的內部文件。
文件內容直接披露了谷歌操控大選的證據:
谷歌曾使用黑名單、審查制度和機器學習算法操縱美國大選。

在這個特別的黑名單中,顯示了數百個在Android/ target=_blank class=infotextkey>安卓的新聞搜索結果中被審查的保守派網站,存在明顯的政治偏見。
比如,DAIly Caller、Western Journal、RedState、Gateway Pundit、Steven Crowder、Michelle Malkin、Glenn Beck、Rush Limbaugh等都被列入了黑名單。

緊接著,2021年,Vorhies出版了一本書名為《谷歌泄密: 告密者對大型科技審查制度的揭露》。
他在書中稱,特朗普當選對谷歌來說是一個轉折點。
2016年大選結束后,特朗普正式成為總統當選人。
無論走到哪里,Vorhies都能聽到谷歌同事談論這次選舉有多不公平,并堅稱需要抵制來應對特朗普和全球范圍內出現的更廣泛的民粹主義運動。
谷歌聯合創始人Sergey Brin在一次公司全體會議上說:
我當然覺得這次選舉令人深感不快,我知道你們中的許多人也是如此。然而很多人顯然不認同我們所擁有的價值觀。

負責谷歌全球事務的副總裁Kent Walker表示:谷歌必須努力確?!该翊庵髁x」和「民族主義」的崛起只是歷史弧線中的一個暫時現象和小插曲。
這一切證明了,谷歌在2016年大選中確實輸給了特朗普。
當時,谷歌高管和員工采用了各種策略來推選希拉里•克林頓。比如通過谷歌搜索引擎幫助希拉里屏蔽不利信息。

2019年,Project Veritas公布了谷歌高管Jen Gennai被偷拍的視頻。
在視頻中,Jen Gennai直言不諱說要「防止2016年的事再次發生」。
之后她補充道,目前谷歌正在嘗試「訓練算法」,希望能模擬出一種可能改變特朗普2016年大選勝利結果的工作方式。
2017年5月31日,特朗普在推特上發布了一條六個字的短語,盡管有持續的負面新聞報道(Despite the constant negative press covfefe.)
其中,Covfefe是特朗普專門將coverage(報道)一詞拼寫錯誤。
在一份被泄露的名為「covfefe Translate Easter egg」文件中,谷歌的工程師們甚至從阿拉伯語詞典中刪除了「covfefe」這個詞以及它的意思「I will stand up」,并用聳肩表情符號取而代之,以推進他們的反特朗普政治議程。

你知道,算法究竟是如何影響美國大選的嗎?
今天,「Meta的算法影響2020年美國選舉」研究登上了Science封面。

Meta首次一口氣發表了4篇具有里程碑意義的研究論文。
目的是為了探討Facebook和Ins在美國2020年選舉中,對關鍵政治態度和行為的影響。
研究發現,幾乎沒有證據表明,Meta平臺會造成有害的 「情感」兩極分化,或對關鍵政治態度、信仰或行為產生有實際意義的影響。
眾所周知,2020年的大選,是拜登勝出。

如果細看選票的統計的話,會發現,從全美普選票來看,在計票率為97%時,拜登以50.8%的得票率超過特朗普的47.4%,拜登的優勢并不是特別大。
據稱,特朗普團隊和拜登團隊僅僅用于Facebook的「政治廣告精準投放」花費,分別高達9770萬美元、8210萬美元。
而事實真如Meta所說的如此嗎?
Meta自證清白
2020年的美國大選,到今天還是個熱議的話題。
一直以來,Facebook和Ins的算法驅動著數十億人在社交網絡上看到的內容,甚至一度成為民主辯論的舞臺。
三年前,Meta便開始著手研究Facebook和Ins對2020年選舉的影響。

現在,發表在Science和Nature上的4篇同行評議論文中,Meta首次向公眾展示了研究結果。
這些研究為Facebook和Ins的算法,如何影響用戶在2020年總統大選前夕看到的內容提供了一個有趣的新視角。
布里斯托大學的心理學家Stephan Lewandowsky表示,這些實驗很重大。
研究發現,美國保守派人士在Facebook上接觸到的虛假新聞報道比自由派人士多得多。

但令人驚訝的是,從所有的動態中刪除一切轉發的內容,并沒有影響用戶的政治態度,或者減少他們觀點的兩極分化。
甚至,不讓大數據推內容,就讓系統推最新最火的事兒,也沒用。
具體是怎么回事?
四大研究
「回音室」效應無效
在許多人看來,Meta的內容傳輸算法,會優先處理來自志同道合者和團體的信息,從而助長政治兩極分化。
人們擔心這一系統會強化互聯網「回音室」,助長黨派和虛假信息的傳播。
在Nature的一篇論文中,研究人員主要關注了社交媒體「回音室」在多大程度上推動政治兩極分化的觀點。
回音室效應,就是在說用戶接觸到,大量志同道合的信息來源時產生的影響。

研究人員證實,大多數美國用戶看到的大部分內容都來自朋友、頁面和群組。但他們指出,所有這些內容都不是明確的政治或新聞相關內容。
另外,還發現,減少一致內容的數量會降低參與度,但不會顯著改變用戶的信仰或態度。

a. 美國 Facebook 月活躍成年用戶在其 Facebook Feed 中接觸志同道合來源、交叉來源和兩類來源內容的分布情況;b. 按來源類型劃分的曝光率累積分布函數。
「信息流」影響用戶體驗
在Science的另一篇研究中,主要著眼于按時間順序排列的信息流,與算法生成的信息流的對比效果。
研究中,23391名Facebook用戶和21373名 Ins用戶被分為兩組:一組接收由Meta常用算法提供的精選內容,另一組按時間順序接收新聞和信息。
其理論依據是,向用戶提供最新的新聞和信息,將擴大他們看到的內容。

論文地址:https://www.science.org/doi/10.1126/science.abp9364?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
這項研究的出的結論,Meta平臺的算法信息流影響了用戶的體驗。
谷歌操縱大選的揭秘者Frances Haugen稱,這個問題在2021年變得尤為突出,并主張回歸按時間順序排列的信息流。
另外,作者還發現,按時間順序接收內容的參與者在Meta社交媒體平臺上花費的時間更少,接觸到的內容更多樣化(但不一定更可信)。
不過,對兩組參與者的調查顯示,他們的政治極化程度沒有明顯差異。調查還顯示,參與者的政治活動(如簽署請愿書)也沒有差異。

研究者稱,按時間順序提供的內容大大減少了用戶在平臺上花費的時間,降低了用戶在平臺上參與內容的程度,并改變了他們獲得的內容組合。
同時,研究人員表示,按時間順序提供的信息并沒有引起下游政治態度、知識或離線行為的可察覺變化。
刪除轉發內容研究
同樣,另一項同樣發表在Science上的研究,對2020年大選前「轉發內容」的影響進行了研究。

論文地址:https://www.science.org/doi/10.1126/science.add8424?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
結果發現,刪除轉發內容大大減少了政治新聞的數量,包括來自不可信來源的內容。
但并沒有顯著影響政治兩極化,或任何個人層面政治態度的衡量標準。

用戶訂閱源政治新聞分析
最后,研究人員從自由派還是保守派的角度,分析了用戶訂閱源中出現的政治新聞。
這項研究分析了大約2.08億美國 Facebook用戶的數據訪問習慣,發現左傾和右傾用戶在分享和消費信息方面存在巨大差異。

論文地址:https://www.science.org/doi/10.1126/science.ade7138?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
他們得出的結論是,Facebook在意識形態上有實質性的隔離,但意識形態隔離在頁面和群組發布的內容中的表現,遠遠多于好友發布的內容。
另外,研究還發現,保守派用戶更有可能看到來自「不可信」來源的內容,以及被Meta的第三方事實核查機構評為虛假的文章。

總體上看,4項研究的發現,對Meta自身來說很有利,沒有直接證據去表明算法操縱選舉。
遺憾的是,研究人員稱沒有直接的解決方案,來解決社交媒體上的兩極分化問題。

就像Science中所稱,沒有人愿意說,這意味著社交媒體沒有負面影響。

有網友稱,我打賭你不知道Meta付給我300美元,讓我在2020年大選期間停用賬戶。

Meta在官博表示,未來會發表更多一系列論文,總共16篇。
谷歌被爆用ML操控選舉
Meta通過發表研究自撇清白。
不過,Meta之外,谷歌也曾深陷操縱2020大選風波中。
2019年8月,谷歌高級工程師Zachary Vorhies泄露了950頁的內部文件。
文件內容直接披露了谷歌操控大選的證據:
谷歌曾使用黑名單、審查制度和機器學習算法操縱美國大選。

在這個特別的黑名單中,顯示了數百個在安卓的新聞搜索結果中被審查的保守派網站,存在明顯的政治偏見。
比如,Daily Caller、Western Journal、RedState、Gateway Pundit、Steven Crowder、Michelle Malkin、Glenn Beck、Rush Limbaugh等都被列入了黑名單。

緊接著,2021年,Vorhies出版了一本書名為《谷歌泄密: 告密者對大型科技審查制度的揭露》。
他在書中稱,特朗普當選對谷歌來說是一個轉折點。
2016年大選結束后,特朗普正式成為總統當選人。
無論走到哪里,Vorhies都能聽到谷歌同事談論這次選舉有多不公平,并堅稱需要抵制來應對特朗普和全球范圍內出現的更廣泛的民粹主義運動。
谷歌聯合創始人Sergey Brin在一次公司全體會議上說:
我當然覺得這次選舉令人深感不快,我知道你們中的許多人也是如此。然而很多人顯然不認同我們所擁有的價值觀。

負責谷歌全球事務的副總裁Kent Walker表示:谷歌必須努力確保「民粹主義」和「民族主義」的崛起只是歷史弧線中的一個暫時現象和小插曲。
這一切證明了,谷歌在2016年大選中確實輸給了特朗普。
當時,谷歌高管和員工采用了各種策略來推選希拉里•克林頓。比如通過谷歌搜索引擎幫助希拉里屏蔽不利信息。

2019年,Project Veritas公布了谷歌高管Jen Gennai被偷拍的視頻。
在視頻中,Jen Gennai直言不諱說要「防止2016年的事再次發生」。
之后她補充道,目前谷歌正在嘗試「訓練算法」,希望能模擬出一種可能改變特朗普2016年大選勝利結果的工作方式。
2017年5月31日,特朗普在推特上發布了一條六個字的短語,盡管有持續的負面新聞報道(Despite the constant negative press covfefe.)
其中,Covfefe是特朗普專門將coverage(報道)一詞拼寫錯誤。
在一份被泄露的名為「covfefe Translate Easter egg」文件中,谷歌的工程師們甚至從阿拉伯語詞典中刪除了「covfefe」這個詞以及它的意思「I will stand up」,并用聳肩表情符號取而代之,以推進他們的反特朗普政治議程。

由此看來,谷歌有權決定美國公民看到什么內容,不會看到哪些內容。
美國將在2024年再次開啟大選,而這次比以往更加不同。
生成式AI的大爆發, 讓許多媒體預測,這將成為美國第一場廣泛使用AI工具的選舉。
AI對選舉的影響讓許多人坐立不安,ChatGPT、Midjourney、Gen-2等工具能夠瞬時生成以假亂真的圖片、視頻、音頻等宣傳材料。
這場技術政治大戰,最終的結果就是利用AI欺騙選民,影響真正的選舉結果。