北京時間4月24日消息,人類為人工智能(AI)的訓練提供了各式各樣的數據,但是到頭來可能會因為AI失去飯碗。那么,AI是否應該給人們提供補償呢?
AI是否應該補償人們提供的數據
這就牽扯到了先進技術對人類的替代問題。新一波生成式AI的興起,再度引發了人類對失業的恐慌。未來,AI等先進技術將會消除更多工作崗位,從律師、記者、藝術家、軟件工程師等白領和創造性崗位,到藍領工人。
那么,有什么方法可以補償人類為AI做出的貢獻,保證他們的生存呢?
全民基本收入
在硅谷,一些最聰明的人認為,隨著先進技術淘汰了更多職業,保證人們不受限制進行現金支付的“全民基本收入”(UBI)制度將幫助他們生存和發展。這一想法獲得了足夠的關注。自2020年以來,美國城市已經啟動了數十個保障收入項目。
鳳凰網科技《AI哨所》了解到,全民基本收入也稱為“無條件基本收入”,主張由政府無條件、定期給予民眾固定、可預期的基本收入,讓所有人都能有固定的收入可運用。近年來,全民基本收入曾在數個國家討論及測試。2020年,隨著新冠肺炎暴發,全球失業率大增、底層勞動者缺乏收入,又有更多國家開始關注全民基本收入。
馬斯克支持全民基本收入計劃
這項倡議得到了科技界大咖的支持。2021年,埃隆·馬斯克(Elon Musk)在特斯拉舉辦的AI活動上表示,由于AI導致了大規模自動化工作,失業問題將會出現,而全民基本收入可能是解決這一迫在眉睫問題的辦法。
“從本質上講,未來,體力工作將是一種選擇,”馬斯克在演講中說,“這就是為什么我認為從長遠來看,我們需要一個全民基本收入的原因。”
臉書創始人馬克·扎克伯格(Mark Zuckerberg)也支持這一想法。“我們應該探索像全民基本收入這樣的想法,以確保每個人都有嘗試新想法的緩沖空間。”扎克伯格2017年在哈佛大學畢業典禮上表示。
然而,就連OpenAI CEO、全民基本收入最知名支持者之一的薩姆·阿爾特曼(Sam Altman)也不認為這是一個全面的解決方案。
阿爾特曼認為全民基本收入無法解決所有問題
正如他在今年早些時候的一次采訪中所說的,“我認為這是解決方案的一小部分。我認為這很棒。我認為,隨著先進的AI越來越多地參與到經濟中來,我們應該更多地分配財富和資源。隨著時間的推移,這將變得很重要。但我不認為這能解決問題。我不認為這將賦予人們意義,我不認為這意味著人們將完全停止嘗試創造和做新的事情。因此,我認為它是一種賦能技術,但不是一項社會計劃”。
數據尊嚴
虛擬現實領域創始人之一、計算機科學家杰倫·拉尼爾(Jaron Lanier)本周撰文稱,“數據尊嚴”(data dignity)可能是解決方案中更重要的一部分。
這是一個基本前提:現在,我們主要是免費提供數據來換取免費的服務。拉尼爾認為,在AI時代,我們需要停止這樣做。目前正在進入社會的強大模型需要“與人類建立聯系”,因為人類首先給了它們很多可以吸收和學習的東西。
他所提出的想法是:人們要“從他們創造的東西中獲得報酬,即使它被過濾和重組”成一些無法辨認的東西。
拉尼爾認為人類應停止提供免費數據
這并不是全新想法。拉尼爾在2018年為《哈佛商業評論》撰寫的一篇題為《更好的數字社會藍圖》的文章中首次提出了數據尊嚴的概念。
當時,他與文章合著者、經濟學家格倫·韋爾(Glen Weyl)寫道,“科技行業的言論表明,由于AI和自動化,一波就業不足的浪潮即將到來”。但是,拉尼爾和韋爾觀察到,全民基本收入倡導者的預測“只可能造成兩種結果”,而且它們是極端的。“盡管技術進步了,但它要么會造成大規模貧困,要么必須通過社會財富基金將大量財富納入中央控制,為公民提供全民基本收入。”
他們寫道,這個問題既導致了“權力過度集中,也削弱或忽視了數據創造者的價值”。
如何識別個人數據?
當然,為人們對網上存在的一切做出的無數貢獻進行適當分功并不是一個小挑戰。拉尼爾承認,即使是數據尊嚴研究人員也無法就如何理清AI模型吸收的所有內容,或者應該嘗試進行詳細的說明達成一致。盡管如此,拉尼爾認為這是可以逐步實現的。
即使有了意愿,一個更直接的挑戰——缺乏渠道——也有很多困難需要克服。盡管OpenAI在前幾年發布了一些訓練數據,但出于競爭和安全方面的考慮,它已經完全關閉了數據來源。OpenAI總裁格雷格·布羅克曼(Greg Brockman)上個月介紹了OpenAI最新、最強大的大型語言模型GPT-4的訓練數據。他表示,這些數據來自“各種許可的、創建的和公開可用的數據源,其中可能包括公開可用的個人信息”,但他拒絕提供更多具體信息。
OpenAI面臨版權訴訟
與此同時,監管機構正在糾結該采取何種措施。OpenAI的技術像野火一樣迅速蔓延,已經成為越來越多國家的打擊目標,包括意大利當局,該國已經禁止使用其ChatGPT聊天機器人。法國、德國、愛爾蘭和加拿大的數據監管機構也在調查ChatGPT收集和使用數據的方式。
曾擔任谷歌AI倫理聯合負責人的AI研究員瑪格麗特·米切爾(Margaret Mitchell)表示,目前所有這些公司幾乎不可能識別個人數據并將其從模型中刪除。如果OpenAI從一開始就內置數據記錄,它今天的情況會更好,但AI行業的標準做法是,通過不加區分地抓取網絡來為AI模型構建數據集,然后外包一些數據清理工作。
與此同時,結束“我們當前AI模型的黑箱性質”將使人們的貢獻更容易核算,讓他們更傾向于保持參與并繼續做出貢獻。
隨著世界上越來越多的東西被這些新工具所重塑,所有權的挫折感也很可能會增加。OpenAI和其他公司已經面臨著大量版權侵權訴訟,爭論的焦點是他們是否有權搜刮整個互聯網來為他們的算法提供數據。鳳凰網科技《AI哨所》對此將持續關注。
【來源:鳳凰網科技】