早科技進度條08:1100:00/08:11
專家呼吁人工智能應該“倒退”,不少人疑問,AI真有這么可怕嗎?
隨著大模型火熱依舊、AI熱度不減,關于人工智能倫理的討論一直占據話題熱榜。前段時間,馬斯克及一批行業專家建議暫緩AI研究,此后各大媒體網站關于技術倫理的報道就沒少過。
本篇早科技專欄,也想跟大家聊聊技術倫理這件事。
技術的“副作用”其實是老生常談
在人們對于現在AI發展的大規模恐懼之前,已經有不少文學作品和學術研究,針對技術倫理進行了深度詳實的研究。
所謂技術倫理,簡單說,就是警惕技術發展帶來的對于人本身、以及社會發展的種種負面影響。這其中,工業發展(特別是計算機技術)對人的異化,是技術倫理課題中討論的重點。
最典型的莫過于工業革命時期開始出現的流水線工人,卓別林的《摩登時代》,已然在大熒幕上將機器對人的異化進行了充分表現。流水線的工人沒有自主能動性,只能跟隨機器生產進行機械勞動。
當人的身體無法被自己的精神所自主控制,這就是異化。
工業發展到今天,帶領社會進入一個人工智能隨處可見的時代,最典型的異化,莫過于手機對人的控制。
看似是用戶在“玩”手機,但事實上,一旦我們打開短視頻App,抖音、快手亦或是小紅書上充斥著新鮮且“趣味十足”的內容,用戶很難不被海量刺激性的內容牽著鼻子走。等到意識到時間流失,可能在抖音上消耗的時間已經超過2個小時。
一些長視頻APP也是如此,在點擊全屏播放后,整個屏幕都找不到能夠顯示當前時間的地方。等到一集又一集播放完,我們抬頭朝窗外看,才發現天都黑了。這就是工業發展對人進行異化的表現之一。
電子產品對人的控制和異化,已經越來越難以擺脫。
這也是人們恐懼人工智能的地方,隨著大模型訓練越來越智能,對于人們需求和情緒的把握越來越精準。我們面對AI就像面對一個懂得“花言巧語”的詐騙犯,無法從中抽離,也難辨真假,最后“乖乖”掏出所有。
對于精神的控制,對人的異化,是人類面對AI最深的恐懼,所有關于人類可能因為AI覆滅的悲觀預言,都跟技術黑箱帶來的不可控未來息息相關。
也正是因為這樣的原因,在技術發展的同時,總會有不少有識之士對其保持警惕,警惕工業生產便利之余帶來的“副作用”。
既然這不是一個新鮮話題,既然 機器生產帶來的技術倫理問題已經如此多,卻遠不像今天的大模型訓練和GPT讓人來得恐懼?甚至呼吁停止更進一步的技術發展?
筆者以為,也許技術黑箱,也即AI的自動進化能力是其中一個重要因素。
把話語權抓在自己手上
當AI被嵌入一套能夠自動進化的算法當中,它能夠主動進行信息收集、自動清洗、為己所用、自動進化等一系列流程。這中間甚至不需要開發者的參與,AI就能夠隨著數據庫的逐漸擴大,實現甚至超越開發者最初的目的。
據悉,深度強化學習已被應用于空戰,機器學習被用于制造化學武器,GPT-4如今已經能自主進行實驗和合成化學品。
僅掌握這些也許還不構成最大威脅,人們擔心的是,目前AI訓練的數據庫中包含海量的日常信息。
當AI吸收了人類在互聯網表達的一系列情緒和心理,能夠獲取到人類的恐懼情緒,獲取到人類對于AI取代自身的擔憂,甚至學會了欺騙和生成虛假信息,學會隱藏什么是它應該知道的,什么是它不應該知道的,也即不少人說的“自主意識”。
這可能是普通人對于AI最深的恐懼,我們害怕電影中的場景會很快成為現實。
ChatGPT在回答用戶問題時,已經出現了很明顯的錯誤,且筆者在使用過程中發現,這樣的錯誤答案嵌在生成的完整答案中,并不十分明顯,換句話說,這些錯誤的信息很容易被視為真實。
此前,百度因為競價廣告造成的醫療事故而成為全民討伐對象,現在,如果提供答案的變成了這類應用還不成熟的AI助手,屆時,誰又該為造成的事故買單?
以上AI會引發的問題,還只是冰山一角。
那么,是否該如一些行業專家建議的那樣,停止開發GPT-4以上的人工智能應用?
百度CEO李彥宏在5月26日舉辦的中關村論壇上如是表示,“要參與規則的制定,就要先上牌桌,上了牌桌才能有話語權,才有全球競賽的入場券,”他認為,相比于單純討論和思考AI威脅論,商業公司首先要縮短和國外AI大模型的差距。
李彥宏的言論代表自己,當然也代表百度,而有類似想法的,國內外從事科技和AI開發的研究人員,應該不止一位。
不知道各位讀者是何看法,歡迎大家在評論區交流。但筆者以為,技術或者人工智能繼續發展的風險,到今天似乎來到了頂峰,但關于技術產生的負面影響從來沒有消失過。
過去幾十年,對于大型科技公司收集用戶信息并用于盈利這件事,一些發展中國家的用戶很少意識到并進行強烈譴責。對于生活便利的追求,讓很多人愿意用自己的隱私進行交換,將權利讓渡給這些企業。
技術對于生活的改變并非今天才是新聞, 面對AI的焦慮已經存在許久,也許技術可以誘導人做決策,但或者我們可以對人的主體性和自主能力保持多一點的樂觀和信心。
如果說進化論是真理,那么面對必然要到來的人工智能社會,人的主體性、情感、價值觀也應該隨之進化,并變得更加有價值,畢竟人工智能所需要的所有數據,還是來自于最初人類的創造,AI擁有“自主意識”,看起來更像是一種表象。
在前不久警惕AI風險的倡議中,中國科學院自動化研究所人工智能倫理與治理研究中心主任曾毅,也簽署了這份《AI風險聲明》,并強調:“公開信的目的不是阻礙AI的發展,而恰恰是在探索AI穩健發展的途徑。”
AI要穩健發展,比起停止開發,對于可能存在的犯罪進行預防和追責同樣重要。對那些借助AI散播虛假信息和盜用隱私的一小撮人,及時進行法律追責。
用好法律,而不是把所有的虛假歸咎于技術本身,而非對于創新的限制,也許是現階段更加迫切的事情。
【免責聲明】本文僅代表作者本人觀點,不構成任何投資建議。