圖片來源@視覺中國
文 | 適道
硅谷頂級風投機構a16z的創始人之一馬克·安德森近日發文為AI發聲。面對ChatGPT為代表的生成式AI在全球市場突飛猛進,包括一些頂尖AI學者在內都對AI的“過快發展”表示擔憂,甚至有“AI末日論”在傳播。馬克·安德森作為一個成功的連續創業者和投資人,曾經創立了全球第一個可用的瀏覽?.NETscape Navigator,也是Facebook最早的投資人,他是一個樂觀主義者,曾經喊出了”軟件將要吞噬世界“的宣言。
在這一次的AI浪潮中,他仍然表達了樂觀的態度,他認為:
- 人工智能有巨大的潛力改善生活和推動經濟增長,在各個領域發揮作用,如科學、醫療、藝術等,能夠擴展人類的能力并產生積極影響。
- 對于人工智能的擔憂大多是基于誤解和夸大的觀點,人工智能并不會毀滅世界,相反,它可能拯救世界,為我們創造更好的未來。
- 需要進行開放、透明、理性的討論,讓所有利益相關者參與決策,以解決人工智能的風險和規制問題,避免過度限制和審查。雖然人工智能可能使壞人更容易做壞事,但通過法律和合法使用來應對這一風險,而不是阻止人工智能的發展。
- 大型AI公司和創業公司應被鼓勵發展人工智能,但不應通過錯誤理解風險來獲得政府的保護,需要在公平競爭的環境中運作。
- 開源AI應被允許自由傳播,促進開放創新和學習,政府和私營部門應合作利用人工智能解決潛在的風險問題。
人工智能時代已經到來,人們對此感到驚慌。
幸運的是,我在這里帶來了好消息:人工智能不會毀滅世界,實際上可能會拯救世界。
首先,對人工智能的簡短描述:人工智能是數學和軟件代碼的應用,教授計算機如何理解、綜合和產生知識,方式類似于人類。人工智能是像其他任何程序一樣的計算機程序 — 它運行,接受輸入,處理并產生輸出。人工智能的輸出在諸如編程、醫學、法律以及創意藝術等許多領域都很有用。人工智能像其他任何技術一樣,由人類所有并由人類控制。
對人工智能不是什么的簡短描述:并不是電影中那樣會突然活過來并決定殺死人類或者毀滅一切的殺手軟件和機器人。
對人工智能可能是什么的更簡短的描述:一種使我們關心的一切變得更好的方式。
1、 為什么人工智能可以使我們關心的一切變得更好?
人類智能在廣泛的生活領域中都使得事情變得更好。智能是我們用來創造今天世界的杠桿,如科學、技術、數學等。人工智能為我們提供了深刻提高人類智能的機會,使所有這些智能的成果變得更好,更快。
在新的人工智能時代,每個孩子將擁有一個無限耐心、無限同情、無限知識的人工智能導師。每個人都將有一個相似的人工智能助手,幫助應對生活中的所有機會和挑戰。每個科學家、藝術家、工程師等將擁有一個擴展他們領域成就的人工智能伙伴。領導者的決策能力也將得到提高,產生巨大的放大效果。
人工智能將推動經濟增長、新行業的創造、新工作的創造。科學突破和新技術將大幅度擴展,因為人工智能幫助我們進一步解碼自然法則。創意藝術將進入黃金時代,因為得到了人工智能增強的藝術家能夠更快地、更大規模地實現他們的愿景。戰爭也將得到改善,降低戰時死亡率。
人工智能將使我們能夠接受新的挑戰,這些挑戰在沒有人工智能的情況下是不可能應對的,如治愈所有疾病和實現星際旅行。人工智能的人性化品質也被低估了,它可以使那些技術技能欠缺的人們有自由創造和分享他們的藝術想法的能力,還有幫助人們應對逆境并提供更有同情心的醫療聊天機器人。
人工智能的開發和傳播不僅是風險,更是我們對自己、對我們的孩子、對我們的未來的道德義務。我們應該在人工智能的世界中生活得更好,現在我們可以了。
2、 那么為什么會出現恐慌?
當前關于人工智能的討論充滿了恐懼與偏執,原因是人類的競爭直覺。但這種恐懼在大多數情況下是錯誤的。我們生活在一個和平的世界,一切相互促進。我們需要更積極、開明地看待人工智能,看到它的潛力。
人工智能將帶來深遠的變化,改善生活、改變世界理解。我們應警惕潛在問題,負責任地研究人工智能,確保積極影響。人工智能能解決復雜問題,比如氣候變化、疾病、貧困、戰爭、認知限制。
關于人工智能風險與規制的討論,有"浸信者"與"私酒販"。"浸信者"是真誠關心人工智能風險的人,他們可能來自學術界、科技道德領域或公眾利益集團。"私酒販"可能從規制中獲得經濟利益,例如大型科技公司CEO或有權力、影響力的人。他們可能將新的人工智能規制視為競爭壁壘,保護市場地位或阻止競爭。
我們的目標是在開放、透明環境中,公正、理性評估各方論點。我們需理解擔憂、考慮提議、探索解決方案,而非簡單貼標簽。"浸信者"的擔憂不能被忽視,人工智能確實存在潛在風險。"私酒販"可能提出有價值觀點,如利用規制促進人工智能安全、負責任使用。
我們需要更開放、包容、理性地對話環境,讓所有利益相關者參與決策,而非少數人主導。
3、 AI風險#1:AI會毀滅我們嗎?
最原始的AI末日風險便是AI決定消滅人類。我們的文化深深根植于這種由我們創造的科技可能會崛起并摧毀我們的恐懼。《普羅米修斯神話》、《弗蘭肯斯坦》以及《終結者》等各個版本的故事都反映出這個觀念。我們應該理性分析新科技的潛在風險,因為雖然“火”可以被用來毀滅,但它也是現代文明的基礎。
我認為AI會毀滅人類的觀念是一個范疇錯誤。AI不是經過進化競爭的生物,而是由人類構建、擁有、使用和控制的數學和代碼。相信AI會發展出自我意識并試圖消滅我們,簡直就像迷信。AI并非有生命的實體,它無法比烤面包機更具有生命力。
然而,一些真正相信殺人AI的人,被稱為洗禮者,已經獲得了大量的媒體關注。他們主張對AI施加極端的限制,甚至認為我們必須采取預防性立場,可能需要采取大量的物理暴力和死亡以防止存在性風險。對此,我質疑他們的動機,因為他們的立場過于非科學和極端。
具體來說,我認為有三件事正在發生:一些人過于夸大自己工作的重要性,為罪惡賺取榮譽;有的人被付錢成為末日論者,他們的聲明應該謹慎對待;加利福尼亞有一些被教派吸引的邊緣人物和一些實際的行業專家,他們把“AI風險”發展成一個教派。
實際上,這種末日論教派并不新鮮。西方有持久的千禧年末日論教派傳統,AI風險教派就有所有的千禧年末日論教派的特征。這些信仰者,無論真誠或不真誠、理性或非理性,都需要得到適當的回應,因為他們可能會激發有害行為。理解他們的動機和他們所在的社會環境,可以幫助我們找到合適的回應方式。
4、 AI風險#2:AI會毀掉我們的社會嗎?
AI風險的另一種觀點提出,AI有可能通過產生有害的輸出對社會造成深遠的影響。此類觀點主張AI的風險可能源于社會影響,而非實際的生理傷害。AI的社會風險主要表現在“AI對齊”,即AI應與人類價值觀相對齊,但到底應對齊哪一種價值觀,就是一個復雜的問題。
此類風險的問題在社交媒體的"信任與安全"戰爭中已經有過體現。社交媒體多年來一直受到來自政府、活動家等壓力,要求審查和限制各種內容。而類似的關注點也在AI領域出現,人們開始關注AI的對齊問題。
社交媒體審查的經驗告訴我們,一方面,言論自由并不是絕對的。任何生成或促進內容的技術平臺都會有某種限制。另一方面,審查一旦開始,就可能產生滑坡效應,涵蓋的范圍會越來越廣,這種現象在社交媒體審查中已經有過體現。
對于AI對齊的問題,支持者認為他們能設計出有益于社會的AI生成的言論和思考,同時禁止有害的內容。反對者則認為,這種行為帶有思想警察的傲慢性質,甚至可能構成犯罪行為。他們認為,這可能會導致一種新的專制制度的產生。
雖然主張對AI輸出實施嚴格限制的觀點可能只在人口的一小部分中存在,但這種觀點的影響可能會對全球產生深遠影響,因為AI很可能成為未來世界的控制層。因此,對于AI被允許說/生成什么的爭論,將比社交媒體審查更加重要。
總的來說,我們應當防止對AI的過度審查,并允許其在符合社會利益的范圍內自由發展。
不要讓思想警察壓制AI。
5、 AI風險#3:AI會奪走我們所有的工作嗎?
人們對于由于科技發展引發的就業損失恐慌已有數百年歷史,其中最為人知的是2000年代的外包恐慌和2010年代的自動化恐慌。然而,雖然總有聲音宣稱技術將對人類勞動力造成毀滅性打擊,但歷史上新技術的出現總能帶來更多的就業機會和更高的薪資水平。
現在,人工智能(AI)的出現再度引發恐慌,有人認為AI會奪走所有的工作。然而,實際上,如果允許AI發展并在整個經濟中廣泛應用,可能會引發有史以來最為顯著和持久的經濟繁榮,相應地帶來空前的就業和薪資增長。
預測自動化會消滅工作的觀點往往基于勞動總量謬誤,即認為在任何特定時間,經濟中需要完成的勞動量是固定的,要么由機器完成,要么由人完成。然而,當技術應用于生產時,我們就能實現生產力增長,進而降低商品和服務的價格,這反過來會增加經濟中的需求,推動新的生產創造,以及新產業和新就業的誕生。
當我們將視野放大,從個體工人的角度來看,市場會根據工人的邊際生產力來設定報酬。在技術化的企業中的工人比傳統企業中的工人更有生產力,因此他們能獲得更高的薪酬。簡而言之,技術可以提高人們的生產力,進而降低商品和服務的價格,同時提高工資。這將推動經濟增長和就業增長,同時創造新的就業和新產業。
然而,有人可能會認為,這次的AI技術是不同的,它可以取代所有人力勞動。但假設所有人力勞動都被機器取代,那將意味著經濟生產力的極速增長,消費者的福利和購買力都將飆升,新的需求將爆炸式增長,創業者將創造新產業、產品和服務,并盡可能快地雇傭人和AI以滿足這些需求。即使AI再次取代了這些勞動力,這個周期還會繼續,進一步提升消費者福利、經濟增長以及就業和工資增長。因此,AI不會消滅工作,也永遠不會。
我們應該如此幸運。
6、 AI風險#4:AI會導致嚴重的不平等嗎?
將AI搶走工作的擔憂與可能引發的財富不平等問題聯系起來,這個觀點在過去多次被證明是錯誤的,現在也同樣不正確。
一項技術的所有者的真正興趣在于將其產品銷售給盡可能多的客戶,而不是獨占技術。技術的發展和應用,盡管起初可能會被大公司和富人占據,但最終都會普及至全球,讓每個人受益。特斯拉的發展就是一個很好的例子:它先制造昂貴的跑車,然后用這筆收入制造更平價的汽車,最終使其產品面向最大可能的市場——全球消費者。
埃隆·馬斯克,通過向全球銷售特斯拉產品,最大化了自己的利潤。這樣的例子并不僅限于汽車,還有電力、廣播、計算機、互聯網、移動電話和搜索引擎等技術,制造這些產品的公司都在極力降低價格,讓全球的人都能負擔得起。現在,AI也在走相同的路,例如微軟的Bing和google的Bard等AI產品的價格不僅低廉,甚至還可以免費使用。這些供應商希望通過擴大市場規模來最大化利潤。
因此,實際上,技術并沒有導致財富集中,相反,技術使個人用戶獲得權力,捕獲大部分產生的價值。只要他們在自由市場中運作,構建AI的公司也會竭力實現這種情況。
然而,我們社會中的不平等問題確實存在,但它不是由技術推動的,而是由對新技術抗拒最大、政府干預最多的部分推動的,例如住房、教育和醫療保健等領域。AI并不會導致更多的不平等,反而,如果我們允許使用AI,它可能有助于減少不平等。
7、 AI風險#5:AI會導致壞人做壞事嗎?
AI風險的五大疑慮中,我已經解釋了前四個并不構成真實威脅:AI不會突然活過來并對人類構成威脅,AI不會破壞我們的社會,AI不會導致大規模失業,AI也不會引發破壞性的社會不平等增加。然而,第五個疑慮,我必須承認,確實有可能成為問題:AI有可能使壞人更易于做壞事。
科技,從一開始就被視為工具,它可以被用于好事,比如烹飪食物、建造房屋,同時也可以用于惡事,比如燒傷人或者用石頭打人。AI作為一種先進技術,當然可以被用于善事和惡事。壞人,包括犯罪分子、恐怖分子和敵對政府,都可能利用AI來幫助他們更容易地做壞事。
這個觀點可能會使人產生一種想法,那就是在事情變得太糟糕之前,我們應該停止這個風險,禁止AI。但AI并非某種稀有、深奧的物理材料,例如钚。相反,它是基于最易得到的材料——數學和代碼。AI的研究和學習資源已經廣泛開放,包括無數的免費在線課程、書籍、論文和視頻。優秀的開源實現也在日益增多。AI像空氣一樣無處不在,試圖阻止AI的發展需要施加嚴酷的極權壓迫——比如全球政府監控和控制所有的電腦,或者抓捕違規的顯卡——這樣的后果我們將失去值得保護的社會。
因此,有兩種更實際的方式來應對壞人利用AI做壞事的風險。首先,我們的法律已經將許多可能用AI實施的壞事定義為犯罪。例如,入侵五角大樓,從銀行偷錢,制造生物武器,實施恐怖行為,這些都是犯罪。我們的工作應該是防止這些犯罪在我們能夠防止的時候,當我們無法防止的時候,對犯罪者進行起訴。我們甚至不需要新的法律。如果我們發現了AI的新的壞用途,我們應該立法禁止這個特定的用途。
其次,我們應該盡可能地利用AI進行好的、合法的、防御性的工作。使AI在防止壞事發生的過程中發揮出其強大的能力。例如,如果你擔心AI生成的假人和假視頻,解決方案應該是建立新的系統,讓人們可以通過密碼簽名來驗證自己和真實內容,而不是禁止AI。我們也應該讓AI在網絡防御、生物防御、反恐以及其他我們需要做的所有事情中發揮作用。
總的來說,盡管禁止AI看似是保護社會的手段,但真正有效的方法是使用AI去防止AI被壞人用來做壞事。通過這種方式,一個充滿AI的世界,將會比我們現在所生活的世界更安全。
8、 我們應該怎么做?
我為處理AI問題提出了幾點策略:
首先,大型AI公司應被鼓勵盡可能快速和積極地發展AI,但不能允許他們通過錯誤理解AI風險來獲得政府的保護,形成卡特爾。
其次,創業AI公司也應被鼓勵盡可能快速和積極地發展AI,他們不應受到政府保護,也不應接受政府的援助。他們應該公平競爭。
第三,開源AI應被允許自由擴散,與大公司和創業公司競爭。這不僅有助于開放創新,也為希望學習AI的人提供了便利。
第四,政府應與私營部門合作,積極使用AI處理潛在的風險問題,從AI風險到更普遍的問題,如營養不良、疾病和氣候問題。
It's time to build。
9、 傳奇與英雄
我以兩個簡單的陳述作為結束。 AI的開發始于20世紀40年代,與計算機的發明同時發生。第一篇關于神經網絡——我們今天所擁有的AI架構——的科學論文發表于1943年。在過去的80年中,整整一代代的AI科學家誕生,上學,工作,而在很多情況下,他們在沒有看到我們現在所獲得的成果的情況下離世。他們每一個人都是傳奇。
如今,越來越多的工程師——其中很多是年輕人,他們的祖父母甚至曾祖父母可能參與了AI背后理念的創造——正在努力使AI成為現實,他們面臨的是一堵恐慌和厄運論者的墻,這些人試圖將他們描繪成魯莽的惡棍。我不認為他們是魯莽或是惡棍。他們每一個人都是英雄。我和我的團隊非常高興能夠支持他們中的盡可能多的人,我們將百分之百地站在他們和他們的工作身邊。