作者:錢童心
人工智能技術的引領者OpenAI已經成為全球科技行業和監管機構關注的最大焦點,科技大佬們圍繞OpenAI的爭議也一直未平息。
5月16日,“ChatGPT之父”、OpenAI公司CEO薩姆·奧爾特曼(Sam Altman)首次在美國國會發表證詞。
對奧爾特曼發難的議員們也動用了ChatGPT的新手段。
美國康涅狄格州民主黨參議員理查德·布盧門撒爾(Richard Blumenthal)在聽證會開場時播放了一段“他的講話錄音”,后來他透露講話內容和聲音都是由AI生成的。
密蘇里州共和黨參議員喬希·霍利(Josh Hawley)指出,一年前,人們還無法預見人工智能能以如此強大的方式進入“公眾意識”。他設想了生成式AI技術未來在加速信息生產的同時,可能對人類社會造成的挑戰。“這就像是原子彈,巨大的技術突破帶來的后果也可能是嚴重且可怕的。”霍利表示。
馬斯克:我才是OpenAI存在的原因
最新針對OpenAI發聲的還有特斯拉CEO馬斯克。馬斯克在5月16日最新接受媒體采訪時聲稱自己是“OpenAI存在的原因”,并指責OpenAI在確保AI安全性方面做得不夠,他再次反對微軟對OpenAI的控制權。他還表示,自己曾在OpenAI招聘關鍵科學家和工程師方面發揮了重要作用。
馬斯克是OpenAI的早期投資者之一,他曾承諾向OpenAI注入10億美元投資,不過此后因理念不合,他退出了OpenAI,最終的投資大約為5000萬美元。
針對馬斯克的最新表態,微軟CEO納德拉(Satya Nadella)發出了針鋒相對的回應,他表示:“聲稱微軟控制OpenAI的說法是不正確的。”
納德拉稱:“雖然我非常尊重埃隆(馬斯克)和他所做的一切,但我只想說這實際上是不正確的,OpenAI非常重視由非營利組織控制。微軟在其中擁有非控股權益。”
截至目前,微軟對OpenAI的投資已經達到130億美元。近幾個月來,微軟一直在其搜索及辦公產品和服務中整合OpenAI的技術,例如GPT-4。
為了回應來自微軟和谷歌在人工智能領域的競爭,上個月,馬斯克自己注冊了一家公司,宣稱將推出一個人工智能平臺TruthGPT。他表示:“TruthGPT是一種試圖理解宇宙本質、尋求真相的人工智能。TruthGPT可能是通往安全的最佳途徑,不太可能消滅人類。”
馬斯克還自曝與谷歌聯合創始人拉里·佩奇(Larry Page)關于人工智能的理念不合。他說道:“我們是曾經的密友,會就人工智能的本質進行長時間的對話。不過拉里對人工智能的態度相當傲慢,他似乎并不關心人工智能的安全性。”
他說道,雙方“分道揚鑣”的“最后一根稻草”是關于人工智能的意識問題。“拉里稱我為‘物種主義者’(species-ist),因為我的立場是親人類意識而不是機器意識。”馬斯克表示。佩奇沒有對此公開發表回應。
馬斯克不是第一次指責OpenAI和谷歌等企業對待人工智能的態度不負責任,他還多次敦促美國政府加強對人工智能的監管。
“人工智能比管理不善的飛機設計或維護糟糕的汽車生產更危險,它有可能破壞文明。”馬斯克在上個月接受采訪時表示。
有“人工智能教父”之稱的計算機科學家杰弗里·辛頓(Geoffrey Hinton)本月宣布離開谷歌。辛頓在過去的十多年里幫助谷歌開發AI技術,但他現在成為了人工智能最新的“末日預言者”。辛頓擔心,人工智能技術的“未來版本”會對人類構成威脅,因為“它們經常從分析大量數據中學習到意想不到的行為”。
ChatGPT之父回應AI意識
5月16日,薩姆·奧爾特曼在首次出席美國國會作證時表示,他支持對人工智能技術進行監管,以利用人工智能的益處,同時最大限度地減少危害。
當被問及“如果國會不對技術進行監管,人工智能會多快具有‘自我意識’”時,奧爾特曼強調:“將GPT視為一種工具而不是一種生物很重要,人們不應該試圖將人工智能擬人化。”
但他同時強調對AI技術的監管非常重要。“我們認為政府的監管干預對于減輕日益強大的大型語言模型的風險至關重要。”奧爾特曼表示,“對于一項非常新的技術而言,我們需要一個新的框架。”
他建議美國政府可以考慮對AI模型的開發和發布提出許可和測試要求,并建立一套安全標準,特定的測試模型必須通過這些標準才能部署,同時允許獨立審計人員在模型啟動前進行檢查。
奧爾特曼承認,雖然OpenAI正在構建的強大模型工具有朝一日會解決人類面臨的一些最大挑戰,例如氣候變化和治愈癌癥,但目前的系統還無法做到這些。
“人工智能有能力改善我們生活的幾乎每個方面,但它也會帶來嚴重的風險。”他說道。針對生成式AI技術對就業市場產生的影響,奧爾特曼表示:“它會對就業產生嚴重的影響。但另一方面,也會創造更多的就業機會。”
一些議員提出了ChatGPT的回答如果被用于AI生成的歌曲、文章或其他作品,內容創作者將如何獲得補償的問題。對此,奧爾特曼表示,OpenAI正在與藝術家和其他機構商討潛在的經濟模式。他還談到生成式AI對于新聞出版行業的影響。
奧爾特曼對于人工智能的開放態度也贏得了國會議員的贊賞。紐約大學心理學和神經科學名譽教授加里·馬庫斯(Gary Marcus)也在聽證會上發表演講,呼吁為人工智能技術建立一個新的監管機構。“AI技術復雜且發展迅速,必須有一個全職的機構專門來對此進行監管。”馬庫斯表示。
不過,聽證會上談及的只是生成式AI技術可能引發的初步問題。比如,議員們還提到生成式AI技術帶來的市場壟斷問題,少數公司將可能擁有數據和基礎設施結合的能力,可以掌控人工智能生成的全鏈條,這可能使得少數公司收獲更大的經濟利益。但這一問題尚未得到很好解答。
微軟稱GPT-4已展現人類邏輯跡象
盡管大部分科學家認為,AI目前并不具有意識,但微軟的科學家研究發現,新的AI系統正展現出具備人類邏輯的跡象。在一篇近期發表的論文《通用人工智能的火花》中,研究人員發現,AI系統可能對物理世界“擁有直觀的了解”。
微軟科學家認為,盡管人們在使用GPT-4大模型的時候,驚訝于它生成文本的能力,但事實上,大模型在分析、整合、評估和判斷文本方面的能力要遠勝于它的生成能力。
“這是AI系統邁向通用人工智能(AGI)的第一步。”他們表示。
對此有專家表示,盡管GPT-4這類系統非常強大,不過現在還無法證明它生成的文本是否為人類邏輯的結果或是基于常識的結果。
美國加州大學伯克利分校的心理學和哲學教授艾莉森·戈普尼克(Alison Gopnik) 就認為,每當一個復雜的機器或系統問世的時候,都會有人傾向于將它擬人化,但把人工智能和人類進行比較本身就是帶有謬誤的。
上海交通大學與上海市精神衛生中心雙聘研究員林關寧教授對第一財經記者表示:“如果人類邏輯的定義是不帶感情色彩的邏輯推理,那么GPT-4確實具備了相當一部分的能力。也就是說給它一定的上文,它可以推理出下文應該說什么。”
微軟是首個發表論文提出如此大膽設想的科技巨頭。這也引發了科技界的激辯話題:人工智能是否會發展為“人類智能”?如果技術專家們真的造出像人腦那樣的機器,甚至還能比人腦更加聰明,那么它是否會激發“自我意識”?如果這一情況真的發生,那么AI在改變世界的同時,也存在危險。
對此,林關寧對第一財經記者表示:“如果認為意識只是一種信息的輸入與輸出和反饋,那么顯然人工智能已經具有某種意義上的‘意識’;但如果認為意識整合了人類的情感、具有倫理和道德反思,那么顯然人工智能遠未達到此意義上的意識存在。”
他認為,從目前的GPT版本來看,雖然機器變得更加智能,擁有了更加準確地完成目標的能力,但它仍然只是一個先進的基于深度學習完成任務的機器,不存在情緒等主觀體驗。
“機器只是通過接受人類傳達給它的指令后,學習了更像人的表達,看似具有了某種人格,更符合大眾的心理預期,但這些還不能說明機器具有意識。”林關寧對第一財經記者表示。
但他同時強調了未來AI自主運行可能對社會造成的潛在風險。“如果不考慮算力的限制,那么讓機器用指令操縱一些軟硬件,是有可能模擬一個人類社區的。”林關寧說道。
辛頓也表示:“如果AI系統被允許不僅可以生成自己的計算機代碼,而且實際上可以自己運行該代碼,這就會變得非常可怕。”他擔心有一天真正的“自主武器”會成為現實,這些“武器”就好像是戰場上的“機器人士兵”。