日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

 ChatGPT的出現,顯示出某些通用人工智能的特質,但以GPT-3.5和GPT-4為代表的大模型是否是通往AGI的路徑,業內仍有分歧。4月11日,中國國家網信辦就《生成式人工智能服務管理辦法(征求意見稿)》征求意見。

  美國東部時間3月28日,未來生命研究所發表一封公開信,呼吁所有AI實驗室立即暫停研發比GPT-4能力更強大的AI系統,時長至少為6個月。截至4月9日,這封公開信已收到超過5萬個簽名。

  這次發布的公開信指出,近幾個月,全球人工智能實驗室“陷入一場失控的競爭”,以開發更強大的AI大模型,開發者乃至所有人都無法理解、預測或可靠控制這個AI系統。AI開發人員必須與政策制定者合作,以顯著加快開發強大的AI治理系統。

  4月11日,中國國家網信辦就《生成式人工智能服務管理辦法(征求意見稿)》征求意見,提出提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗。

  ChatGPT在2022年11月推出后,在全球掀起熱潮,谷歌、亞馬遜及國內百度、阿里等一眾大廠展開一場AI軍備競賽,致力于開發自己的大模型。OpenAI今年3月推出更高級別的大模型GPT-4,同時也在研發GPT-5。

  圖/視覺中國(19.6800.522.71%)

  4月10日下午,搜狗創始人王小川正式投身AI大模型的競賽,創辦公司百川智能,并稱 “年底前發布對標GPT-3.5的大模型”。同一天,商湯科技公布“日日新SenseNova”大模型體系。更早前,美團聯合創始人王慧文創辦光年之外。以ChatGPT為代表的大模型產品是否是AI發展的未來,又是否是通往通用人工智能的路徑?面對人工智能的全面來襲,我們該恐慌嗎?

  歐盟正制定《人工智能法案》

  “讓我們享受一個漫長的AI之夏,而不是毫無準備陷入秋天。”公開信的結尾這樣寫道。公開信中,研究者們擔心,AI生成的謊言將充斥信息渠道,自動化替代所有工作,進化中的AI未來可能會超越乃至取代人類的思維,甚至讓人類失去對文明的控制。

  未來生命研究所是位于美國馬薩諸塞州的非營利組織,致力于推動AI負責任地發展,2018年,這一組織曾讓SpaceX創始人埃隆·馬斯克、谷歌旗下AI實驗室DeepMind等一眾AI從業者與機構簽字承諾,永不開發殺手機器人(12.160-0.13-1.06%)。這次公開信獲得的簽名支持,包括2018年圖靈獎得主、“深度學習三巨頭”之一的約書亞·本吉奧,“AI領域最好的教科書”《人工智能:現代方法》的聯合作者斯圖爾特·羅素,以及曾是OpenAI創始人的馬斯克等。

  4月10日,OpenAI CEO山姆·阿爾特(12.510-0.09-0.71%)曼在東京會見日本首相岸田文雄后接受媒體采訪。圖/視覺中國

  中科院自動化研究所人工智能倫理與治理研究中心研究員曾毅也在公開信上簽了名,他告訴《中國新聞周刊》,呼吁者最擔心兩點,一方面,技術將對社會產生哪些潛在影響,人類對此還沒有做好準備;另一方面,AI大模型生成的一些內容仍具有偏見和危害,不少AI大模型在開發時缺乏倫理安全框架。

  曾毅強調,“AI末世論”不是當下需要擔心的重點。OpenAI并沒有表明目前GPT-4是通用人工智能,但“并非通用人工智能真正到來時,人類的文明才會失控”。在他看來,ChatGPT成為用戶獲取知識的一種工具。開發者為大模型投喂互聯網級別的數據,輸出端面對的又是開放性提問,這意味著不確定性大幅增加。多位業內人士認同,目前AI技術帶來了巨大風險,但人類對此準備不足。面對數學、編程、歸因等各類問題時編造與事實無關的答案,產生“幻覺”,是GPT-4等大模型最受詬病的缺陷,更關鍵的是,機器在呈現錯誤答案時仍看上去非常“自信且具有說服力”。

  大模型生成內容時,“幻覺”并不都是壞事,但代價是,如果沒有小心審查,錯誤的信息將在互聯網上蔓延。人工智能公司小冰CEO李笛向《中國新聞周刊》舉例,假如大模型生成內容中,編造的信息只有10%,如果一天中有一億次的并發(單位時間內系統同時處理的請求數),便會產生1000萬條假消息,如果被一些自媒體或個人不加審核就投放到市場,幾輪轉發后,人們便難以追溯假新聞來源。目前AI大模型的問題,不在于它會不會出錯、它的能力比人類強,而是并發太高,加上AI極強的說服能力,會造成更嚴重的后果。

  近期,大模型開始被指控侵犯個人數據隱私。3月30日,韓國有媒體報道,三星內部發生三起涉及ChatGPT誤用與濫用案例,包括兩起“設備信息泄露”和一起“會議內容泄露”,三星公司擔心,在ChatGPT輸入內容后,可能會讓敏感內容外泄。當地時間3月31日,意大利宣布禁止使用ChatGPT,起因是一周前,多名ChatGPT用戶表示看到其他人與ChatGPT對話記錄的標題。意大利官方認為,OpenAI沒有提前告知、非法收集用戶個人信息,對OpenAI立案調查,并要求公司作出回應。4月初,德國、愛爾蘭、加拿大等相繼開始關注ChatGPT的數據安全問題。

  當地時間4月5日,OpenAI在官網發布文章,詳細介紹了公司在AI安全上的部署,回應相關爭議,措施包括模型發布前構建完整的AI安全體系,從用戶實際使用中積累經驗以改善安全措施,保護兒童,尊重隱私,提高事實準確性等。文中特別提到,公司將努力在可行情況下,從訓練數據集中刪除個人信息,對模型微調以拒絕有關使用者個人信息的請求等。

  這封公開信呼吁暫停對超過GPT-4能力的大模型的研發,換句話說,目前絕大多數大模型研發者并不會面臨上述挑戰,OpenAI仍是眾矢之的。

  并非所有人都同意公開信的內容。當地時間3月30日,當前人工智能和機器學習領域最頂級的學者之一、谷歌大腦的締造者吳恩達連發4條推特,表達反對意見,他認為呼吁暫停研發的行為是“一個可怕的想法”,圍繞大模型開發過程中的透明度和審計方式,制定法規,才是更實用且有效的做法。當地時間4月7日,2018年圖靈獎另一位得主、Meta首席科學家楊立昆在一場直播中表達了相似的觀點,支持監管相關AI產品,但不應該監管研究和開發。

  多位受訪AI從業者認為,公開信建議的措施都難以落地。比如說,對AI生成的內容加水印。吳恩達表示,對于想利用AI生成的內容偽裝、造假的行為,增加水印會構成一定阻礙,但他對這一方案廣泛應用并不樂觀。這可能會讓提供商在激烈的競爭中落后——用戶更傾向于使用沒有水印的AI系統,從而影響企業的積極性。

  此前,OpenAI在相關AI倫理安全領域做了許多工作。媒體曾報道,OpenAI在非洲肯尼亞雇傭工人,對AI輸出的暴力、性別歧視和種族主義言論進行標注,盡管這一做法被視為對當地人造成極大心理創傷,卻能清洗不少大模型輸出的有害數據。此外,GPT-4在2022年8月已完成訓練,OpenAI對其安全風險進行了6個月調整,引入50多名專家測試,同時加入人類偏好訓練提示、獎勵模式等。

  公開信發布后,針對大模型的倫理安全問題,曾毅所在的中科院自動化研究所人工智能倫理與治理研究中心等在國內發起線上調查,截至4月4日,全國超過500人參加,90%參與者認為,為社會服務的每一個AI大模型,都必須實現倫理安全治理框架。“這不應是一個可選項,而是大模型賦能社會前必須要做的工作。”曾毅建議,每個AI開發機構都應構建一個可技術落地的、有關人工智能安全自動化檢測的系統或平臺。多位受訪者表示,這不能僅靠機構自律,AI在應用階段仍需有更完善的法律、法規的監管。

  4月11日,中國國家網信辦起草的《生成式人工智能服務管理辦法(征求意見稿)》,開始向社會公開征求意見。圍繞近期生成式AI最受質疑的內容不準確、侵犯個人隱私等問題,《辦法》要求開發者采取措施,對訓練數據來源的合法性負責,不得非法留存能夠推斷出用戶身份的輸入信息等。

  曾毅向《中國新聞周刊》介紹,目前,國內在人工智能領域頂層設計上有治理原則,但沒有相關法律,對于AI的倫理安全只是非強制性約束。此外,他參與國內一些人工智能相關管理文件制定時注意到,一些管理辦法只是限制研究行為,在應用層面的治理卻是空白。因此,國內對人工智能的監管在法規和實施管理上仍需要加強。 

  一直在AI立法方面走在前列的歐盟正在制定一項《人工智能法案》,該法案正在歐洲議會討論,預計將于4月26日投票,其核心是基于人工智能的風險等級進行分類監管。但有分析指出,如何定義“高風險AI系統”是一個復雜而困難的決策過程。

  AI的“iphone時刻”?

  2018年起,清華大學人工智能研究院常務副院長、清華大學計算機系自然語言處理與社會人文計算實驗室(THUNLP)負責人孫茂松帶領團隊開始研究大規模語言模型。THUNLP是國內最早開展自然語言處理研究且極具影響力的科研機構。

  這一年,谷歌推出預訓練模型BERT,OpenAI推出GPT-1,預訓練語言模型成為自然語言處理任務的主流范式。開發者靠不斷擴大參數規模,提升AI的能力,比如2019年OpenAI推出參數為15億的GPT-2,2020年推出GPT-3,將參數提升到了1750億。

  “當時我們在討論這條路能走多遠,即數據和模型規模的增大,會不會達到一個飽和點,能力趨于極限。結果不但沒有飽和,反而出現了質的提升。”孫茂松告訴《中國新聞周刊》。大模型的能力在2020年GPT-3推出時已經顯現,但仍主要是完成特定任務,缺乏隨機應變的能力。直到ChatGPT出現,在性能上有了一個質的飛躍,顯示出了某些通用人工智能的特質。

  2月1日,瑞士日內瓦,一些高中教師們參加一場由公共教育部門組織的ChatGpt研討會。圖/視覺中國

  ChatGPT發布后,孫茂松在一次測試中讓ChatGPT寫一首五言絕句,ChatGPT寫得并不完全合乎對仗、押韻的要求。但是讓孫茂松驚喜的是,當他問道,“你覺得哪一句寫得好?”機器回復,第二句,并分析因為其中兩個詞表達了什么情感,兩者之間的關聯。孫茂松進一步表示,“我認為第四句更好”,ChatGPT隨后對第四句進行了賞析。2015年起,他曾研發過一個人工智能詩歌寫作系統“九歌”,2017年面世。想要讓AI寫詩,他先要設計好一個小模型,輸入詩歌類數據時,需要詳細標注出一首詩每句的順序,之后在向AI提問時,它才會挑出某一句來分析。

  “現在不用教它,它能回答出來。我們測試ChatGPT的能力,不用多,只要兩三個例子就知道,國內現在AI大模型做不出這一效果。”在孫茂松看來,ChatGPT的誕生,意味著人工智能迎來拐點,也將是未來5~10年人工智能發展的必然趨勢。

  2016年,AlphaGo打敗圍棋世界冠軍李世石,讓公眾為人工智能深度學習的能力感到振奮,但之后,AI的發展陷入寒冬。多位受訪者表示,ChatGPT展現的能力與AlphaGo有本質差別。國內人工智能公司出門問問CEO李志飛告訴《中國新聞周刊》,AlphaGo的表現,是在有清晰的規則、不涉及與復雜世界交互、相對簡單的環境下發生的。但ChatGPT背后的大模型,展現了語言、知識、邏輯推理等人類通用的技能,并讓人們親身感受到。

  “ChatGPT展現的能力非常實用,與每個人的生活與工作密切相關,這是人工智能發展70多年來從未達到過的時刻。”THUNLP副教授劉知遠告訴《中國新聞周刊》,但最終ChatGPT是人們生活中必不可少的工具,還是會誕生另一種形態的產品,有待商榷。

  當地時間3月21日,英偉達CEO黃仁勛在春季開發者大會上,公開了兩款為AI大模型提供動力的新款芯片,并三次激動地說,“我們正處于AI的‘iPhone時刻’”。

  李笛對AI大模型的看法更為冷靜。他認為,過去5年,自然語言處理技術的發展面臨很大壓力,比如機器難以理解人的意圖,知識圖譜的效果不理想,AI大模型解決了這些瓶頸。但嘗試將它與某個時代對標,“或多或少處于各自(商業或事業)發展的考量”。

  在李笛看來,相比GPT-3.5,GPT-4并沒有涌現新的能力,比如突破GPT-3.5時期邏輯思維的方式等。依據AI過去每一輪浪潮的發展,他判斷,“目前的AI大模型已經面臨瓶頸,行業很快會基于(ChatGPT)的創新,進入到焦灼的競爭狀態,直到下一次創新到來。”

  近期,OpenAI發布GPT-4和ChatGPT插件功能,都意圖明顯指向了商業應用。OpenAI推出ChatGPT的插件功能,用戶可以安裝插件,拓展AI應用的邊界。在此之前,ChatGPT的知識只停留在2021年,如今可以與5000多個第三方插件交互,實現聯網,查看體育比分、股票等實時信息,檢索公司或個人文檔,還可以訂機票、訂餐。

  有網友在ChatGPT接入數學知識引擎Wolfram Alpha插件后注意到,其與ChatGPT對話時,Wolfram會在涉及數學相關知識時現身作答,并同時在后臺不斷與GPT系統對話和修正結果,即實現機器間的會話。這被業內視為ChatGPT打造出了“App Store”,開始變成一個無所不能的業務生態系統。有專家認為,未來GPT-3.5和GPT-4的應用場景會增加很多,可能會顛覆現有的許多服務。

  ChatGPT推出后,一度引發全球教育界的強烈抵制。伴隨著大模型的熱潮,更多人開始重新思考教育與ChatGPT的關系,并認為與其將ChatGPT定性為作弊手段,不如讓老師給學生展現ChatGPT如何發揮作用,并保證每個學生的獨立思考能力。

  孫茂松認為,AI大模型展現的分析能力,如果利用得當,可以成為一名優秀的“智能助教”,幫助人們隨時隨地學習。美國芝加哥的一位高中生曾對媒體分享了使用ChatGPT的體驗:輔助做作業時,ChatGPT能幫他更快、更好地收集和理解主題,他還嘗試把ChatGPT當做一名程序員,向他學習如何寫代碼。

  OpenAI的官方演示中,GPT-4還能假裝自己是“以蘇格拉底風格回應的導師”,不給學生確定的答案,而是將問題拆分成更簡單的部分,幫助學生獨立思考。在該模式下,GPT-4循循善誘,幫助使用者解出了一個二元一次方程組。

  AI不應該取代老師,一些老師開始嘗試讓AI輔助教課,比如生成教學大綱、生成對學生階段性學習的評估問題,或是生成高質量的教學案例,不過,這考驗著使用者能否問出好的問題。好的Prompt(提示詞)就像是一個咒語,能讓ChatGPT發揮最大潛力。有老師考慮到學生能力的不一,希望ChatGPT給每個學生量身定制差異化作業,便要求ChatGPT“創建一項作業,對于在該學科知識上有深刻理解的學生來說具有挑戰性,但對于那些不擅長這門課的學生,可以給予一些幫助”。

  與此同時,ChatGPT將會對更多工作造成沖擊。3月,高盛發布一份研究報告顯示,以ChatGPT為代表的生成式AI產品,具有超強智能自動化能力,將來會實現“人機協作”的工作模式。根據數千種職業通常執行的任務數據,高盛計算出美國和歐洲大約2/3的工作受到了生成式AI自動化的影響,行政和法律從業者最容易被機器代替,而像建筑、維修、清潔等體力型職業受影響較小。

  AI倫理專家呼吁,業內長期討論的是“有限度地使用AI”,并非所有工作都應該被AI取代。實際上,這個浪潮并不以個人意志轉移。但劉知遠告訴《中國新聞周刊》,未來AI仍然只是人的工具,人類應將ChatGPT作為一個外部的知識庫充分利用,更重要的是,“人類快速吸收和利用這些信息,接受ChatGPT提供的啟發,去做更有創新性的工作,這也是人類特有的能力”。

  3月24日,手機上展示的“文心一言”AI畫作。圖/視覺中國

  “煉大模型”風潮

  一個有趣的說法是,ChatGPT被推出后, AI世界被劃分成了兩派:OpenAI和追趕OpenAI的公司,全球科技公司掀起了“煉大模型”的風潮。

  李志飛畢業于美國約翰霍·普金斯大學語言與語音處理實驗室,曾在谷歌工作了三年,任谷歌總部科學家,從事機器翻譯的研究和開發工作,2012年回國,在語音交互領域創業。ChatGPT面世后,他預感“自己的時代到了”。他一個月飛往硅谷兩次,與谷歌、微軟、OpenAI、Meta等公司的AI工程師交流。他注意到,美國知名孵化器Y Combinator,可能三分之一以上的項目都是基于大模型做的應用。2月15日,他公開宣布,將在大模型領域創業,要做“中國版的OpenAI”。

  4月8日,浙江大學人工智能研究所所長吳飛在一次論壇中分享,ChatGPT的技術路線中,數據是燃料、模型是引擎、算力是加速器。ChatGPT和GPT-4未公開更多技術細節,但參照GPT-3,吳飛估算訓練ChatGPT的門檻:數據方面,訓練中使用了45TB數據、近1萬億單詞,數十億行源代碼。模型規模上,1750億參數如果被打印在A4紙上,加起來將超過上海中心大廈632米的高度。算力方面,2020年微軟為OpenAI打造了一臺超級計算機,其中包含1萬個英偉達V100 GPU(圖形處理器),吳飛估算投入超過10億人民幣。

  李志飛估算,做大模型的入門門檻至少需要5000萬美元,2000萬購買算力,2000萬招募人才,1000萬購買數據。對標ChatGPT,4月7日,阿里巴巴推出自研超大規模語言模型“通義千問”,開啟內測。一個月前,百度發布大語言模型“文心一言”。此外,華為在打造盤古大模型,騰訊在加快推進大模型 “混元”,字節跳動也開始布局。

  未來是否需要這么多大模型?支持者稱,大模型將是未來人工智能發展的基礎設施,像水或電一樣隨取隨用。前述公開信將現狀描述為“一場失控的競賽”,加州理工學院電氣工程和計算機科學教授阿布-穆斯塔法對《中國新聞周刊》說,這是一種“情緒化”的表述,短期內,只有2~3個像ChatGPT這樣強大的AI工具會占領全球市場,未來也只有谷歌、微軟等少數幾家科技巨頭能在世界級競賽中勝出。

  李志飛向《中國新聞周刊》解釋,不同于互聯網大廠,國內一些創業公司可以針對具體應用場景去定義大模型的能力、參數規模及需要哪些領域的數據,“模型質量不單依賴于模型和數據規模,數據質量非常重要,如果以應用為驅動,數據可以更有針對性選擇”。

  復制ChatGPT并不簡單。2022年5月,由Facebook更名的Meta開源了大模型OPT,并在相關論文中寫到,“考慮到計算成本,如果沒有大量資金,這些模型很難復制。對于少數可通過API獲得的大模型,無法訪問完整的模型權重,使得他們難以被研究。”今年3月,OpenAI首席科學家兼聯合創始人伊利亞·蘇茨克維爾解釋,不開源大模型是因為擔心競爭及擔心安全。GPT-4開發不易,很多公司都想做同樣的事情。從安全角度考慮,模型的能力正在變得越來越強,如果開源,可能有人會利用這個模型作惡。

  以Transformer為底層技術的大模型至今仍是“黑盒子”,開發者無法從科學上解釋其內在機制,只能通過觀察、經驗總結一些結論。有研究者提到,同一組數據,輸入先后順序不同,效果也會有差異。在李志飛看來,小模型跑數據更容易,煉大模型時,工程師在什么時間把什么類型的數據“喂”給大模型,都變得非常重要。

  “目前為止,沒有哪一個大模型能復現哪怕是GPT-3.5的能力。即使OpenAI自己重做,也不一定能復現出之前模型的效果。”李笛向《中國新聞周刊》說。但也有學者對國內研制出GPT保持樂觀,OpenAI從2018年以來持續投入完善大模型,有“時間壁壘”,不存在技術壁壘。

  超大的參數規模,是目前OpenAI走出的經驗。孫茂松介紹,業內評估大模型會關注一個點,是否產生思維鏈。2022年1月,這一概念首次在谷歌的一篇論文中被介紹。簡單講,訓練大模型時,不同于傳統上給出一個正確答案提示,而是會額外增加一段推理過程。如向大模型提問,“羅杰有5個網球,他又買了兩罐網球,每罐有3個網球。他現在有多少個網球?”過去工程師僅在后臺提示模型答案為11,但思維鏈提示是告訴它,“羅杰一開始有5個球,2罐3個網球是6個網球,5+6=11。”增加這一步后,模型會模仿人類思考過程,輸出結果的正確性顯著提升,這也是ChatGPT有別于GPT-3、涌現出推理邏輯的關鍵能力之一。

  孫茂松告訴《中國新聞周刊》,目前大模型的參數規模超過約860億時,思維鏈才會起到效果,但“這不是科學導出的結果,而是觀察出來的”。人們將煉大模型形容為“煉丹”,方法不同、水平不一,效果也有所差異,未來也可能有人用100億參數做出相同的效果。

  煉大模型需要極大算力。李志飛提到,如果做多模態模型或是一些通用人工智能(AGI)模型,需要的算力更高。

  大模型能讓機器產生意識嗎?

  3月,OpenAI發布GPT-4后,微軟隨后發表了一篇早期GPT-4的能力測評的論文,提出“GPT-4可被視為通用人工智能(AGI)系統的早期版本”的觀點。

  目前,業內對AGI尚未有明確且有共識的定義。1994年,52名心理學家將智能定義為一種非常普遍的心理能力,包括推理、規劃、解決問題、抽象思維、理解復雜思想和從經驗中學習等能力。這也是微軟科學家在論文中明確界定的AGI范疇。文中提到,GPT-4的早期版本在各個領域和任務上表現卓越,達到或者超越了人類水平,包括抽象、理解、視覺、編碼、數學、對人類動機和情感的理解等,因此,作者認為,“GPT-4是邁向AGI的重要一步”。

  麻省理工學院大腦與認知科學系教授、大腦心智和機器中心主任托馬斯·波焦是計算神經科學領域巨匠,他在回復《中國新聞周刊》的郵件中表示,他認為GPT-4確實顯示了AGI的火花。但它是互聯網信息的縮略版,還是真的可以產生新的想法,比如證明數學中的新定理,目前還是一個懸而未決的問題。GPT-4還達不到完全的AGI,但未來一些類似的版本也許可以做到。 

  孫茂松理解的AGI,是機器擁有人的全部能力,即除了上述“智能”包含的能力外,不管處在任何環境下,機器能夠根據對方的意圖做出正確的反應。在他看來,ChatGPT具備了一部分AGI能力,比如能進行語言交互、理解圖像,但對連續變化的世界的理解、對復雜邏輯的推理等還不夠好,“但現在具備的一些能力已經能靠近本質,我以前覺得機器掌握這種能力遙遙無期”。

  GPT-3.5和GPT-4為代表的大模型是否是通往AGI的可行路徑,業內仍有分歧。今年2月,吳恩達曾在社交平臺表示,人類的確在深度學習上取得了令人興奮的進展,但完全不必拿它與AGI牽強的關系來炒作。

  這背后的核心在于,大家理解的AGI各不相同。阿布-穆斯塔法向《中國新聞周刊》解釋,“如果說GPT-4能夠完成很廣泛的任務,甚至某些情況下,在一些任務中的表現超過了人類,這就是AGI嗎?并非如此”。對于通用人工智能,人類更想追求的目標是:AI突然之間學會了以上所有,能舉一反三,就像魔法一樣,但這是一個非常模糊的描述。

  人們對AGI混亂的解讀,由人工智能研究長期存在的路徑分歧造成。計算機科學家與神經科學家杰夫·霍金斯在新近出版的《千腦智能》一書中寫道,人工智能研究者制造智能機器時有兩條路,第一條路是目前人工智能領域研究的主要方向,即讓計算機在某些具體任務上超過人類,通過這種方式實現人工智能,系統工作原理以及計算機是否靈活則無關緊要。另一條路是創造可以做各種事情、并且將從某個任務中學到的東西應用于另一個任務的機器。沿著這條路徑成功制造的機器,可能具備5歲孩子的能力,這是早期人工智能研究的重點。

  以ChatGPT為代表的大模型看上去會思考和推理,但與人類智能完全不同。李笛向《中國新聞周刊》解釋,如果詢問ChatGPT“刺殺林肯的兇手在刺殺林肯時,跟林肯是不是在同一個大陸?”更早版本的GPT無法回答這個問題,ChatGPT能給出正確答案,但它的思考邏輯是,先查詢刺殺林肯的兇手在刺殺林肯時在哪里,再查林肯當時在哪里,最后對比兩個地點后回答,“這對于人來說,是非常荒唐的邏輯鏈”。

  在托馬斯·波焦看來,GPT-4和人的不同之處在于,GPT-4沒有個性,因為它沒有超越個人會話之外的記憶,就像電影《記憶碎片》的主人公,當下的記憶只能停留幾分鐘。GPT-4沒有任何在物理世界的直接經驗,所以可能很難控制機器人的肌肉或電機,此外,GPT-4比人腦消耗非常多的訓練能量。

  “如果把大模型類比成一個生命體,它的人生目標是由人類制定,而目標之外的事情它并不知道。這是大模型與人最大的區別。”劉知遠認為,大模型不知道什么是自我,可能完全沒有考慮過,人們可以去詢問它這個問題,它也會給出答案,但這是因為你問了問題,它需要預測下一個詞是什么,它沒有產生意識。

  孫茂松對《中國新聞周刊》分析說,一年前,如果有人問他,他絕對不說大模型會導致通用人工智能,但ChatGPT出現后,他認為這是一條可行的路徑。即便談到機器的意識和情感,他認為,大模型也可以試著讓機器具備某種“意識”,哪怕只是看上去有意識。比如,開發者可以明確告訴機器扮演一個人設,它就會表現出好像具有某種意識。

  “這是行為主義的邏輯,你可以認為它只是表象,不是本質,但能做到這點,內在機制一定有其合理性。只要現象足夠好,可以為人所用。”在孫茂松看來,從人工智能概念誕生之初,人們就試圖用摸清人腦機理的方式來做人工智能,這是理性主義的做法,無疑是一條正確的道路,不會出現大模型高耗能的缺點,但問題是實現難度要比大模型大得多。“這兩條道路沒有對錯之分,現階段是以成敗論英雄。但理性主義這條路人們也從未放棄,總有人在堅持,需要天才式的科學家。”

  記者:楊智杰 霍思伊

分享到:
標簽:AI
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定