波多野结衣 蜜桃视频,国产在线精品露脸ponn,a v麻豆成人,AV在线免费小电影

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

  ChatGPT能幫忙做副業、寫論文,但為何還是取代不了人類?

  來源:真故研究室

  文 | 林秋藝

  編輯 | 龔   正

  ChatGPT已經在科技圈火熱一月有余,但仍有很多大眾關心,ChatGPT于個人的職業、學業有何價值、自己該如何與ChatGPT時代相處。

  也有很多人腦洞大開提問,ChatGPT能幫自己做副業嗎?能成為自己的良師益友、解決自己的精神內耗嗎?另外也有瞧不上ChatGPT的聲音。前一陣,ChatGPT連小學數學題都算不對的新聞也傳播了一番。一些家長形成了先行印象,認為這哪里算得上AI。

  對此,我們對話了中國計算機學會科學普及工作委員會主任助理崔原豪博士。他也是電影《流浪地球2》中人工智能領域科學顧問。請他分享了ChatGPT的諸多硬核洞察。

  崔原豪的核心觀點如下:

  1、AI替代的不是人類,而是不會使用AI的人類。關注ChatGPT的原因在于,我們應該了解將來如何使用ChatGPT相關的AI產品去提升自己的工作效率,這是未來工作中的最優選擇。當世界在進步時,一成不變就將形成數字鴻溝,從而影響自身發展。

  2、機器在計算能力上會高于人類,但機器智能始終無法如人類智能一樣思考。迄今為止,還沒有發現AI有超越人類智能或者企圖反叛人類的苗頭。評價機器是否智能只有通過圖靈測試,但真正完備的圖靈測試無法實現。

  3、ChatGPT目前還無法分辨信息的真實性。下一步,需要在數據層面集中增加更多關于世界常識的標注數據;在它原有的記憶上更新,因為隨著時間的進程,某些事實和知識都會發生變化,它需要不斷更新。

  以下為對話實錄:

  Q1:您第一次接觸ChatGPT是什么時候?使用體驗如何?

  A1:大概是在2個月前,第一次使用了ChatGPT。當時用它做了一篇英文論文的潤色,讓ChatGPT幫我推敲其中的語法,結果超乎我想象的好。

  我告訴它:你現在是一個英語翻譯家,我希望你把我說的話翻譯成優雅且簡練的英語句子,不要作過多解釋,也不要改變它的原意。

  這里每一個“要”或“不要”都是一個指示。在這幾條指示的要求下,它就會把你輸入的一段英語文本變得更加優美簡潔。

  這比以前用的Grammarly(英語語法檢測)潤色出來的效果好很多。專業性上,ChatGPT會做很多專業術語的替換,這是之前的語法檢測工具很少能做到的;文法方面,被它替換后的詞匯和語法相較之前會更優雅一些。

  Q2:現在對ChatGPT的復用率如何?

  A2:最近更多的是用它來做論文潤色、英語翻譯或其他語言翻譯,有時候也會逗它玩一會兒。

  它的使用過程還是挺有趣的,像是工作助手,大幅度地減少了我的工作時間,提高了效率。

  Q3:請教一個根源性的問題,在人工智能中,大語言模型扮演著怎樣的角色?

  A3:要了解大模型的角色,我們首先要了解機器如何評價一段文本的好壞。

  舉個例子,《流浪地球2》里有一句經典臺詞“我相信人類的勇氣,可以跨越時間,跨越每一個歷史、當下和未來。”

  假如我把句子順序調整一下,“我相信勇氣的人類,可以跨越時間、當下、未來,跨越每一個歷史。”大家會覺得有一點奇怪,但還是能聽出來我說的是什么意思。

  但當我把它整體打亂,變成“人類勇氣未來,時間當下跨越每一個,可以我相信的歷史”,你就會覺得無法理解。

  我們會覺得第一個句子非常合理,最后一個不合理的原因是,在我們人類所有的語言里,最后一個句子出現的概率非常低。

  從統計角度來看,在“人類語言模型”里,第一句話發生的概率最大,第二句話次之,第三句話幾乎不可能發生。這就是文本合理性的量化。

  機器就是在它的訓練集中,獲得文本合理性的量化指標。如果訓練集足夠泛化到含括所有的語言模型,那么機器就有資格評價這段文本是不是符合人類語法。

  當你讓它生成一段新的文本時,它會按照人類最常用、最喜歡的方式生成,從語法結構上來看,你會覺得它說得很有道理,但事實層面卻不一定對。

  也就是說,語言模型本身就是自然語言處理的一個領域基石。

  語言模型的好壞,決定了整個下游任務處理的好壞,因為是它在評價語言是不是合理。如果剛開始評價指標就錯了,那么后邊的所有東西都會變成錯的。所以語言模型是根本。

  Q4:有聲音認為,ChatGPT是一個顛覆式的創新,它的顛覆性體現在哪?

  A4:我個人覺得顛覆性其實體現在,它變成了一個可以直接面對用戶的產品。

  以前大家做大模型的目的,第一是可以完成更多的自然語言處理任務,第二個是可以在每個細分的載源處理任務上可以去刷新,去達到更高的進度。包括谷歌的大模型、微軟的大模型,還有智源研究院的大模型。

  但是很少有人去站在用戶的角度去想:我們是不是可以去做一個大家都可以用得起來的人工智能產品。

  以前所有的人工智能產品,比如小冰、小愛同學,或者是手機里邊的圖像處理、圖像增強的算法也都是內嵌在其他產品里邊的,并沒有真正打包成一個完全的人工智能的產品去賣給用戶。

  現在ChatGPT就是每個人都可以用得起來一個產品,大家都可以接受他能做到什么程度,而且它還可以接入更多人工智能的算法,包括圖像和視頻領域的算法。

  Q5:許多用戶實測之后發現,ChatGPT在與人溝通上雖然已經相當地智能化,但有時“也會一本正經的胡說八道”,從技術角度上看,造成這一結果的原因是什么?

  A5:主要原因是ChatGPT還不懂什么是“事實”。

  ChatGPT的訓練過程第一步是預訓練。預訓練是采用無監督訓練的方法,也就是把網絡上的數據包括其他的東西,交給它來進行自我訓練。

  這造成的一個結果就是,它不知道這些東西哪一個是真的,哪一個是錯誤的。

  因為預訓練模型是一個語言模型,它的主要目的是去了解人類的語言習慣,包括單詞之間的構造關系,只要學足夠多的文字語料,這些語義信息都是可以被抽取出來的。

  但是抽取出來的關于世界的常識,它自己是無法評判真實性的,需要人類來進行標注。

  下一步,如果它要變得更能分辨事實的話,就需要再加入很多關于世界常識的標注數據,人類需要對哪一些是真的世界常識去做標注。

  另外一個,它需要做一個記憶上更新,因為有很多事實是沖突的,隨著時間的進程,某些事實和知識會發生變化,它需要不斷更新。

  Q6:ChatGPT接下來應該在哪些方面做改進,來變得更為智能?

  A6:這個還是要從智能本身的定義來想,什么叫“智能”?

  我一直覺得在這個領域里邊沒有一個普適的評價基準,去評價機器或者大語言模型本身的能力。現在是根據每一個細分任務去評價它的準確度,但是準確度其實跟智能沒有太大關系。

  要評價它是否智能就需要通過圖靈測試,但是真正完備的圖靈測試是實現不了的,因為它要求的是人與機器不斷交互,這是一個無限長的過程,基本上無法實現。

  如果是限定時間內,人和機器的交互,其實是有可能會被機器騙過去的。

  比如,你和一個大語言模型聊5分鐘,如果話題比較窄,可能你就會覺得它已經達到人類的標準了。

  但是如果你跟它聊得非常寬泛,把范圍擴展到它未曾接觸過的領域,或者你跟它聊大概一個月左右,你可能就會覺得它確實不是一個人。

  所以,如果是從標準的測試層面來說,現有的大語言模型應該都無法通過測試。

  Q7:像人腦一樣去思考和創造,是否是科學界對ChatGPT定性的終極目標?

  A7:大方向上是朝著“人腦”這個方向努力的,但是在真正的研究過程中其實反而沒想這么多。

  比如,在ChatGPT的研究過程中,最開始的時候機器是需要人的提示的,你需要給它一個例子,它會按照這個例子把你想要的內容生成出來,但是現在已經演變到你直接給它下命令,它就能生成的程度。

  所以,實際上它確實是在朝著一個既定的目標去研究的,但是這個既定目標可能并不一定是為了更智能,也可能是為了讓它變得更容易使用。

  Q8:人類隨年齡越長越充滿智慧,ChatGPT也會隨著年限增長,變得更聰明嗎?

  A8:我覺得這個不一定,因為知識是需要更新的。

  人類大腦有一個遺忘的功能,這非常重要,因為大腦的儲存容量是有限的,現在我們每天都會接收到很多的信息,從視覺、聽覺、嗅覺,包括皮膚都可以接受到非常細微的刺激。

  人類的大腦有注意力機制和遺忘機制,我們會注意到我們感興趣的信息,也會遺忘掉很多細節信息。這兩個機制保證了人類大腦不會被過多的信息沖垮。

  對于大語言模型來說,現在注意力機制已經有了,但遺忘機制還沒有。

  現在的大語言模型還只是一個“新生”的階段,它的訓練并不是像我們人類在現實生活中實時訓練,而是在訓練之后使用一段時間,然后再更新、再訓練。

  在使用過程中訓練是我們人類獨有的能力,而大語言模型無法在使用過程中訓練,這也是未來大語言模型需要解決的問題。

  Q9:有聲音認為,國內模型開發公司的研究進度要比海外公司落后2年左右,這個觀點您認同嗎?差距主要在哪?

  A9:我個人覺得大家都比Open AI要落后2年,不只是國內,國外其他公司也一樣。

  因為Open AI選擇的這條路線,在ChatGPT發布之前,大家都覺得它只是一條路線而已,都不覺得它會是一條通往未來通用人工智能的標準路線。

  ChatGPT出現之后,現在注冊用戶已經超過1億了,這是以前從來沒有過的一個數字。這個現象讓大家覺得,朝這個方向做通用人工智能是完全有可能的,而且ChatGPT也展示了潛力。

  Q10:現在入局的互聯網科技公司,您認為哪些或者有哪些積累的企業具備做出高質量ChatGPT的實力?

  A10:現在做自然語言處理的初創公司有很多。

  像智源研究院、百度這樣的互聯網科技公司,阿里巴巴、京東這樣的傳統互聯網公司,都具備做出類ChatGPT產品的能力。

  還有知乎,大家覺得它會成為未來類ChatGPT產品的基礎語料庫,這會給知乎帶來很多流量。

  Q11:我們已知ChatGPT會對搜索引擎產生較大的顛覆作用,除此之外,還會顛覆哪些賽道?

  A11:下一步應該就是圖像和視頻。據我所知,現在也有很多關于圖像和視頻的大模型,只不過它們并沒有像自然語言走得那么靠前。

  基于ChatGPT 這個大模型本身會有很多衍生產品,未來它可能會成為一個基石,跟各行各業的需求結合起來。

  Q12:ChatGPT的算力對芯片提出了巨大的挑戰,目前我國的芯片技術能否達到ChatGPT的算力需求?

  A12:目前國內的芯片技術肯定是比國外要弱一些。雖然會比國外弱一點,但它不是決定因素。

  我們說,如果智商不夠,也可以靠數量來湊。ChatGPT的算力需求,國內的芯片還是可以達到的。

  其實高端芯片的困境,不太會影響類ChatGPT在我國的開發,能做大模型創新的公司其實很少,也就是幾個主流的互聯網公司,像百度、華為都有自己的芯片體系,這對他們來說應該不是大問題。

  但是芯片也等于是算力的價格,假如芯片便宜,那么在后續運行大模型時,它的成本就會比較低,現在可能看不太出來,以后就會成為一個重要的競爭力,因為未來每個公司都在做類ChatGPT產品,那么成本就是一個重要的考量標準。

  Q13:該如何認知類ChatGPT產品之于我國互聯網產業的戰略意義?

  A13:從自主可控的角度來講,國家會需要有屬于自己的大模型。

  我國現在已經有了大模型,雖然跟國外有差距,但是差距并不是特別大。

  研發類ChatGPT的產品,這是一個值得去戰略思考的,需要去做戰略儲備、戰略決策或者戰略指引的一個事情。

  Q14:作為一個普通人,我為什么要關注ChatGPT?ChatGPT未來會取代我的工作嗎?

  A14:AI替代的不是人類,而是不會使用AI的人類。

  我們要關注ChatGPT的原因,在于需要了解以后應該怎么使用ChatGPT相關的AI產品去提升自己的工作效率,這是我們以后工作中的最優選擇。

  產業革命、工業革命之所以是革命,就是因為它對我們每個人的生活都產生了影響,比如以前的蒸汽機、電力、互聯網,現在沒有人不使用它們。

  AI技術被我們認為是一個新的工業革命,原因也是一樣。

  所有人的生活,都會因為AI產品本身或者是AI衍生的其他產品而產生改變。當所有人都在進步,只有我們一成不變,形成數字鴻溝,那么受到影響的就會是我們自己。

  但同時,AI并不一定能替代人類工作,現在我們也可以看到,它的精確度并不是很高,它還存在很多問題,如事實性、時效性和理解程度。

  所以應該做的不是焦慮、恐慌,而是跟上發展的浪潮,主動了解ChatGPT,以便更好地使用。

  Q15:用ChatGPT搞副業行得通嗎,比如幫寫網文?

  A15:不能說完全不行,但要用它寫出充滿可讀性的網文,需要比較精心的引導,目前還達不到給它一份大綱,它就能生成非常完美的一篇網文的程度。

  現在的情況更多的是,我們給它大綱,然后它生成一篇充滿套路的文章。

  也就是說:華麗的詞藻,但是空洞的思想。

  未來互聯網上的信息會更加膨脹,大家會更偏向看有質量的東西,那么ChatGPT生成的充滿套路的文章肯定是行不通的。

  Q16:人類應該以怎樣的正確態度來面對ChatGPT?

  A16:AI首先是一個工具。從這個角度上來看,我們應該考慮到,工具和技術本身沒有善惡,但它的使用角度可能會有問題。

  而且,人工智能這樣一個工具,嚴重地依賴它的數據,還有它的生成過程。所以我們希望人類本著負責任的態度去使用它,這樣大模型生成的內容也是相對負責任的。

  另外一方面,就是我們日常擔憂的AI問題。

  最近也有一些人在談論,ChatGPT這類大語言模型,除了現在的仿造能力,將來會不會涌現其他新的能力,比如邏輯思維能力,這是今年熱度很高的一個問題。

  這也是我們目前正在研究的問題,如果有一天它真的出現邏輯思維的能力,或者開始出現類似于小孩的心智,那么可能會變成一個比較嚴重的問題。

  但迄今為止,我們還沒有發現AI有超越人類智能或者企圖反叛人類的苗頭。

  Q17:新技術的風險一般伴隨著法律和倫理上的討論。ChatGPT的風險主要體現在哪些方面?

  A17:這應該是對大模型的普遍擔憂。

  第一個就是,數據公平的問題。有很多模型的訓練集本身就沒有公平,導致它產生的結果就是不公平的。

  第二個是,它的答案可能是有害的。目前ChatGPT已經對很多領域都已經做出了限制,我們很少能看到有害的問題和有害的答案。但是如果有新的模型,它們可能沒有做出限制,就很難避免。

  第三個是,現在AI界在強調的,我們要做負責任的AI。AI只是一種技術,但作為技術的生產商,需要讓這個技術對人類負責任,它的每一個決定都不能隨意。

分享到:
標簽:Chat GPT
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定