日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

北京時間5月23日消息,ChatGPT開發(fā)商OpenAI CEO薩姆·阿爾特曼(Sam Altman)上周在美國國會作證時坦言,人工智能(AI)會對世界造成重大傷害,并呼吁加強AI監(jiān)管。

OpenAI CEO阿爾特曼

OpenAI CEO阿爾特曼

美國當(dāng)?shù)貢r間周一,阿爾特曼聯(lián)合OpenAI總裁格雷格·布羅克曼(Greg Brockman)、首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)在OpenAI官方博客上發(fā)布了《超級智能的治理》的文章,詳細(xì)闡述了他們的監(jiān)管提議。

以下是文章全文:

鑒于我們現(xiàn)在所看到的情況,可以想象的是,未來十年內(nèi),AI系統(tǒng)將在大多數(shù)領(lǐng)域超過專家的技能水平,并能夠開展與當(dāng)今最大公司之一一樣多的生產(chǎn)活動。

OpenAI博文《超級智能的治理》

OpenAI博文《超級智能的治理》

就潛在的優(yōu)勢和劣勢而言,超級智能將比人類過去不得不與之抗衡的其他技術(shù)更強大。我們可以擁有一個明顯繁榮得多的未來,但我們必須控制風(fēng)險才能實現(xiàn)這一目標(biāo)。鑒于我們面臨潛在生存風(fēng)險,我們不能只是被動應(yīng)對。核能是一個常用的歷史例子,它具有這種特性。合成生物學(xué)是另一個例子。

我們也必須減輕當(dāng)今AI技術(shù)的風(fēng)險,但超級智能將需要特殊的對待和協(xié)調(diào)。

三個理念

對于我們來說,有許多重要理念能夠幫助我們更好地把握這一發(fā)展方向。在這里,我們列出了我們對其中三個理念的初步想法。

首先,我們需要在領(lǐng)先的開發(fā)項目之間進(jìn)行一定程度的協(xié)調(diào),以確保超級智能的發(fā)展以一種既能維護安全又能幫助這些系統(tǒng)與社會順利整合的方式進(jìn)行。有很多方法可以實現(xiàn)這一點:世界各地的主要政府可以建立一個項目,讓許多當(dāng)前努力成為其中的一部分,或者我們可以集體商定(在一個新組織的支持下,就像下面建議的那樣),將前沿AI能力的增長速度限制在每年一定比例上。

當(dāng)然,個別公司應(yīng)該被要求以極高負(fù)責(zé)任的標(biāo)準(zhǔn)行事。

其次,我們很可能最終需要像國際原子能機構(gòu)(IAEA)這樣的機構(gòu)來開展超級智能工作。任何超過一定能力(或算力等資源)閾值的工作都需要服從于國際權(quán)威機構(gòu),該機構(gòu)可以檢查系統(tǒng),要求審計,測試以確定項目是否符合安全標(biāo)準(zhǔn),對部署程度和安全級別進(jìn)行限制等等。跟蹤計算和能源使用可能會有很長的路要走,但它給了我們一些希望,相信這個想法實際上是可以執(zhí)行的。作為第一步,企業(yè)可以自愿同意開始實施該機構(gòu)某一天可能要求的要素;第二步,個別國家可以實施。重要的是,這樣一個機構(gòu)應(yīng)該把重點放在降低生存風(fēng)險上,而不是那些留給各個國家的問題上,比如定義AI應(yīng)該被允許說什么。

第三,我們需要讓超級智能安全的技術(shù)能力。這是一個開放的研究問題,我們和其他人都投入了大量的精力。

一般AI不應(yīng)受監(jiān)管

在這個范圍之外,我們認(rèn)為允許企業(yè)和開源項目開發(fā)低于重大能力閾值的模型是很重要的,它不需要像我們在這里描述的那種監(jiān)管(包括像許可證或?qū)徲嬤@樣繁重的機制)。

如今的系統(tǒng)在世界上創(chuàng)造了巨大的價值,雖然它們確實存在風(fēng)險,但這些風(fēng)險的程度與其他互聯(lián)網(wǎng)技術(shù)和社會上可能采取的方法相當(dāng)。

相比之下,我們所關(guān)注的是超級智能系統(tǒng),它擁有比目前所創(chuàng)造的任何技術(shù)都強大的能力。我們應(yīng)該小心,不要把類似的標(biāo)準(zhǔn)應(yīng)用到遠(yuǎn)遠(yuǎn)低于這個標(biāo)準(zhǔn)的技術(shù)上,從而淡化對超級智能的關(guān)注。

公眾意見及潛力

但是,對于最強大系統(tǒng)的治理,以及關(guān)于其部署的決策,必須有強有力的公眾監(jiān)督。我們相信,世界各地的人們應(yīng)該民主地決定AI系統(tǒng)的界限和默認(rèn)設(shè)置。我們還不知道如何設(shè)計這樣一個機制,但我們計劃對這一發(fā)展進(jìn)行試驗。我們?nèi)匀徽J(rèn)為,在這些廣泛的界限內(nèi),個人用戶應(yīng)該對他們所使用AI的行為有很大的控制權(quán)。

考慮到這些風(fēng)險和困難,我們有必要考慮一下為什么要開發(fā)這項技術(shù)。

在OpenAI,我們有兩個基本原因。首先,我們相信它會帶來一個比我們今天所能想象的更好的世界(我們已經(jīng)在教育、創(chuàng)造性工作和個人生產(chǎn)力等領(lǐng)域看到了早期的例子)。世界面臨著許多問題,我們需要更多的幫助來解決這些問題。這項技術(shù)可以改善我們的社會,每個人使用這些新工具的創(chuàng)造能力肯定會讓我們大吃一驚。經(jīng)濟增長和生活質(zhì)量的提高將是驚人的。

其次,我們相信,阻止超級智能的創(chuàng)造具有令人難以置信的風(fēng)險,也是困難的。因為好處是如此巨大,構(gòu)建它的成本每年都在下降,構(gòu)建它的參與者的數(shù)量正在迅速增加,這是我們所走的技術(shù)道路的固有組成部分。阻止它的發(fā)展,需要類似全球監(jiān)督制度這樣的體制,但即使如此也不能保證成功。因此,我們必須確保正確處理這一問題。

【來源:鳳凰網(wǎng)科技

分享到:
標(biāo)簽:智能 風(fēng)險 的是 技術(shù) 模型 系統(tǒng) 能力 這一
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨大挑戰(zhàn)2018-06-03

數(shù)獨一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運動步數(shù)有氧達(dá)人2018-06-03

記錄運動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績評定2018-06-03

通用課目體育訓(xùn)練成績評定