日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

《人類簡史》的作者尤瓦爾·赫拉利周二警告稱,人工智能是一種可能消滅人類的外來威脅:“它不是來自外太空,而是來自加州。”

人工智能技術被廣泛譽為一場“革命”,但以色列歷史學家和哲學家赫拉利認為,這是一種可能導致人類滅絕的“外來物種”。會引起。

赫拉利周二在倫敦的一次活動上對觀眾說:“人工智能與我們在歷史上看到的任何其他發明,無論是核武器還是印刷機,都有著根本的不同。”

“這是歷史上第一個可以自己做決定的設備。原子彈不能做出決定。在廣島投下原子彈的決定是由一個人做出的。”

赫拉利說,這種獨立思考能力帶來的風險是,超級智能機器最終可能會取代人類成為世界的主導力量。

他警告稱:“我們可能在談論人類歷史的終結——人類統治時代的終結。很有可能在未來幾年內,它將消耗掉所有的人類文化,(我們自石器時代以來取得的一切成就),并開始萌芽一種來自外來智慧的新文化。”

根據赫拉利的說法,這提出了一個問題,即技術不僅會對我們周圍的物質世界產生什么影響,還會對心理學和宗教等事物產生什么影響。

他辯稱:“在某些方面,人工智能(比人類)更有創造力。最終,我們的創造力受到生物生物學的限制。而它是一種無機智能,真的很像外星智慧。”

“如果我說外來物種將在五年內到來,也許他們會很好,也許他們會治愈癌癥,但他們會奪走我們控制世界的能力,人們會感到害怕。

“這就是我們所處的情況,但威脅不是來自外太空,而是來自加州。”

AI target=_blank class=infotextkey>OpenAI的生成式人工智能聊天機器人ChatGPT在過去一年中取得了驚人的增長,成為該領域重大投資的催化劑,大型科技公司也加入了開發世界上最尖端人工智能系統的競賽。

赫拉利的著作考察了人類的過去和未來,但他認為,人工智能領域的發展速度“讓它變得如此可怕”。

“如果你將其與生物進化進行比較,人工智能現在就像阿米巴變形蟲——在生物進化中,它們花了數十萬年的時間才變成恐龍。而有了人工智能,變形蟲可以在10到20年內變成霸王龍。問題的一部分是我們沒有時間去適應。人類是一種適應能力極強的生物……但這需要時間,而我們沒有那么多時間。”

人類的下一個“巨大而可怕的實驗”?

赫拉利承認,之前的技術創新,如蒸汽機和飛機,都提出了類似的人類安全警告,“最終還可以”,但談到人工智能時,他堅稱,“最終還不夠好。”

他說:“我們不擅長新技術,我們會犯大錯誤,我們會嘗試。”

例如,在工業革命期間,人類“犯了一些可怕的錯誤”,他說:“我們花了一個世紀,一個半世紀,才把這些失敗的實驗弄對。”“也許這次我們逃不掉了。即使我們這樣做了,想想在這個過程中會有多少人的生命被摧毀。”

“時間至關重要”

盡管赫拉利對人工智能發出了可怕的警告,但他表示,我們仍有時間采取行動,防止最壞的預測成為現實。

他說:“我們還有幾年,我不知道有多少年——5年、10年、30年——在人工智能把我們推到后座之前,我們仍然坐在駕駛座上。我們必須非常小心地利用這幾年。”

他還敦促那些在人工智能領域工作的人考慮一下,在世界上釋放他們的創新是否真的符合地球的最佳利益。

“我們不能只是停止技術的發展,但我們需要區分開發和部署,”他說,“僅僅因為你開發了它,并不意味著你必須部署它。”

分享到:
標簽:人工智能
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定