在業內有“人工智能教父”之稱的計算機科學家杰弗里·辛頓(Geoffrey Hinton)表示,如果人類不小心的話,人工智能“可能會接管一切”。
現年75歲的辛頓近日在接受媒體采訪時表示,快速發展的人工智能技術可能在“五年內”獲得比人類更聰明的能力。他補充說,如果這種情況發生,人工智能可能會進化到人類無法控制的程度。
辛頓指出,人工智能系統可能逃脫控制的方法之一是自己編寫“自己的計算機代碼”,這是我們需要認真擔心的事情。
辛頓的工作被認為對當代人工智能系統的發展至關重要。1986年,他與人合著了一篇開創性的論文《通過反向傳播誤差來學習表征》,這是人工智能技術基礎神經網絡發展的一個里程碑。2018年,他被授予圖靈獎,以表彰他的研究突破。
今年4月,在谷歌工作了10年之后,辛頓辭去了副總裁兼工程研究員的職位,這樣他就可以自由地談論人工智能帶來的風險。在離職后,辛頓聲稱對自己在開發人工智能這項技術中的角色感到遺憾。
他特別強調,人類,包括像他這樣構建人工智能系統的頂尖科學家,仍然沒有完全理解這項技術是如何工作和發展的。
許多人工智能研究人員也坦率地承認對此缺乏理解。今年4月份,谷歌首席執行官桑達爾·皮查伊將其稱為人工智能的“黑匣子”問題。
正如辛頓所描述的那樣,科學家為人工智能系統設計算法,從“數據集”中提取信息,比如互聯網。他說:“當這種學習算法與數據產生交互時,它會產生擅長做某些事情的復雜神經網絡。但說實話,我們并不真正了解它們是如何做到這些的。”
皮查伊和其他人工智能專家似乎并不像辛頓那樣擔心機器失控的問題。另一位圖靈獎得主Yann LeCun稱,任何有關人工智能可能取代人類的警告都是“荒謬可笑的”,因為人類總是可以阻止任何變得過于危險的技術。
但辛頓認為,最壞的情況并不確定,醫療保健等行業已經從人工智能中受益匪淺。
此外,人工智能制造的錯誤信息、假照片和視頻在網上廣泛傳播。他呼吁進行更多的研究來了解人工智能,政府應該出臺法規來控制這項技術,并在全球范圍內禁止人工智能軍用機器人(12.450, -0.08, -0.64%)。
在上個月,美國科技大佬齊聚國會山,參加了由參議院多數黨領袖舒默舉辦的人工智能峰會,商討未來人工智能的監管方式。盡管科技巨頭呼吁美國國會通過立法加強對人工智能的監管,但在如何進行監管上,各科技公司仍然存在分歧。
辛頓指出,無論人工智能護欄是由科技公司,還是在美國聯邦政府的強制要求下實施的,都需要盡快出臺相關的監管措施。
他認為,人類可能正處于“某種轉折點”,接下來會發生什么存在巨大的不確定性。并補充說,科技圈和政府領導人必須決定“是否進一步發展這些東西,以及如果他們這樣做該如何保護自己。”