【ITBEAR科技資訊】6月5日消息,近日一封由OpenAI和Google DeepMind的現(xiàn)任與前任員工共同簽署的公開信引發(fā)了廣泛關注。這封公開信旨在警示公眾關于先進人工智能技術的潛在危險,以及當前對人工智能企業(yè)的監(jiān)督缺失問題。
公開信強調(diào),人工智能技術的開發(fā)過程中伴隨著諸多風險,包括但不限于加劇社會不平等、信息操縱與誤導,以及對自主人工智能系統(tǒng)控制的喪失。更令人震驚的是,信中明確指出這些風險有可能導致人類的滅亡。
據(jù)ITBEAR科技資訊了解,公開信中還特別提到,人工智能企業(yè)由于強大的經(jīng)濟驅(qū)動力,往往會選擇推進技術發(fā)展,同時避免分享關于其保護措施和風險水平的關鍵信息。公開信的作者們對此表示擔憂,并認為不能單純依賴這些企業(yè)自愿公開相關信息。
此外,公開信中還揭示了人工智能企業(yè)內(nèi)部的一種現(xiàn)象,即通過廣泛的保密協(xié)議來限制員工對公眾表達擔憂。這使得現(xiàn)任和前任員工成為能夠揭露問題并促使企業(yè)對公眾負責的重要力量。然而,這些保密協(xié)議往往阻礙了他們發(fā)聲,除非是針對那些可能未解決問題的企業(yè)。
在此背景下,員工們發(fā)出了一系列呼吁,希望人工智能企業(yè)能夠提供可靠的舉報人保護,避免制定或執(zhí)行阻止員工因風險問題提出批評的協(xié)議,并為員工提供可驗證的匿名反饋渠道,以便他們向董事會、監(jiān)管機構和具備相關專業(yè)知識的獨立組織反映風險問題。同時,員工們也倡導一種支持公開批評的文化,允許員工在保護商業(yè)秘密的前提下,向公眾和相關部門提出技術風險問題。
此次公開信共有13名員工簽署,他們分別來自OpenAI和Google DeepMind,其中包括7名前OpenAI員工、4名現(xiàn)任OpenAI員工、1名前Google DeepMind員工和1名現(xiàn)任Google DeepMind員工。此舉無疑向外界傳遞了一個明確的信號:在人工智能飛速發(fā)展的今天,我們更需要關注其背后的風險,并加強對相關企業(yè)的監(jiān)督和管理。