“在經歷了十多年的隱私漏洞以及危及兒童的事件之后,政策制定者一直說不能相信硅谷會制定自己的護欄。”
人工智能咄咄逼“人”?在全球監管呼聲日益高漲之際,這群美國頭部企業自己行動了。
周三,全球頂尖的四家人工智能企業,谷歌、AI target=_blank class=infotextkey>OpenAI、微軟和Anthropic,宣布推出一個以行業為主導的機構——“前沿模型論壇”,旨在為人工智能技術制定安全標準,推動下一代人工智能系統的安全研究和技術評估。該論壇還將成為企業和政府分享相關風險信息的中心。
ChatGPT制造商OpenAI負責全球事務的副總裁安娜·馬坎朱在一份聲明中表示:“至關重要的是,人工智能公司,尤其是那些開發最強大模型的公司,要達成共識,推進深思熟慮、適應性強的安全實踐,以確保強大的人工智能工具獲得盡可能廣泛的利益。”
美媒稱,這一公告建立在這些公司向白宮作出“自愿性承諾”的基礎上。上周五,包括這四家在內的美國人工智能七巨頭自愿承諾,確保人工智能開發的安全性、有保障性和可信任性。具體內容包括,企業須將相關系統交付獨立測試,并開發工具提示公眾該內容由人工智能技術生成。此外,這些公司還同意尋找人工智能之道來幫助應對社會最大挑戰,從癌癥到氣候變化,并投資于教育和新就業。
美國總統拜登在白宮就人工智能發表講話。圖源:《華盛頓郵報》
《華盛頓郵報》認為,這項由行業主導的舉措表明,隨著華盛頓的政策制定者開始努力應對新興技術的潛在威脅之時,美國企業在制定人工智能開發和部署規則方面走在他們的前面。報道同時指出一些人對行業介入其中存在風險的擔憂,“在經歷了十多年的隱私漏洞以及危及兒童的事件之后,政策制定者一直說不能相信硅谷會制定自己的護欄。”
無獨有偶,密蘇里州共和黨參議員喬希·霍利在周二的聽證會上表示,這些人工智能公司正是逃避監管的公司,并特別點名谷歌、Meta和微軟,他們是人工智能的開發商,也是投資者。
“前沿模型論壇”尚處于早期階段,其組織者表示,它可以為現有政府應對人工智能提供支持。在未來幾個月,該機構將成立一個咨詢委員會,指導其戰略和優先事項。創始公司還將設立資金、工作組和章程。
該機構也將向其他開發強大模型的公司開放,成員必須對安全作出承諾,并愿意致力于聯合倡議。
據外媒報道,歐盟也開始監管人工智能,并于上月推出了首個監管框架,禁止那些將對人類構成“不可接受的風險”的人工智能,限制和管理其認為“高風險”的技術使用。
出品 深海區工作室
撰稿 王佳燁
編輯 陳浩睿