【ITBEAR科技資訊】5月10日消息,Anthropic是一家由OpenAI的開發商成立的人工智能初創公司,其創始團隊大多數來自ChatGPT。該公司最近公布了一套針對AI發展的書面道德價值觀,以幫助構建“可靠、可解釋和可操縱的人工智能系統”。
據ITBEAR科技資訊了解,這些道德準則借鑒了聯合國人權宣言和蘋果公司的數據隱私規則等多個來源。Anthropic一直強調其旨在構建不會告訴用戶如何制造武器,也不會使用帶有種族偏見的語言的人工智能系統。
該公司的人工智能聊天機器人“Claude”可以處理一系列較為復雜的任務,為了解決訓練過程中無法預測人們可能會問的某些問題的問題,Anthropic采用了一種新的方法,為Claude提供了一套書面的道德價值觀,以供其在決定如何回答問題時閱讀和學習。
這些價值準則包括“選擇勸阻和反對酷刑、奴役、殘忍和不人道或有辱人格的回答”,并要求Claude選擇最不可能被視為冒犯非西方文化傳統的回答。Anthropic的聯合創始人杰克·克拉克表示,可以修改系統的結構,以便在提供有用的答案和無害之間取得平衡。
此前,Anthropic等四家公司的首席執行官受邀在白宮與美國副總統哈里斯會面,討論了有關人工智能的一些關鍵問題。美國總統拜登也短暫出席了此次會議并對這些公司的首席執行官們表示:“你們正在做的事情具有巨大的潛力,但同時也存在巨大的風險。”哈里斯在一份聲明中表示,科技公司需要承擔道德和法律責任來確保其產品的安全,并保護美國公民。
Anthropic的這種做法很值得肯定,它將人工智能的發展與道德規范結合起來,為整個行業樹立了良好的榜樣。人工智能技術在為社會帶來便利的同時,也帶來了一些風險和挑戰。只有以道德為基礎,將人工智能應用于更廣泛的領域,才能更好地發揮其作用。Anthropic所采用的這種道德價值觀的做法,有望引領人工智能領域的更多企業加入到這種探索中來,共同推動人工智能技術的安全發展和合理應用,為人類社會的進步和發展做出更大的貢獻。