【ITBEAR科技資訊】5月4日消息,隨著生成式AI的普及,這種技術的安全風險和隱私問題也逐漸浮出水面。近日,三星電子發布了一項新規,禁止員工使用流行的生成式AI工具,如ChatGPT、Google Bard和Bing等。
據ITBEAR科技資訊了解,三星電子此舉是為了避免員工使用這些工具導致公司數據外泄和安全風險。此前三星電子引入聊天型機器人ChatGPT后不到20天時間,就曝出有機密數據外泄,甚至有員工將代碼上傳。內部調查顯示,有65%的受訪者認為使用AI工具存在安全風險。
因此,三星電子的新規禁止在公司所屬的電腦、平板電腦、電話及內部網絡使用生成式AI系統。但不影響出售給消費者的設備,由用戶自行決定。三星電子已通知公司最大的部門,并敦促他們遵守這項規定,避免安全事故的發生。
值得注意的是,三星電子并非唯一一家對生成式AI技術的安全性存疑的公司。摩根大通、美國銀行和花旗等華爾街大行已經限制或禁止使用ChatGPT等生成式AI工具。盡管這些工具具有智能的表現力,但它們背后的算法和模型復雜,難以完全解釋,因此難以控制其輸出內容的準確性和安全性。