6月16日訊 行業領導者谷歌在全球推廣人工智能(AI)聊天機器人的同時,該公司也在警告員工注意聊天機器人的使用,包括ChatGPT與谷歌自家產品Bard。
知情人士透露,谷歌已建議員工不要將其機密材料輸入給人工智能聊天機器人,同時該公司還提醒IT工程師避免直接使用聊天機器人生成的代碼。
人們在使用這些聊天機器人的時候,會與其進行對話。一方面,人類評審員可能會閱讀這些聊天記錄;另一方面,研究人員發現,人工智能可以吸收并復制相關對話數據給其他人,從而產生信息泄漏風險。
而谷歌對此回應稱,其聊天機器人Bard可以生成一些不受歡迎的代碼建議,但它仍然對IT工程師們會有所幫助。谷歌還表示,其目標是對人工智能技術保持足夠的透明度。
這些擔憂表明,谷歌希望避免人工智能對公司的商業化運作造成損害,這種謹慎的態度也體現出企業對人工智能的使用限制,正越發成為某種具有共性的企業安全標準。
在此之前,包括三星、亞馬遜、德意志銀行等大型企業都對員工使用人工智能設置了一定的“護欄”,以確保不會對公司運營造成風險。
根據社交網站Fishbowl對12000名受訪者的調查,截至今年1月,約43%的專業人士在工作中使用了ChatGPT或其他人工智能工具,而且通常都沒有告訴他們的老板。
谷歌告訴媒體,它已經與愛爾蘭數據保護委員會進行了詳細的對話,并正在解決監管機構的問題。谷歌在6月1日更新的隱私聲明也指出:“不要在與Bard的對話中包含機密或敏感信息。”
一些公司已經開發了軟件來解決這些問題。例如,保護網站免受網絡攻擊并提供云服務的Cloudflare正在推廣一種功能,可以讓企業對某些數據進行標記,并限制其向外部流動。
谷歌和微軟也在向企業客戶提供對話工具,這些工具的價格更高,但不會將數據吸收到公共人工智能模型中。Bard和ChatGPT的默認設置是保存用戶的歷史對話記錄,用戶也可以選擇刪除。
微軟消費者業務首席營銷官Yusuf Mehdi曾表示,公司不希望員工使用公共聊天機器人工作是“有道理的”。
Cloudflare首席執行官Matthew Prince指出,在聊天機器人中輸入機密信息,就像“讓一群博士生隨意查看你所有的私人記錄”。
【來源:財聯社】