【ITBEAR科技資訊】6月16日消息,據(jù)報道,谷歌母公司Alphabet正全球范圍內推廣其聊天機器人軟件,與此同時,該公司也在內部提醒員工在使用Bard等聊天機器人時需謹慎行事。
知情人士透露,基于長期以來的信息保密政策,Alphabet建議員工不要在聊天機器人中輸入機密信息。Bard和ChatGPT等聊天機器人可以以人類類似的風格與用戶對話,憑借生成式人工智能技術,它們能根據(jù)用戶的提示作出回復。然而,在聊天機器人使用過程中,人工審核員可能會查閱聊天記錄。研究人員還發(fā)現(xiàn),人工智能模型能夠復制其在訓練過程中接觸到的數(shù)據(jù),從而引發(fā)數(shù)據(jù)泄露的風險。
據(jù)ITBEAR科技資訊了解,一些知情人士稱,Alphabet已提醒工程師們避免直接使用聊天機器人生成軟件代碼。Alphabet對此回應稱,Bard可能會提供不合適的代碼建議,但仍然能夠為程序員們提供幫助。此外,該公司致力于保持對技術局限性的透明態(tài)度。
這一消息表明,盡管谷歌推出了與ChatGPT競爭的自家軟件,但谷歌也在竭力避免該軟件對其業(yè)務造成損害。谷歌目前正與ChatGPT的開發(fā)者OpenAI和微軟展開競爭,這些新的人工智能軟件將對廣告和云計算行業(yè)帶來深遠影響。
此外,該消息還顯示,在面對生成式人工智能技術時,企業(yè)正在制定新的信息安全標準,包括要求員工不使用公開的聊天機器人軟件。
一些公司,如三星、亞馬遜和德意志銀行等,已表示已針對人工智能聊天機器人設立了"護欄"。有消息稱,蘋果也采取了類似措施。
據(jù)社交網(wǎng)站FishBowl對近1.2萬名受訪者進行的一項調查顯示,截至今年1月,大約43%的專業(yè)人士正在使用ChatGPT或其他人工智能工具,通常不會告知他們的老板。受訪者中包括部分美國大公司的員工。
谷歌曾在今年2月要求測試Bard聊天機器人的員工,在Bard發(fā)布之前不要將內部信息輸入其中。目前,谷歌正在全球180多個國家推出40多個語言版本的Bard,用于輔助用戶的創(chuàng)意工作。然而,谷歌對內部員工的警示已擴展至Bard提供的代碼建議。
谷歌表示,該公司已與愛爾蘭數(shù)據(jù)保護委員會進行具體對話,正回答監(jiān)管機構的問題。據(jù)本周二的報道稱,谷歌將推遲在歐盟推出Bard的計劃,以等待有關聊天機器人隱私問題的更多信息。
生成式人工智能技術可以用于起草電子郵件、文檔甚至開發(fā)軟件本身,極大地提升任務執(zhí)行速度。然而,人工智能生成的內容中可能包含錯誤信息、敏感數(shù)據(jù)以及《哈利波特》等受版權保護的段落。
在6月1日更新的隱私聲明中,谷歌寫道:"在與Bard的對話中請不要包含機密或敏感信息"。
一些公司已開發(fā)軟件以解決相關擔憂。例如,信息安全公司Cloudflare正在推廣一項新服務,幫助企業(yè)標記和限制數(shù)據(jù)的外流。
谷歌和微軟也同時向商業(yè)客戶提供非公開的人工智能對話工具。這些工具價格更高,但不會將數(shù)據(jù)吸收到公開的人工智能模型中。Bard和ChatGPT的默認設置會保存用戶的對話歷史,用戶可以選擇刪除。
微軟消費者業(yè)務首席營銷官優(yōu)素福·邁赫迪(Yusuf Mehdi)表示,公司不希望員工在工作時使用公開的聊天機器人,這是"有道理的"。他解釋了微軟免費的必應聊天機器人與企業(yè)版軟件的區(qū)別,并表示:"公司采取適當?shù)谋J亓觯?企業(yè)軟件)的政策要嚴格得多"。
微軟拒絕回應是否會全面禁止員工將機密信息輸入公開的人工智能軟件,包括微軟自己的軟件。不過,微軟的另一名高管表示他個人會限制對公開聊天機器人的使用。
Cloudflare首席執(zhí)行官馬修·普林斯(Matthew Prince)表示,在聊天機器人上輸入機密信息就像"讓一群博士生獲得你的所有私人記錄"。