【ITBEAR科技資訊】6月16日消息,在OpenAI研發的人工智能聊天機器人ChatGPT引起轟動之后,眾多公司紛紛開發類似的產品,并將ChatGPT等人工智能工具應用于他們的服務和工作中。
ChatGPT等人工智能工具不僅為相關服務或產品帶來全新功能,也為工作帶來便利。然而,泄密問題也成為他們不得不重視的挑戰。三星電子半導體業務部門的員工在使用ChatGPT時不慎導致部分源代碼泄露,隨后三星便禁止員工在工作場所使用ChatGPT等生成式人工智能聊天工具。
根據外媒報道,谷歌Bard作為ChatGPT的競品,也面臨著類似的泄密風險。消息人士透露,谷歌母公司Alphabet已告知員工不要將機密信息輸入人工智能聊天機器人,并警示員工關于使用包括Bard在內的人工智能工具的風險。
據ITBEAR科技資訊了解,除了不要將機密信息輸入人工智能聊天機器人外,Alphabet還建議工程師不要直接使用人工智能聊天機器人生成的代碼。據報道,谷歌似乎早在Bard人工智能聊天機器人進行內部測試時就對信息泄密表達了擔憂。在今年2月份,谷歌已告知參與測試的員工在正式發布之前不要輸入內部信息。
Bard作為谷歌全力推出的競品,對于谷歌多項業務的未來發展至關重要。目前,Bard正在全球超過180個國家以40種語言進行推廣。
隨著ChatGPT、谷歌Bard等人工智能工具的不斷增強,使用這些工具的人群也在迅速增長,許多公司員工在工作中使用這些工具。然而,這也增加了公司信息泄露的風險。據一項調查顯示,約43%的專業人士在使用ChatGPT或其他人工智能工具時通常不會告知他們的老板。
盡管人工智能聊天機器人為業務和工作帶來了便利和創新,但泄密問題仍然需要引起重視。公司和員工應當加強信息保護意識,并遵循相關指導,以確保敏感數據的安全性和保密性。