【ITBEAR科技資訊】10月12日消息,根據彭博社的最新報道,谷歌和 Discord 最近聯合邀請了他們自家的 AI 聊天機器人 Bard 的熱情用戶,創建了一個專屬聊天室,用以探討Bard的效用和實際應用。在這個聊天室里,Bard的產品經理、設計師和工程師們就AI的效用和應用領域展開深入討論,然而,也出現了一些對Bard的質疑聲音。
兩位參與Bard社區的Discord用戶向彭博社透露了7月至10月期間在聊天室內的討論細節。Bard的高級產品經理Dominik Rabiej在討論中表示,他個人“不信任”大型語言模型生成的回答,建議人們僅在“創意”和“頭腦風暴”等領域使用Bard。Rabiej還認為將Bard用于編程也是一個不錯的選擇,因為人們在編寫代碼時需要不斷驗證其有效性。
此外,Rabiej特別強調了Bard新增的“仔細檢查回復”按鈕的重要性,該功能用橙色標注可能不正確的內容,再次強調Bard并不真正理解獲取的文本,只是根據用戶的提示生成回應?!罢堄涀?,Bard和其他大型模型一樣,它是生成性的,不是用于查找信息或總結,而是生成文本?!?/p>
在7月份的一次聊天中,這位產品經理明言,除非用戶自己能夠獨立驗證,否則不應全盤信任大型語言模型的輸出結果。他表示:“我們也希望Bard能夠達到您們的期望,但它目前還沒有達到。”
另一位產品經理Warkentin也在討論中強調了人性化改進的重要性,認為只有這樣,Bard才能成為適合所有人的產品。他指出:“否則,用戶將無法評估產品的功能,我認為這將是一個巨大的錯誤。”“我們需要的是面向大眾的產品,而不是象牙塔里的產品!”
今年7月,谷歌在擴大Bard AI工具的部署時,引入了“分享對話鏈接”的功能,用戶可以將與Bard的對話導出為網頁鏈接形式,與他人分享并繼續與Bard對話。然而,一名分析顧問Gagan Ghotra在發現了一個問題,谷歌錯誤地將部分用戶分享的鏈接添加到搜索結果中,導致敏感信息外泄。
Gagan Ghotra提醒用戶,在與Bard對話時不要分享任何“私密內容”,以免相關信息外泄。