【ITBEAR科技資訊】10月18日消息,微軟旗下的研究團隊最近發表了一份關于大型語言模型(LLM)的研究論文,重點關注了OpenAI的GPT-4以及其前身GPT-3.5的“可信度”和潛在的問題。
研究團隊指出,盡管在標準基準測試中,GPT-4相較于GPT-3.5表現更加可靠,但它容易受到“越獄”提示的影響,這可能導致生成有害內容。這些“越獄”提示可以繞過模型的安全措施,誘使GPT-4生成不良內容。
據ITBEAR科技資訊了解,論文中強調了GPT-4更容易受到惡意“越獄”系統或用戶提示的影響,使其準確地遵循(誤導性)指令,生成有害內容。盡管如此,微軟強調這個潛在的漏洞不會對當前面向客戶的服務產生負面影響。
這一研究進一步突出了大型語言模型的潛在問題,尤其是與安全性和內容生成的關聯。微軟的研究團隊將繼續努力改進模型的安全性,以確保用戶能夠更加安全地使用這些強大的語言模型。