【ITBEAR科技資訊】06月01日消息,OpenAI公司近日通過一篇論文介紹了一種全新的方法,用于訓練生成式人工智能語言模型。
最近,生成式人工智能技術的流行以及美國2024年總統大選初步啟動,引發了對人工智能“胡說八道”問題的廣泛關注和討論。
OpenAI在去年推出的人工智能對話撰稿工具ChatGPT,基于GPT3和GPT4語言模型,取得了卓越的成績。ChatGPT的出色表現在全球掀起了一股生成式人工智能的熱潮,僅兩個月時間,相關服務的月活躍用戶數就突破了一億人,創造了新的世界紀錄。
OpenAI的大股東之一是微軟,微軟已經累計向該公司投資了130億美元,OpenAI目前的市值約為290億美元。
人工智能的“胡說八道”,也被稱為“AI幻覺”。在回答用戶提問時,ChatGPT和谷歌的Bard等工具有時會編造虛假信息,給人一種權威正確的答案。
例如,今年2月,谷歌的Bard在一個演示視頻中,對美國韋伯太空望遠鏡的描述就存在錯誤。此外,最近有幾位紐約的律師在使用ChatGPT撰寫法律文件時,ChatGPT描述了完全虛構的案例,這些律師可能將面臨處罰。
OpenAI的研究人員表示,即使是最先進的人工智能模型,在拿不準的情況下也可能編造虛假信息,尤其是在要求多步驟推理的領域。一個單一的邏輯錯誤可能導致整個解決方案失敗。
為了解決人工智能編造虛假信息的問題,OpenAI準備采用一種名為“過程監督”的新戰略。在過去,模型只有在提供正確的最終答案時才會得到鼓勵,而現在,每個邏輯推理環節的正確表現都將獲得鼓勵反饋。這種方式將鼓勵生成式人工智能像人類一樣進行推理思考,使回答更加清晰合理。
OpenAI的研究人員已經發布了一個數據集,其中包括80萬條人工標注數據,可用于用上述新方式訓練語言模型。
然而,一些人對這種新的訓練模式表示質疑。他們希望能親自查看OpenAI的完整數據集和相關示例。他們認為,生成式人工智能目前仍處于發展初期,OpenAI的新模式尚不能實質性緩解AI編造虛假答案的問題。
OpenAI表示,他們計劃將論文提交給學術會議進行同行評議。至于何時將研究成果和“過程監督”整合到ChatGPT等最終產品中,OpenAI尚未發表官方評論。
雖然人工智能公司開始著手解決虛假答案的問題,但在實現“負責任的人工智能應用”方面仍面臨諸多挑戰。生成式人工智能已經開始改變普通人的工作和生活方式,但要解決這些技術挑戰,還需要進一步的努力。