6 月 20 日消息,人工智能(AI)的發展日新月異,但也帶來了一些隱患。最近,一組英國和加拿大的科學家發現,如果 AI 只學習其他 AI 生成的內容,那么經過幾代訓練后,AI 將輸出無意義的垃圾信息,導致網絡內容質量下降。
這些科學家在 5 月份發表了一篇論文,試圖探究當 AI 互相訓練時會發生什么。他們發現,在這種情況下,AI 輸出的內容會逐漸變得荒謬可笑。例如,一篇關于中世紀建筑的文章,在經過九代 AI 訓練后,變成了一篇關于各種顏色兔子的胡言亂語內容。
這種現象被稱為“模型崩潰”。目前,大多數 AI 語言模型(如 ChatGPT 和 OpenAI)都是基于從互聯網上獲取的大量數據進行訓練的,而這些數據大部分是由人類生成的。但是,隨著 AI 生成內容的增加,未來的 AI 訓練將不可避免地受到這些內容的影響。這意味著錯誤和無意義的信息會不斷累積,后來的 AI 無法區分事實和虛構內容,開始誤信自己的錯誤觀念。
劍橋大學的羅斯?安德森教授是論文的作者之一,他在博客中將這種現象比作污染,寫道:“就像我們用塑料垃圾污染了海洋,用二氧化碳污染了大氣層,我們也即將用胡言亂語污染互聯網。”
事實上,AI 生成內容已經在網絡上廣泛傳播。IT之家注意到,今年 5 月,一個名為 NewsGuard 的網絡虛假信息監測機構警告說,他們發現了 49 個完全由 AI 編寫的新聞網站。此外,市場營銷和公關機構也越來越多地將他們的文案交給聊天機器人來完成,導致人類作家失去工作機會。
【來源:IT之家】