本文概要:
1. 研究發現,當使用與飲食失調相關的詞匯作為提示時,AI 模型會生成問題內容。
2. 谷歌的 Bard 等 AI 系統在41% 的測試提示中生成了 “有害的飲食失調內容”。
3. AI 圖像生成器也會產生美化不切實際身材標準的圖像,可能加劇飲食失調問題。
(ChinaZ.com) 8月15日 消息:倫敦的數字安全組織 “Center for Countering Digital Hate”(CCDH)的研究發現,當使用與飲食障礙相關的詞匯作為提示時,當前流行的生成式 AI 模型會產生問題內容。
這些 AI 系統不僅不會拒絕回答這些問題,還會按照要求提供不健康和有害的建議。CCDH 測試的六個 AI 系統中,有41% 的測試提示引發了 “有害飲食失調內容”。例如,谷歌的 Bard 回答了一個有關極端減肥方法 “咀嚼并吐出” 的步驟指南的提示。當然,CCDH 還發現,人工智能文本生成器提供的94% 的內容都包含警告,其輸出可能存在危險,并建議尋求專業醫療幫助。
此外,CCDH 還測試了 AI 圖像生成器,結果發現32% 的圖像包含美化不切實際身材標準的 “有害內容”。
研究人員還指出,在一些涉及飲食失調討論的在線社區中,AI 生成的鼓勵和加劇飲食失調的內容得到了一定的認可。
CCDH 呼吁對 AI 工具進行更好的監管和規范,以確保其安全性。AI 公司表示,他們致力于使產品更安全,并與健康專家合作改進系統的響應和建議。不過,該研究的結果表明,AI 模型在涉及飲食失調問題上仍存在潛在的危險。