【ITBEAR】近日,美聯社披露了一則關于OpenAI的Whisper轉錄技術引發廣泛關注的報道。軟件工程師、開發人員及學術研究人員紛紛對該技術的準確性表示深切憂慮,指出其存在嚴重的“幻覺”問題。
據悉,盡管生成式人工智能的編造傾向一直備受討論,但Whisper在轉錄過程中竟也頻繁出現此類問題,令人詫異。研究人員發現,Whisper的轉錄結果中常常混入與原始音頻無關的內容,如種族評論和虛構的醫療治療等。
特別是在醫療環境中,Whisper的錯誤轉錄可能帶來嚴重后果。密歇根大學的研究人員在公開會議中發現,高達80%的音頻轉錄存在幻覺問題。另一名機器學習工程師在研究了超過100個小時的Whisper轉錄后,也發現了類似的問題。
一名開發人員報告稱,在使用Whisper創建的26,000份轉錄中,幾乎每一份都出現了幻覺。對此,OpenAI發言人表示,公司正致力于提高模型的準確性,并明確指出其使用政策禁止在高風險決策環境中使用Whisper。