·檢測工具AI or Not誤報以色列死嬰照片為AI生成。隨著人工智能工具可用于操縱或捏造全球事件的新聞報道,對此類檢測工具的需求只會越來越強。
當時時間10月17日,OpenAI首席執行官山姆·奧特曼和該公司首席技術官米拉·穆拉蒂在《華爾街日報》Tech Live會議上。
ChatGPT的開發機構OpenAI正在構建一個工具,可以對由其人工智能服務Dall·E 3創建的圖像進行高度精確的檢測。
當地時間10月17日,OpenAI首席技術官米拉·穆拉蒂(Mira Murati)在美國加利福尼亞州拉古納海灘舉行的《華爾街日報》Tech Live會議上透露了這一消息。她說,OpenAI的這個工具“99%可靠”,正在計劃公開發布前進行內部測試,但她沒有具體說明時間表。
OpenAI在今年1月發布了一個類似的工具,旨在確定文本是否是人工智能生成的,但該工具在7月被擱置,因為它并不可靠。該公司當時表示,正在努力改進軟件,并致力于開發方法來識別音頻或圖像是否也是由人工智能生成的。
OpenAI開發的Dall·E是目前最強大的人工智能生成圖像產品之一,與Midjourney和Stable Diffusion等軟件共同為互聯網提供了大量AI圖像。其中一些虛假圖片在社交網絡上泛濫,特別是在重大國際沖突發生后。
就在最近,一張關于以色列死嬰的照片再次引發爭議。10月12日,以色列總理本杰明·內塔尼亞胡的官方賬戶發布了一張被燒焦的尸體的圖片,稱該圖片顯示一名嬰兒在10月7日的襲擊中被極端組織哈馬斯殺害。在圖片發布后的幾個小時內,許多社交媒體賬號表示,基于名為“AI or Not”的人工智能檢測工具的結果,這張照片是由人工智能生成的。然而,幾位圖像分析專家以及AI or Not背后的公司表示,這些結果是檢測工具誤報,這張照片很可能是真實的。
AI or Not最終檢測結果顯示,這張以色列死嬰照片很可能是真實的。
在10月14日的一條推文中,AI or Not背后的公司表示,其軟件能夠誤報,意味著它可以錯誤地得出真實照片是由人工智能生成的結論,尤其是當相關圖像質量較低時。
專門從事圖像分析的調查機構Bellingcat早在2023年9月就測試了AI or Not。“在識別被壓縮的人工智能圖像(尤其是真實感圖像)時,AI or Not的錯誤率都很高,這大大降低了它對開源研究人員的實用性。”該團隊總結。
自ChatGPT發布以來,已經有多個工具聲稱可以檢測人工智能制作的圖像或其他內容,但它們往往都不能保證完全準確。隨著人工智能工具可用于操縱或捏造全球事件的新聞報道,對此類檢測工具的需求只會越來越強。
17日,穆拉蒂還對GPT-4的后續AI模型作出了暗示。盡管OpenAI尚未公開表示GPT-4的后續模型可能會被稱為什么,但該公司7月向美國專利商標局提交了“GPT-5”商標申請。當被問及GPT-5模型是否會不再散布謊言時,穆拉蒂說:“也許吧。”
【來源:澎湃新聞】