圖1:教皇穿著巴黎世家羽絨服的AI圖片
北京時間4月12日消息,人工智能(AI)圖像生成器的技術正在迅速發(fā)展,它不但能夠蒙蔽人類,就連專門用于查圖的AI工具也未必能分辨真假。
今年1月時,OpenAI的AI文字圖片生成模型DALL-E等系統(tǒng)還不夠先進,只能渲染出一個手指向后傾斜或多余眉毛在漂浮的人類。但是到了3月,一些圖片已經(jīng)逼真到足以欺騙很多人。
圖2:圖中有6個破綻
上圖是一張由微軟必應圖像生成器生成的圖片,里面有6個破綻,相對容易分別。如果不看標記,你能找出這6個圖片漏洞嗎?1.她的手指極長且扁平。 2.她的嘴巴似乎少了幾顆牙齒,陷進了她的臉。3. 她的手進入了桌子里。 4. 他的手指又長又扁。 5.她的襯衫下垂不自然。6.桌子上的物品混合在一起。
但是,有些AI生成的圖片已經(jīng)達到了以假亂真的地步了。例如,特朗普被捕的圖片,教皇方濟各穿上巴黎世家白色羽絨服的照片,法國總統(tǒng)馬克龍穿過抗議人群的照片。如果不是有人提醒,你可能很難看出這是假圖片。這就是為什么埃隆·馬斯克(Elon Musk)等科技領袖呼吁暫停AI開發(fā)等原因。雖然AI生成的內(nèi)容可能很有趣,但它會給行業(yè)和日?;訋盹L險。它可以被用來傳播錯誤信息、侵犯知識產(chǎn)權或使人們的照片性感化。
圖3:Optic圖片工具都被AI欺騙了
一些開發(fā)人員正在開發(fā)工具,通過分析圖像以尋找人工智能做圖跡象的工具。但問題是,除非這些工具與它們所監(jiān)視的圖像生成器保持同步,否則即使是它們也可能被愚弄。例如,AI信任和安全公司Optic的工具就被欺騙了,它認為有87%的可信度相信教皇穿著巴黎世家羽絨服的圖片是人類拍攝的。
【來源:鳳凰網(wǎng)科技】