5月22日消息,最近,一個(gè)名為DragGAN的AI 圖片編輯工具爆火,它實(shí)現(xiàn)了點(diǎn)擊鼠標(biāo)、拖動(dòng)關(guān)鍵點(diǎn)就能達(dá)到Photoshop的效果。對(duì)比之下,使用Photoshop等工具時(shí)候,需要具備相對(duì)專業(yè)的技能才能靈活,精確地控制單個(gè)對(duì)象的位置,形狀,表達(dá)或排列。
簡(jiǎn)單的說(shuō),DragGAN使用戶能夠在圖像上確定一個(gè)點(diǎn),就能改變圖片結(jié)構(gòu)和整個(gè)像素。它與其他流行的生成AI圖像工具(如Dall-E和Midjourney)有很大的區(qū)別,后者雖然能夠通過(guò)文本提示生成特定的圖片,但無(wú)法精確輸出所需的姿勢(shì)或布局。
據(jù)了解,DragGAN新模型由MIT、谷歌、馬普所等機(jī)構(gòu)聯(lián)手打造,該項(xiàng)目相關(guān)論文已入選SIGGRAPH2023,研究人員展示了一種控制GAN進(jìn)行圖像處理的新方法。
簡(jiǎn)單拖拽就能實(shí)現(xiàn)圖片編輯
只要處理的圖片與GAN訓(xùn)練數(shù)據(jù)集的類別匹配,DragGAN就可以處理逼真的圖像。這些類別包括動(dòng)物、汽車、人、細(xì)胞和景觀。
論文示例展示了在一個(gè)簡(jiǎn)單的界面中,用戶可以將他們?cè)趫D像中定義的點(diǎn)拖動(dòng)到所需的位置,就是實(shí)現(xiàn)圖片編輯。例如,讓貓咪閉上眼睛,讓獅子轉(zhuǎn)頭并張開(kāi)它的嘴,或?qū)⑵囖D(zhuǎn)換為另一種模型。
DragGAN 還提供了遮罩功能,允許用戶突出顯示他們希望更改的圖像的特定部分,而其余部分保持不變。
該團(tuán)隊(duì)表示:“通過(guò)DragGAN,任何人都可以通過(guò)精確控制像素的位置來(lái)變形圖像,從而操縱不同類別的姿勢(shì)、形狀、表情和布局。”
DragGAN 研究論文還強(qiáng)調(diào)了該工具的最大優(yōu)勢(shì),界面的簡(jiǎn)單性和直觀性。在幾秒鐘內(nèi),用戶可以掌握功能,而無(wú)需弄清楚底層技術(shù)。
未來(lái),如果將DragGAN 與AI圖像生成工具搭配使用,用戶將能夠?qū)崿F(xiàn)更接近他們心目中的圖像的輸出。
來(lái)源:站長(zhǎng)之家