自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景

發(fā)布于 2024-5-30 10:36
瀏覽
0收藏

高質(zhì)量圖像編輯的方法有很多,但都很難準(zhǔn)確表達(dá)出真實(shí)的物理世界。


那么,Edit the World試試。

用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景-AI.x社區(qū)

來(lái)自北京大學(xué)、Tiamat AI、天工AI、Mila實(shí)驗(yàn)室提出了EditWorld,他們引入了一種新的編輯任務(wù),即世界指令(world-instructed)圖像編輯,它定義和分類(lèi)基于各種世界場(chǎng)景的指令。

用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景-AI.x社區(qū)

在一組預(yù)訓(xùn)練模型,比如GPT-3.5、Video-LLava 和 SDXL的支持下,建立了一個(gè)帶有世界指令的多模態(tài)數(shù)據(jù)集。


在該數(shù)據(jù)集訓(xùn)練了一個(gè)基于擴(kuò)散的圖像編輯模型EditWorld,結(jié)果在其新任務(wù)的表現(xiàn)明顯優(yōu)于現(xiàn)有的編輯方法,實(shí)現(xiàn)SOTA。

圖像編輯新SOTA

現(xiàn)有的方法通過(guò)多種途徑實(shí)現(xiàn)高質(zhì)量的圖像編輯,包括但不限于文本控制、拖動(dòng)操作以及inpainting。其中,利用instruction進(jìn)行編輯的方法由于使用方便受到廣泛的關(guān)注。


盡管現(xiàn)有的圖片編輯方法能夠產(chǎn)生高質(zhì)量的結(jié)果,但它們?cè)谔幚韨鬟_(dá)物理世界中真實(shí)視覺(jué)動(dòng)態(tài)的世界動(dòng)態(tài)方面仍然存在困難。


如圖1所示,無(wú)論是InstructPix2pix還是MagicBrush都無(wú)法生成合理的編輯結(jié)果。

用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景-AI.x社區(qū)

為了解決這一問(wèn)題,團(tuán)隊(duì)引入了一項(xiàng)新的任務(wù),稱(chēng)為world-instructed image editing,使圖像編輯能夠反映真實(shí)物理世界和虛擬媒體中的“世界動(dòng)態(tài)”。


具體來(lái)說(shuō),他們定義并分類(lèi)了各種世界動(dòng)態(tài)指令,并基于這些指令創(chuàng)建了一個(gè)新的多模態(tài)訓(xùn)練數(shù)據(jù)集,該數(shù)據(jù)集包含大量的輸入-指令-輸出三元組。


最后,團(tuán)隊(duì)使用精心制作的數(shù)據(jù)集訓(xùn)練了一個(gè)文本引導(dǎo)的擴(kuò)散模型,并提出了一種零樣本圖像操作策略,以實(shí)現(xiàn)world-instructed image editing。


根據(jù)現(xiàn)實(shí)世界以及虛擬媒體中的任務(wù)場(chǎng)景,將world-instructed image editing分為7種認(rèn)為類(lèi)別,并對(duì)每一種類(lèi)別進(jìn)行了定義與介紹,同時(shí)提供了一個(gè)數(shù)據(jù)樣例。

用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景-AI.x社區(qū)

隨后團(tuán)隊(duì)設(shè)計(jì)了文本到圖片生成以及視頻分鏡提取兩個(gè)分支來(lái)獲取數(shù)據(jù)集。


文本生成圖片分支是為了豐富數(shù)據(jù)場(chǎng)景的豐富性,在該分支下,團(tuán)隊(duì)首先利用GPT生成文本四元組(包括input圖片描述、instruction、output圖片描述以及關(guān)鍵詞),接著利用input以及output描述生成對(duì)應(yīng)文本的圖片,利用關(guān)鍵詞對(duì)應(yīng)的attention map對(duì)編輯位置進(jìn)行定位獲取編輯mask,與此同時(shí)為了保證前后兩張圖關(guān)鍵特征的一致性,團(tuán)隊(duì)引入了image prompt adaption的方法IP-Adapter,最后團(tuán)隊(duì)使用IP-Adapter以及ControlNet,結(jié)合output image的canny map以及input image的image prompt feature,利用Image Inpainting對(duì)output image進(jìn)行調(diào)整,從而獲得比較有效的編輯數(shù)據(jù)。

用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景-AI.x社區(qū)

利用文本生成圖片分支得到場(chǎng)景豐富的數(shù)據(jù)后,為了能向數(shù)據(jù)集中添加真實(shí)數(shù)據(jù),團(tuán)隊(duì)從視頻中提取高質(zhì)量的關(guān)鍵幀作為編輯數(shù)據(jù)。具體來(lái)說(shuō),團(tuán)隊(duì)從視頻分鏡中提取相關(guān)性強(qiáng)且結(jié)構(gòu)差異大兩幀作為起始與末尾幀,并切分出一段新的分鏡,利用多模態(tài)大模型對(duì)這段分鏡的變化進(jìn)行描述,最后團(tuán)隊(duì)以起始與末尾幀作為input image以及output image,以得到的描述作為instruction,這樣就獲得了需要的編輯數(shù)據(jù)。


再進(jìn)一步,團(tuán)隊(duì)利用人工對(duì)生成數(shù)據(jù)進(jìn)行recheck,從而進(jìn)一步提升數(shù)據(jù)質(zhì)量。


團(tuán)隊(duì)利用數(shù)據(jù)集對(duì)InstructPix2Pix模型進(jìn)行finetune,同時(shí)為了保護(hù)非編輯區(qū)域?qū)崿F(xiàn)更為精確的編輯,團(tuán)隊(duì)提出了post-edit策略。

用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景-AI.x社區(qū)

用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景-AI.x社區(qū)

最終可以看到,團(tuán)隊(duì)的方法可以很好地實(shí)現(xiàn)world-instructed image editing。


論文鏈接:
???https://arxiv.org/abs/2405.14785???
代碼鏈接:
???https://github.com/YangLing0818/EditWorld??


本文轉(zhuǎn)自 量子位 ,作者:量子位


原文鏈接:??https://mp.weixin.qq.com/s/tFx-o7m4GgN0tiGDuSkddA??

收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦