突破視頻多模態(tài)大模型瓶頸!「合成數(shù)據(jù)」立大功,項(xiàng)目已開源
本文作者來自字節(jié)跳動(dòng),南洋理工大學(xué) S-Lab 和北京郵電大學(xué)。其中第一作者為南洋理工大學(xué) S-Lab 的博士生 Yuanhan Zhang (https://zhangyuanhan-ai.github.io/),主要研究領(lǐng)域?yàn)閷⒒A(chǔ)模型適配于開放世界。本文的指導(dǎo)老師為 Ziwei Liu 教授 ((https://liuziwei7.github.io/) 和 Chunyuan Li 博士 (https://chunyuan.li/), 其中 Chunyuan Li 領(lǐng)導(dǎo)了這個(gè)項(xiàng)目。本文其他作者包括北京郵電大學(xué) Jinming Wu,南洋理工大學(xué) S-Lab 的博士生 Bo Li, 字節(jié)跳動(dòng)研究員 Wei Li, Zejun Ma.
視頻多模態(tài)大模型(LMMs)的發(fā)展受限于從網(wǎng)絡(luò)獲取大量高質(zhì)量視頻數(shù)據(jù)。為解決這一問題,我們提出了一種替代方法,創(chuàng)建一個(gè)專為視頻指令跟隨任務(wù)設(shè)計(jì)的高質(zhì)量合成數(shù)據(jù)集,名為 LLaVA-Video-178K。
該數(shù)據(jù)集包含詳細(xì)的視頻的描述、開放式問答(QA)、和多項(xiàng)選擇題。通過在該數(shù)據(jù)集和現(xiàn)有的視覺指令微調(diào)數(shù)據(jù)上訓(xùn)練模型,我們推出了新的視頻 LMM——LLaVA-Video。實(shí)驗(yàn)表明,LLaVA-Video 在多個(gè)視頻基準(zhǔn)上表現(xiàn)出色,展示了該數(shù)據(jù)集的有效性。
- 論文標(biāo)題:VIDEO INSTRUCTION TUNING WITH SYNTHETIC DATA
- 論文鏈接:https://arxiv.org/pdf/2410.02713
- 項(xiàng)目主頁:https://llava-vl.github.io/blog/2024-09-30-llava-video/
先來看一組交互性演示,了解 LLaVA-Video 在真實(shí)世界中與人交互:
1.LLaVA-Video 教我下載 "TikTok":
2.LLaVA-Video 描述我的客廳,并指導(dǎo)我找健康飲料:
視頻指令跟隨數(shù)據(jù)合成
一個(gè)高質(zhì)量的視頻指令跟隨數(shù)據(jù)集對(duì)于開發(fā)有效的視頻語言模型至關(guān)重要。我們確定了構(gòu)建此類數(shù)據(jù)集的關(guān)鍵因素:確保視頻內(nèi)容和語言注釋的豐富性和多樣性。我們對(duì)現(xiàn)有的視頻基準(zhǔn)進(jìn)行了全面調(diào)查,涵蓋了各種公共視頻描述和問答數(shù)據(jù)集,然后確定了十個(gè)獨(dú)特的視頻來源,這些來源為超過 40 個(gè)視頻語言基準(zhǔn)提供了數(shù)據(jù)。從每個(gè)來源中,我們選擇具有顯著時(shí)間動(dòng)態(tài)的視頻。為了保持注釋的多樣性,我們建立了一條能夠生成任何長(zhǎng)度視頻的詳細(xì)描述的流水線。此外,我們定義了 16 種問題類型,指導(dǎo) GPT-4o 生成問答對(duì),以訓(xùn)練視頻語言模型的感知和推理能力。
視頻來源
我們注意到,盡管不同的視頻語言數(shù)據(jù)集側(cè)重于各種視頻理解任務(wù),但大多數(shù)都來源于十個(gè)主要視頻來源,這些來源提供了廣泛的來自不同網(wǎng)站、拍攝視角和題材的視頻。下圖展示了這十個(gè)我們選擇的視頻數(shù)據(jù)集與其他現(xiàn)有視頻語言數(shù)據(jù)集之間的關(guān)系。進(jìn)一步,我們從這些來源中選擇了動(dòng)態(tài)視頻,詳細(xì)的選擇邏輯在論文中描述。
我們使用的 10 個(gè)視頻來源與其他現(xiàn)有視頻語言數(shù)據(jù)集的關(guān)系。
自動(dòng)生成視頻詳細(xì)描述
對(duì)于選定的視頻,我們使用 GPT-4o 系統(tǒng)地描述其內(nèi)容。我們從每秒一幀的頻率開始采樣視頻。然而,由于 GPT-4o 的輸入大小限制,我們無法一次性使用視頻中所有采樣的幀。因此,我們按順序描述視頻,如下圖所示。我們?cè)谌齻€(gè)不同級(jí)別上創(chuàng)建描述,詳細(xì)如下,簡(jiǎn)單來說,第一個(gè)層級(jí)(leve-1)指的是針對(duì) 10s 區(qū)間的視頻描述,第二個(gè)層級(jí)(level-2)指的是針對(duì) 30s 區(qū)間的視頻描述,第三個(gè)層級(jí)(level-3)指的是針對(duì)整個(gè)視頻的描述。
視頻描述的生成流程:通過遞歸方法對(duì)三個(gè)不同的視頻描述層級(jí)(leve-1,level-2,level-3)進(jìn)行描述。`t` 是時(shí)間區(qū)間在其自身層級(jí)的索引,`T` 是最后一個(gè)時(shí)間區(qū)間的索引。(a) 我們根據(jù) level-1 的 `t` 內(nèi)收集的幀、level-1 的 `t-1` 的描述,以及最近的一次 level-2 描述(如果有的話),來生成 level-1 時(shí)間區(qū)間 `t` 的視頻描述。(b) 我們使用 level-2 的 `t-1` 的描述,以及最近的三個(gè) level-1 描述,生成 level-2 的時(shí)間區(qū)間 `t` 的描述, (c) 我們基于最近一次 level-2 的描述和最近的一次 level-1 的描述,生成 level-3 的 `T` 的描述。
自動(dòng)生成視頻問答
除了詳細(xì)的視頻描述,我們的數(shù)據(jù)集中還包含設(shè)計(jì)用于復(fù)雜交互的各種問答對(duì)。這種設(shè)置提高了視頻理解模型處理現(xiàn)實(shí)問題的能力。我們參考公共視頻問答基準(zhǔn),將這些問題組織為 16 種特定類別,如圖 3 所示。給定詳細(xì)的視頻描述,我們使用 GPT-4o 為每種問題類型最多生成一個(gè)問答對(duì)。有關(guān)問題類型和生成過程的更多細(xì)節(jié),請(qǐng)參閱論文。
數(shù)據(jù)創(chuàng)建中用于生成視頻問答對(duì)的問題類型。對(duì)于每種類型,我們提供其名稱和示例問題。
數(shù)據(jù)集統(tǒng)計(jì)
我們從收集到的數(shù)據(jù)源中精心挑選,以形成一個(gè)平衡且全面的集合,最終得到總共 178K 個(gè)視頻和 1.3M 個(gè)指令跟隨樣本。這包括 178K 個(gè)視頻描述、960K 個(gè)開放式問答和 196K 個(gè)多項(xiàng)選擇問答。
不同數(shù)據(jù)集和問題類型(描述、開放式 Q&A、多項(xiàng)選擇 Q&A)中的數(shù)據(jù)分布。
一個(gè)用于說明 LLaVA-Video-178K 中視頻指令跟隨數(shù)據(jù)的示例。
數(shù)據(jù)集比較
LLaVA-Video-178K 和其他視頻語言數(shù)據(jù)集的比較。平均 FPS 代表用于提示 GPT-4o/GPT-4V 進(jìn)行注釋的每秒幀數(shù)。★:VIDAL, WebVid, ActivityNet。?:Panda-70M, Pexels, Pixabay, Mixkit, BDD100K, Ego4d。?:HD-VILA-100M, Kinetics-700M, Ego4D, VidOR, InternVid, YouCook2, ActivityNet, Sth-sthv2, VIDAL, Charades。
我們提供了和其他高質(zhì)量指令跟隨視頻語言數(shù)據(jù)集的比較,LLaVA-Video-178K 展現(xiàn)了如下優(yōu)勢(shì)
1. 廣泛的動(dòng)態(tài)視頻集合:在視頻來源方面,雖然 LLaVA-Hound 包含最多的視頻,但其 44% 的視頻數(shù)據(jù)來自 [WebVid](https://ak.picdn.net/shutterstock/videos/21179416/preview/stock-footage-aerial-shot-winter-forest.mp4),其中大多數(shù)視頻是靜態(tài)的。ShareGPT4Video 的 30% 視頻來自 [Pexels](https://www.pexels.com/video/a-bird-is-standing-on-the-beach-27916646/)、[Pixabay](https://pixabay.com/videos/plane-modelling-miniature-lockheed-134519/) 和 [Mixkit](https://mixkit.co/free-stock-video/a-young-woman-clad-in-snugly-black-sportswear-doing-lunges-52112/)。這些視頻美學(xué)效果很好,但是同時(shí)存在視頻本身較為靜態(tài)的弊病。此外,其大部分視頻來自 Panda-70M,這些是從較長(zhǎng)視頻中剪輯的短片,其情節(jié)較為簡(jiǎn)單。相比之下,我們精心選擇了動(dòng)態(tài),情節(jié)復(fù)雜的視頻,這對(duì)于開發(fā)強(qiáng)大的視頻理解模型至關(guān)重要。
2. 高幀率:關(guān)于采樣的幀的頻率,LLaVA-Video-178K 考慮了 1 FPS,而其他數(shù)據(jù)集考慮的 FPS 較低。LLaVA-Hound 從任意長(zhǎng)度的視頻中均勻采樣 10 幀。平均 FPS 為 0.008,這樣會(huì)錯(cuò)過一些細(xì)節(jié)。ShareGPT4Video 使用 CLIP 基于幀的獨(dú)特性選擇關(guān)鍵幀。此方法可能也會(huì)錯(cuò)過視頻中的細(xì)微變化,因?yàn)?CLIP 的特征無法很好地捕捉細(xì)粒度動(dòng)態(tài)。我們的方法以 FPS=1 進(jìn)行采樣,不使用關(guān)鍵幀選擇算法,確保詳細(xì)的時(shí)間信息能夠在注釋中得到高覆蓋率的表達(dá)。
3. 多樣化的任務(wù):所提出的數(shù)據(jù)集考慮了三種常見的任務(wù)類型,包括描述、自由形式和封閉形式問答,而現(xiàn)有的數(shù)據(jù)集僅考慮了其中的一部分。同時(shí),我們數(shù)據(jù)集的樣本質(zhì)量和數(shù)量更高。
該數(shù)據(jù)集聚焦動(dòng)態(tài)視頻, 高幀率, 和多樣化的任務(wù), 讓視頻多模態(tài)大模型洞察每一瞬精彩。
視頻表示
基于經(jīng)典的 SlowFast 視頻表示方法,我們開發(fā)了 LLaVA-Video_SlowFast,以在視頻表示中,平衡幀數(shù)和視覺 token 的數(shù)量,同時(shí)考慮 LLM 的上下文窗口限制和 GPU 內(nèi)存的限制。
具體來說,我們根據(jù)擊中率 s 將幀分為兩組,每隔 s 幀均勻選出形成 * 慢 * 幀組,剩下的幀被認(rèn)為是 * 快 * 幀組。需要注意的是,當(dāng) s=1 時(shí),只有一組幀,這種情況下 SlowFast 表示就簡(jiǎn)化為原始的簡(jiǎn)單表示。對(duì)于每組幀,我們使用 PyTorch 函數(shù) avg_pool2d}() 應(yīng)用不同的池化率。我們對(duì)慢幀使用 pXp 池化,對(duì)快幀使用 2pX2p 池化。
基準(zhǔn)性能
LLaVA-Video 的表現(xiàn)。對(duì)于 VideoDC 和 VideoChatGPT 的,我們使用 5 分制度打分,其他評(píng)測(cè)集結(jié)果以準(zhǔn)確率打分。所有結(jié)果均為 0-shot 準(zhǔn)確率。* 表示該評(píng)測(cè)集的訓(xùn)練集已在我們的訓(xùn)練集中使用。
我們?cè)谝曨l和圖像數(shù)據(jù)的聯(lián)合數(shù)據(jù)集上微調(diào)了 LLaVA-OneVision (SI)。具體而言,我們添加了來自 LLaVA-Video-178K 數(shù)據(jù)集和四個(gè)公共數(shù)據(jù)集的視頻數(shù)據(jù):ActivityNet-QA、NExT-QA、PerceptionTest 和 LLaVA-Hound-255K,此外,我們還使用了來自 LLaVA-OneVision 模型的 110 萬個(gè)圖像語言對(duì)。如表格所示,LLaVA-Video 展現(xiàn)了出色的性能。
結(jié)論
本研究介紹了高質(zhì)量的專為視頻語言指令任務(wù)設(shè)計(jì)的 LLaVA-Video-178K 數(shù)據(jù)集。它的特點(diǎn)是在較長(zhǎng)的未修剪視頻中進(jìn)行密集的幀采樣,覆蓋了包括字幕制作、開放式和多項(xiàng)選擇問答等多種任務(wù)。通過將 LLaVA-Video-178K 數(shù)據(jù)集與現(xiàn)有的視覺指令數(shù)據(jù)結(jié)合起來,我們開發(fā)了一系列新的模型,LLaVA-Video。這些模型改進(jìn)了視頻表現(xiàn),更有效地利用了 GPU 資源,使我們能夠在訓(xùn)練過程中處理更多幀。實(shí)驗(yàn)結(jié)果證明了所提出的合成數(shù)據(jù)集的有效性,LLaVA-Video 模型在各種視頻基準(zhǔn)測(cè)試中都表現(xiàn)出色。