自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

李飛飛、謝賽寧等探索MLLM「視覺空間智能」,網(wǎng)友:2025有盼頭了

人工智能 新聞
為了在視覺空間領(lǐng)域推進這種智能,來自紐約大學(xué)、耶魯大學(xué)、斯坦福大學(xué)的研究者引入了 VSI-Bench,這是一個基于視頻的基準測試,涵蓋了近 290 個真實室內(nèi)場景視頻,包含超過 5000 個問答對。

在購買家具時,我們會嘗試回憶起我們的客廳,以想象一個心儀的櫥柜是否合適。雖然估計距離是困難的,但即使只是看過一次,人類也能在腦海里重建空間,回憶起房間里的物體、它們的位置和大小。

我們生活在一個感官豐富的 3D 世界中,視覺信號圍繞著我們,讓我們能夠感知、理解和與之互動。

這是因為人類擁有視覺空間智能(visual-spatial intelligence),能夠通過連續(xù)的視覺觀察記住空間。然而,在百萬級視頻數(shù)據(jù)集上訓(xùn)練的多模態(tài)大語言模型 (MLLM) 是否也能通過視頻在空間中思考,即空間思維(Thinking in Space)?

為了在視覺空間領(lǐng)域推進這種智能,來自紐約大學(xué)、耶魯大學(xué)、斯坦福大學(xué)的研究者引入了 VSI-Bench,這是一個基于視頻的基準測試,涵蓋了近 290 個真實室內(nèi)場景視頻,包含超過 5000 個問答對。

其中,視頻數(shù)據(jù)是通過捕捉連續(xù)的、時間性的輸入來完成的,不僅與我們觀察世界的方式相似,而且比靜態(tài)圖像更能豐富空間理解和推理。在 VSI-Bench 上評估開源和閉源模型顯示,盡管模型與人類之間存在較大的性能差距,盡管 MLLM 面臨視頻理解、文本理解和空間推理的挑戰(zhàn),但其仍展現(xiàn)出了新興的視覺空間智能。

為了對模型行為展開研究,本文受到雙重編碼理論的啟發(fā)(該理論認為語言處理和視覺處理既有區(qū)別又相互補充),他們提出了用于自我解釋(語言)和認知圖(視覺)的選擇模型(selected models)。

圖片

  • 論文地址:https://arxiv.org/pdf/2412.14171v1
  • 論文主頁:https://vision-x-nyu.github.io/thinking-in-space.github.io/
  • 論文標題:Thinking in Space: How Multimodal Large Language Models See, Remember, and Recall Spaces

這篇論文作者有我們熟悉的斯坦福大學(xué)教授李飛飛,她提倡的「空間智能」最近正在引領(lǐng) AI 發(fā)展方向,還有紐約大學(xué)計算機科學(xué)助理教授謝賽寧等。

謝賽寧表示,「視頻理解是下一個研究前沿,但并非所有視頻都是一樣的。模型現(xiàn)在可以通過 youtube 片段和故事片進行推理,但是我們未來的 AI 助手在日??臻g中導(dǎo)航和經(jīng)驗如何呢?空間思維正是為這一問題誕生的,我們的最新研究 VSI-Bench,可以探索多模態(tài) LLM 如何看待、記憶和回憶空間?!?/span>

圖片

「在視覺處理方面,我們通常處理空間問題,但很少進行推理;而多模態(tài)大語言模型(LLM)雖然能夠思考,但通常忽略了邏輯空間。然而,作為人類 —— 無論是做心理旋轉(zhuǎn)測試還是為新家定制家具 —— 我們依賴于空間和視覺思維 。而這些思維并不總能很好地轉(zhuǎn)化為語言?!?/span>

圖片

「我們通過研究涵蓋各種視覺空間智能任務(wù)(關(guān)系和度量)的新基準來探索這一點?!?/span>

圖片

李飛飛也對這項研究進行了宣傳,她表示這項名為「Thinking in Space」的研究,是對 LLM(大部分都失敗了)在空間推理方面表現(xiàn)的評估,而空間推理對人類智能至關(guān)重要。2025 年還有更多值得期待的事情,以突破空間智能的界限!

圖片

在李飛飛的這條推文下,網(wǎng)友已經(jīng)開始期待即將到來的 2025 年。

圖片

在論文主頁給出的 Demo 中,作者提供了谷歌 Gemini 模型在視覺空間智能上的一些表現(xiàn)。(以下視頻均以 2 倍速播放。)

1:估計相對距離

問:如果我站在冰箱旁邊,面對著洗衣機,爐子是在我的左邊、右邊還是后面……

圖片

2:讓大模型數(shù)物體

問:房間里有幾把椅子?Gemini-1.5 Pro 給出了 2。

圖片

3:根據(jù)視頻猜測物體出現(xiàn)的順序

問:以下類別在視頻中第一次出現(xiàn)的順序是:毯子、垃圾桶、微波爐、植物?Gemini 給出 B 選項,正確答案是 C。

圖片

4:估計房間大小

問:這個房間有多大(平方米)?如果展示了多個房間,估計一下組合空間的大小。

圖片

 VSI-Bench 介紹

VSI-Bench 是一個用于定量評估從第一視角視頻出發(fā)的 MLLM 視覺空間智能的工具。VSI-Bench 包含了超過 5000 個問答對,這些問答對來源于 288 個真實視頻。這些視頻包括居住空間、專業(yè)場所(例如,辦公室、實驗室)和工業(yè)場所(例如,工廠)—— 以及多個地理區(qū)域。VSI-Bench 的質(zhì)量很高,經(jīng)過迭代審查以最小化問題的歧義,并移除了從源數(shù)據(jù)集中傳播的錯誤注釋。

VSI-Bench 包括八項任務(wù),如圖 3 所示,包括:物體計數(shù)、相對距離、出現(xiàn)的順序、相對方向、物體大小、絕對距離、房間面積、路徑規(guī)劃。

圖片

VSI-Bench 的任務(wù)演示。注意:為清晰簡潔起見,上述問題略作簡化。

數(shù)據(jù)集統(tǒng)計見圖 5。

圖片

此外,本文還開發(fā)了一個復(fù)雜的基準構(gòu)建流程,以有效地大規(guī)模生成高質(zhì)量問答(QA)對,如圖 4 所示。

評估

評估設(shè)置:本文對 15 個支持視頻的 MLLM 進行了基準測試。專有模型包括 Gemini-1.5 和 GPT-4o。開源模型包括 InternVL2、ViLA、LongViLA、LongVA、LLaVA-OneVision 和 LLaVA-NeXT-Video 。

主要結(jié)果:通過 5000 多個問答對,作者發(fā)現(xiàn) MLLM 表現(xiàn)出了有競爭性的視覺空間智能(盡管仍然低于人類)。Gemini Pro 表現(xiàn)最佳,但與人類的表現(xiàn)仍有差距。

具體而言,人類評估者的平均準確率達到 79%,比最佳模型高出 33%,在配置和時空任務(wù)上的表現(xiàn)接近完美(94%-100%)。

然而,在需要精確估計的測量任務(wù)上,差距縮小了,MLLM 在定量任務(wù)中表現(xiàn)出相對優(yōu)勢。

在專有模型中,Gemini-1.5 Pro 脫穎而出,盡管只在 2D 數(shù)字數(shù)據(jù)上進行訓(xùn)練,但它大大超過了機會基線,并在絕對距離和房間大小估計等任務(wù)中接近人類表現(xiàn)。

表現(xiàn)最佳的開源模型,如 LLaVA-NeXT-Video-72B 和 LLaVA-OneVision-72B,取得了有競爭力的結(jié)果,僅落后 Gemini-1.5 Pro 4%-5%。然而,大多數(shù)開源模型(7/12)都低于機會基線,暴露出視覺空間智能的明顯缺陷。

圖片

為了更好地理解模型成功或失敗的時間和原因,并闡明它們所擁有的視覺空間智能的各個方面,本文研究了 MLLM 如何在空間語言中思考。

當被要求解釋自己時,LLM 表示空間推理(而不是物體識別或語言能力)是主要瓶頸。

在成功示例中,該模型展示了高級視頻理解能力,具有準確的時間戳描述和正確的逐步推理過程。全局坐標系的使用表明 MLLM 可以通過整合空間背景和推理來構(gòu)建隱式世界模型。

錯誤分析:對 VSI-Bench(tiny)上表現(xiàn)最佳的 MLLM 的錯誤進行分析,發(fā)現(xiàn)主要有四種錯誤類型:視覺感知、語言智能、關(guān)系推理和第一視角 - 他人視角轉(zhuǎn)換。圖 6 顯示,71% 的錯誤源于空間推理,特別是在理解距離、大小和方向方面。這表明空間推理仍然是提高 VSI-Bench 上 MLLM 性能的關(guān)鍵瓶頸。

圖片

此外,本文還有一些其他發(fā)現(xiàn)。

  • 發(fā)現(xiàn) 1:空間推理是影響 MLLM 在 VSI-Bench 上的主要瓶頸。
  • 發(fā)現(xiàn) 2:語言提示技術(shù)雖然在語言推理和一般視覺任務(wù)中有效,但對空間推理有害。
  • 發(fā)現(xiàn) 3:在記憶空間時,MLLM 會根據(jù)給定的視頻在模型中形成一系列局部世界模型,而不是統(tǒng)一的全局模型。

語言提示技術(shù)在這種情況下是無效的 —— 像 CoT 或多數(shù)投票這樣的方法實際上對本文任務(wù)是非常有害的。

了解更多內(nèi)容,請參考原論文。

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2024-12-23 12:37:34

2024-12-13 14:20:00

AI模型訓(xùn)練

2024-08-07 13:00:00

2024-12-23 07:15:00

多模態(tài)大模型MLLM人工智能

2024-05-16 12:44:30

模型訓(xùn)練

2024-09-23 15:20:00

2025-04-03 11:11:50

2024-11-11 08:30:00

2025-04-08 09:10:00

模型訓(xùn)練AI

2022-06-29 14:49:43

計算機視覺智能

2024-03-04 07:00:00

地圖虛擬智能

2021-02-07 10:01:31

AI 數(shù)據(jù)人工智能

2024-05-06 07:10:00

李飛飛智能空間

2024-12-05 09:53:18

智能體AI

2024-05-21 12:23:00

模型訓(xùn)練

2017-01-16 19:27:40

視覺人工智能AI

2024-12-03 08:23:53

2025-01-20 08:35:00

模型生成AI

2022-12-23 10:15:44

模型AI

2024-12-03 15:47:00

點贊
收藏

51CTO技術(shù)棧公眾號