自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Kimi 16B勝GPT-4o!開源視覺推理模型:MoE架構(gòu),推理時(shí)僅激活2.8B

人工智能 新聞
開源輕量級(jí)視覺語言模型Kimi-VL及其推理版Kimi-VL-Thinking,多模態(tài)和推理雙雙拿捏。

剛剛,Kimi團(tuán)隊(duì)上新了!

開源輕量級(jí)視覺語言模型Kimi-VL及其推理版Kimi-VL-Thinking,多模態(tài)和推理雙雙拿捏。

圖片

按照Kimi官方的說法,其關(guān)鍵亮點(diǎn)如下:

  • 都是基于MoE架構(gòu),總參數(shù)為16B,但推理時(shí)僅激活2.8B
  • 具備強(qiáng)大的多模態(tài)推理能力(媲美參數(shù)大10倍的模型)和Agent能力;
  • 支持128K上下文窗口;
  • 采用相對(duì)較為寬松的MIT許可證

如圖所示,和Qwen2.5-VL、Gemma-3等前沿開源VLM相比,Kimi-VL-Thinking僅使用2.8B激活參數(shù)即可實(shí)現(xiàn)強(qiáng)大的多模態(tài)推理。

圖片

同時(shí)在一些重要基準(zhǔn)測(cè)試中,Kimi新模型“以小博大”,超越了GPT-4o等規(guī)模更大的模型。

圖片

目前兩款模型均已上架Hugging Face,分為Instruct基礎(chǔ)版和Thinking推理版。

圖片

網(wǎng)友們紛紛表示,新的標(biāo)桿再次誕生!

圖片

多模態(tài)和推理雙雙拿捏

話不多說,我們直接看Kimi新模型的具體玩法和效果。

視覺理解與推理

首先,作為一款通用的VLM模型,Kimi-VL具備強(qiáng)大的視覺理解和推理能力

給它一份手稿,要求它通過逐步推理來確認(rèn)手稿屬于誰,以及所記錄的內(nèi)容。

可以看到,Kimi-VL通過分析手稿的筆跡、內(nèi)容、語言等特征,推斷出手稿可能屬于愛因斯坦,理由是這些內(nèi)容與引力場(chǎng)方程有關(guān),這與愛因斯坦對(duì)廣義相對(duì)論的貢獻(xiàn)有關(guān)。

圖片

又或者只提供一張圖片,讓Kimi-VL來判斷城市地標(biāo)建筑、識(shí)別游戲場(chǎng)景等。

比如第2個(gè)例子中,它成功識(shí)別出圖片中的穹頂建筑為多倫多的羅杰斯中心(Rogers Centre),同時(shí)描述了其特征和用途。

圖片

除此之外,Kimi-VL也能被用來解答高難度幾何數(shù)學(xué)題。

還是僅需一個(gè)上傳圖片的動(dòng)作,它就能將復(fù)雜數(shù)學(xué)公式轉(zhuǎn)換為L(zhǎng)aTeX代碼,并以正確格式輸出。

圖片

OCR與文本處理

當(dāng)然,Kimi-VL對(duì)多模態(tài)數(shù)據(jù)的正確理解還離不開一項(xiàng)關(guān)鍵能力——OCR字符識(shí)別

在OCRBench基準(zhǔn)測(cè)試中,其得分為867,屬于SOTA水平。

圖片

除了識(shí)別數(shù)學(xué)公式,它還能識(shí)別金融表格(以Markdown表格格式輸出)和手寫作文。

圖片

甚至還能從長(zhǎng)達(dá)一小時(shí)的視頻課程中捕捉和理解關(guān)鍵細(xì)節(jié)。

比如提供視頻中的某句話“授人以魚不如授人以漁”,要求它找到出處并進(jìn)一步解讀。

圖片

智能體任務(wù)與交互

值得關(guān)注的是,Kimi-VL還在多輪Agent交互任務(wù)(例如OSWorld)中表現(xiàn)出色,取得了媲美旗艦?zāi)P偷腟OTA結(jié)果。

圖片

比如在Chrome瀏覽器中,要求它自動(dòng)啟用“Do Not Track”功能來保護(hù)用戶隱私。

可以看到,通過一步步思考,Kimi-VL對(duì)每個(gè)屏幕進(jìn)行解讀,識(shí)別相關(guān)的用戶界面元素,并通過清晰的思路、操作和API調(diào)用按順序執(zhí)行相應(yīng)的操作。

圖片

背后技術(shù)原理

那么接下來的問題是,怎么做到的?

來看Kimi此次公開的技術(shù)報(bào)告。

圖片

首先,在模型架構(gòu)上,Kimi-VL和Kimi-VL-Thinking主要由三大部分構(gòu)成:

  • MoE專家混合語言模型(之前發(fā)布的Moonlight-16B-A3B);
  • 原生分辨率視覺編碼器(MoonViT,基于SigLIP-SO-400M微調(diào));
  • 一個(gè)多層感知機(jī)(MLP)投影器。

圖片

模型具體訓(xùn)練過程如下:

數(shù)據(jù)準(zhǔn)備

這第一步,團(tuán)隊(duì)構(gòu)建了三大類別數(shù)據(jù)集:

1、預(yù)訓(xùn)練數(shù)據(jù)。精選來自六個(gè)類別的高質(zhì)量數(shù)據(jù),包括字幕數(shù)據(jù)、圖像文本交織數(shù)據(jù)、OCR數(shù)據(jù)、知識(shí)數(shù)據(jù)、視頻數(shù)據(jù)和智能體數(shù)據(jù)。通過過濾、合成和去重等操作,控制數(shù)據(jù)質(zhì)量。

2、指令數(shù)據(jù)。用于增強(qiáng)模型的對(duì)話和指令遵循能力。對(duì)于非推理任務(wù),通過人工標(biāo)注構(gòu)建種子數(shù)據(jù)集,訓(xùn)練種子模型后生成并篩選多輪響應(yīng);對(duì)于推理任務(wù),利用拒絕采樣的方式擴(kuò)展數(shù)據(jù)集,確保數(shù)據(jù)多樣性和準(zhǔn)確性。

3、推理數(shù)據(jù)。通過類似拒絕采樣和提示工程的方法,收集和合成高質(zhì)量的長(zhǎng)思維鏈數(shù)據(jù)。

預(yù)訓(xùn)練:主要提升多模態(tài)能力

然后開始預(yù)訓(xùn)練,這一階段共消耗4.4T tokens,主要目標(biāo)是提高模型的多模態(tài)理解能力。

概括而言,這一過程包含4個(gè)步驟:先獨(dú)立進(jìn)行ViT訓(xùn)練,以建立原生分辨率視覺編碼器;隨后進(jìn)行三個(gè)聯(lián)合訓(xùn)練階段(預(yù)訓(xùn)練、冷卻、長(zhǎng)上下文激活)。

圖片

后訓(xùn)練:主要提升長(zhǎng)思維鏈推理能力

接著進(jìn)行后訓(xùn)練,通過在32K和128K上下文中進(jìn)行的兩個(gè)階段的聯(lián)合監(jiān)督微調(diào)、長(zhǎng)思維鏈監(jiān)督微調(diào)及強(qiáng)化學(xué)習(xí),團(tuán)隊(duì)進(jìn)一步提升了模型的長(zhǎng)期思考能力。

圖片

更多細(xì)節(jié)感興趣可以查閱原論文。

One More Thing

有一說一,相比于DeepSeek、Qwen等國內(nèi)競(jìng)爭(zhēng)對(duì)手,Kimi最近一個(gè)月實(shí)在有點(diǎn)過于安靜了。

從官方公眾號(hào)來看,最新一條發(fā)布還是在2月份。

圖片

在這股平靜之下,網(wǎng)友們開始猜測(cè):

Kimi即將有大動(dòng)作了?

圖片

結(jié)合更多消息,目前大家比較認(rèn)可的推測(cè)是K1.6模型即將到來。

就在3月,基于Kimi-K1.6的數(shù)學(xué)模型突然曝光,在編程基準(zhǔn)測(cè)試LiveCodeBench中拿下第一,超越o3、DeepSeek-R1等模型。

圖片

當(dāng)然,也歡迎更多知情者在評(píng)論區(qū)爆料(doge)。

論文:
https://github.com/MoonshotAI/Kimi-VL/blob/main/Kimi-VL.pdf
模型開源地址:
https://huggingface.co/collections/moonshotai/kimi-vl-a3b-67f67b6ac91d3b03d382dd85

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-12-26 07:10:00

2025-04-14 00:30:00

2025-01-21 10:10:56

2024-09-29 13:07:16

2024-09-24 11:01:03

2025-04-23 15:25:27

語言模型Eagle 2.5英偉達(dá)

2025-03-10 07:00:00

阿里開源QwQ-32B

2025-01-15 10:28:21

2025-01-02 13:00:00

2024-08-15 15:45:00

AI訓(xùn)練

2025-04-16 09:15:00

AI模型數(shù)據(jù)

2025-04-23 08:30:05

2025-04-16 15:28:31

模型AI數(shù)據(jù)

2024-03-04 13:36:00

模型訓(xùn)練

2024-06-11 14:30:18

2025-03-12 10:38:05

2025-05-08 16:45:32

開源Phi-4推理模型

2025-03-05 00:22:00

2025-03-06 17:29:21

2024-09-05 14:25:00

訓(xùn)練代碼
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)