自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式

發(fā)布于 2024-4-17 12:59
瀏覽
0收藏

縱觀生成式AI領(lǐng)域中的兩個主導(dǎo)者:自回歸和擴散模型。

?

一個專攻文本等離散數(shù)據(jù),一個長于圖像等連續(xù)數(shù)據(jù)。


如果,我們讓后者來挑戰(zhàn)前者的主場,它能行嗎?


斯坦福博士的最新研究,就搞了這么一個擴散模型VS自回歸模的同臺PK。


結(jié)果:


挑戰(zhàn)成功?。ㄏ旅鏋樯墒疽鈭D,最后得到的文本是“Hello world,I am a language diffusion model,named SEDD”)

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

并且他們的擴散模型在困惑度和質(zhì)量上已率先超越自回歸的GPT-2。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

趕緊來瞧瞧。

擴散模型挑戰(zhàn)離散數(shù)據(jù)

用自回歸來處理離散文本數(shù)據(jù),即根據(jù)之前的token來預(yù)測下一個token,這可能是目前我們能想象到的最簡單可行的方法。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

為什么這么說?


作者在這里用GAN舉了個例子:


對于圖像生成,GAN首先根據(jù)隨機噪聲生成圖像,然后使用判別器來“懲罰”偏差,因此梯度信息可以反向傳播到生成器。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

但如果我們假設(shè)用GAN來生成文本,就行不通了。


因為盡管我們可以定義同樣原理的生成器和判別器,但文本的離散性質(zhì)使得更新生成器非常難。


(圖像是連續(xù)的,因此可以通過反向傳播來計算梯度,但文本是一堆無法區(qū)分的離散值,計算梯度信號相當繁瑣,基本只能粗略估計)

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

所以說,文本建模領(lǐng)域基本成了自回歸的天下(如transformer的發(fā)揚光大就是基于自回歸模型)。


不過,這個架構(gòu)也有根本性的缺陷


最有名的“批評”來自Lecun,他就認為自回歸transformer“注定要失敗”,因為生成會“偏離”數(shù)據(jù)分布并導(dǎo)致模型在采樣過程中發(fā)散。


除此之外,自回歸架構(gòu)的采樣也具有高度迭代性,這對為并行計算而高度優(yōu)化的GPU來說也不夠match。


最后,由于這類架構(gòu)的模型都是按照從左往右地完成任務(wù),因此一次執(zhí)行多個控制任務(wù)也很困難(例如補充給定了前綴和后綴的文本)。


正是這些缺點促使作者開始構(gòu)思另一種概率模型,因此有了本文的主角:


分數(shù)熵離散擴散模型(SEDD,Score Entropy Discrete Diffusion)。


簡單來說,為了將擴散模型擴展到離散空間,就必須將“分數(shù)函數(shù)”(也就是對數(shù)概率的梯度)概念推廣到離散空間。


幸運的是,有一種替代方案可以呈現(xiàn)具體分數(shù),即概率的局部比率。


如下圖所示,左邊為分數(shù)函數(shù),它直觀地“指向”連續(xù)空間中的較高密度區(qū)域,具體分數(shù)(右)將其推廣到離散空間。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

這些具體的比率(分數(shù))可以通過得分熵(score entropy)損失函數(shù)來學(xué)習(xí),從而實現(xiàn)離散擴散模型的快速、可擴展訓(xùn)練。


在這之中,由于作者只知道可以使用得分熵從數(shù)據(jù)中學(xué)習(xí)具體得分(對應(yīng)于學(xué)習(xí)概率模型),但仍然不知道如何生成樣本。


因此還借用了擴散模型的核心思想,并使用學(xué)習(xí)到的具體分數(shù)將隨機值迭代地去噪為數(shù)據(jù)點。


為此,他們還定義了向離散文本樣本中“添加噪聲”的含義


對于連續(xù)空間,這是通過添加高斯噪聲自然產(chǎn)生的,但在離散空間中,則是被迫直接在不同元素之間“跳躍”。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

而最終,他們的SEDD模型通過學(xué)習(xí)將樣本不斷迭代去噪為文本,完成從純隨機輸入生成文本的任務(wù)。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

超越GPT-2

總的來看,與自回歸模型相比,該擴散模型可以在生成過程中利用完整的全局上下文,從而獲得更好的整體生成效果。


對比起來,自回歸模型特別是像GPT-2這樣的會發(fā)生“漂移”現(xiàn)象,從而破壞整體性能的穩(wěn)定性。


并且即使在較小的模型規(guī)模下,SEDD也能始終生成高質(zhì)量的文本(綠框,讀者很通順),而GPT-2就比較困難(紅框,一眼看上去就很多錯誤)。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

具體測試中,SEDD在困惑度指標上表現(xiàn)出了很強的競爭力:

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

此外,作者還發(fā)現(xiàn):


使用更少的采樣步驟,SEDD照樣在控制生成質(zhì)量上的表現(xiàn)也比GPT-2要好。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

最后,團隊以完全零樣本的方式從任意位置提示SEDD后發(fā)現(xiàn):


對于標準(從左到右)和非標準(填充)提示方法,SEDD都可以與最好的GPT-2解碼方法一較高下。


如下圖所示:


提示標記以藍色表示,不管它在前面中間還是結(jié)尾,SEDD都能夠生成有意義的文本。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

Pika創(chuàng)始人是作者之一

本研究一共3位作者:

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

一作為斯坦福計算機專業(yè)博士生Aaron Lou,康奈爾本科畢業(yè)。


二作也是該校博士生Chenlin Meng。


她的名字不算陌生,Pika就是她(下圖右)和“學(xué)妹”郭文景一起創(chuàng)辦的。(Meng 2020年入學(xué)斯坦福,郭2021年入學(xué))


看起來,一邊創(chuàng)業(yè)的她也一邊兼顧著學(xué)業(yè)。

Pika聯(lián)創(chuàng)參與新研究:Diffusion能搶GPT的活了!成功挑戰(zhàn)自回歸文本范式-AI.x社區(qū)

最后,通訊作者為一二作的導(dǎo)師Stefano Ermon,他是斯坦福計算機科學(xué)系副教授。


論文地址:???https://arxiv.org/abs/2310.16834??


本文轉(zhuǎn)自 量子位 ,作者:量子位


原文鏈接:??https://mp.weixin.qq.com/s/PMATQzK8Z_Ec0DGoF7Eszg??

標簽
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦