自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

400萬token上下文、推理再加速46%!最新開源方案升級(jí)MIT成果,推理成本再降低

人工智能 新聞
Colossal-AI團(tuán)隊(duì)開源了SwiftInfer,基于TensorRT的StreamingLLM,可以進(jìn)一步提升大模型推理性能46%,有效解決如上問題。

22倍加速還不夠,再來提升46%,而且方法直接開源!

這就是開源社區(qū)改進(jìn)MIT爆火項(xiàng)目StreamingLLM的最新成果。

StreamingLLM可以在不犧牲生成效果、推理速度的前提下,實(shí)現(xiàn)多輪對(duì)話共400萬個(gè)token22.2倍推理速度提升。

該項(xiàng)目在上線不到3個(gè)月時(shí)間內(nèi),GitHub項(xiàng)目標(biāo)星達(dá)到5.7k star。

不過,StreamingLLM使用原生PyTorch實(shí)現(xiàn),對(duì)于多輪對(duì)話推理場(chǎng)景落地應(yīng)用的低成本、低延遲、高吞吐等需求仍有優(yōu)化空間。

Colossal-AI團(tuán)隊(duì)開源了SwiftInfer,基于TensorRT的StreamingLLM,可以進(jìn)一步提升大模型推理性能46%,有效解決如上問題。

具體如何實(shí)現(xiàn)?一起來看。

開源地址:https://github.com/hpcaitech/SwiftInfer

StreamingLLM如何實(shí)現(xiàn)超長多輪對(duì)話?

大語言模型能夠記住的上下文長度,直接影響了ChatGPT等大模型應(yīng)用與用戶互動(dòng)的質(zhì)量。

如何讓LLM在多輪對(duì)話場(chǎng)景下保持生成質(zhì)量,對(duì)推理系統(tǒng)提出了更高的要求,因?yàn)長LM在預(yù)訓(xùn)練期間只能在有限的注意力窗口的限制下進(jìn)行訓(xùn)練。

常見的KV Cache機(jī)制能夠節(jié)約模型計(jì)算的時(shí)間,但是在多輪對(duì)話的情景下,key和value的緩存會(huì)消耗大量的內(nèi)存,無法在有限的顯存下無限擴(kuò)展上下文。

同時(shí),訓(xùn)練好的模型在不做二次微調(diào)的前提下也無法很好地泛化到比訓(xùn)練序列長度更長的文本,導(dǎo)致生成效果糟糕。

圖片
△圖來源:https://arxiv.org/pdf/2309.17453.pdf

StreamingLLM為了解決了這個(gè)問題,通過觀察了注意力模塊中Softmax的輸出,發(fā)現(xiàn)了attention sink的現(xiàn)象。

要知道,注意力機(jī)制會(huì)為每一個(gè)token分配一個(gè)注意力值,而文本最初的幾個(gè)token總是會(huì)分配到很多無用的注意力。

當(dāng)使用基于滑動(dòng)窗口的注意力機(jī)制時(shí),一旦這幾個(gè)token被踢出了窗口,模型的生成效果就會(huì)迅速崩潰。

只要一直把這幾個(gè)token保留在窗口內(nèi),模型就能穩(wěn)定地生成出高質(zhì)量的文本。

比起密集注意力(Dense Attention)、窗口注意力(Window Attention)以及帶重計(jì)算的滑動(dòng)窗口注意力(Sliding Window w/ Re-computing),StreamingLLM基于attention sink的注意力機(jī)制無論是在計(jì)算復(fù)雜度還是生成效果上都表現(xiàn)優(yōu)異。

在不需要重新訓(xùn)練模型的前提下,StreamingLLM能夠直接兼容目前的主流大語言模型并改善推理性能。

SwiftInfer如何升級(jí)StreamingLLM?

Colossal-AI團(tuán)隊(duì)的方法是,將StreamingLLM方法與TensorRT推理優(yōu)化結(jié)合

這樣的好處是,不僅能繼承原始StreamingLLM的所有優(yōu)點(diǎn),還具有更高的運(yùn)行效率。

使用TensorRT-LLM的API,還能夠獲得接近于PyTorch API的模型編寫體驗(yàn)。

具體來看,基于TensorRT-LLM可以重新實(shí)現(xiàn)KV Cache機(jī)制以及帶有位置偏移的注意力模塊。

如下圖所示,假設(shè)窗口大小為10個(gè)token,隨著生成的token增加(由黃色方塊表示),在KV緩存中將中間的token踢出,與此同時(shí),始終保持著文本開始的幾個(gè)token(由藍(lán)色方塊表示)。

由于黃色方塊的位置會(huì)發(fā)生變化,在計(jì)算注意力時(shí),也需要重新注入位置信息。

圖片

需要注意的是,StreamingLLM不會(huì)直接提高模型能訪問的上下文窗口,而是能夠在支持流式超多輪對(duì)話的同時(shí)保證模型的生成效果。

經(jīng)過升級(jí)后,在原版本StreamingLLM基礎(chǔ)上,Colossal-AI團(tuán)隊(duì)發(fā)布的SwiftInfer可帶來額外的最多46%的推理吞吐速度提升。

能為大模型多輪對(duì)話推理提供低成本、低延遲、高吞吐的最佳實(shí)踐。TensorRT-LLM團(tuán)隊(duì)也在同期對(duì)StreamingLLM進(jìn)行了類似支持。

圖片

團(tuán)隊(duì)剛開源13B大模型

Colossal-AI目前已獲得GitHub星數(shù)三萬五千多顆,位列全球TOP400,細(xì)分賽道排名世界第一,可通過高效多維并行、異構(gòu)內(nèi)存等,降低AI大模型訓(xùn)練/微調(diào)/推理的開發(fā)與應(yīng)用成本,提升模型任務(wù)表現(xiàn),降低GPU需求。作為主流開源AI大模型系統(tǒng)社區(qū),Colossal-AI生態(tài)在多方面保持活躍更新。

值得一提的是,Colossal-AI最近還開源了另一個(gè)新模型Colossal-LLaMA-2-13B。

僅用25B token 數(shù)據(jù)和萬元算力,效果遠(yuǎn)超基 LLaMA-2 的其他中文漢化模型。

即使與其他采用中文語料,可能花費(fèi)上千萬元成本,從頭預(yù)訓(xùn)練的各大知名模型相比,Colossal-LLaMA-2在同規(guī)模下表現(xiàn)仍舊不錯(cuò)。

13B 版本通過構(gòu)建更為完善的數(shù)據(jù)體系,在知識(shí)性內(nèi)容掌握程度,自然語言處理任務(wù)理解程度,以及安全性,價(jià)值觀等問題上,都有質(zhì)的提升。

圖片

另外在云平臺(tái)方面,Colossal-AI云平臺(tái)在整合Colossal-AI系統(tǒng)優(yōu)化和廉價(jià)算力的基礎(chǔ)上,近期發(fā)布了AI云主機(jī)的功能。

它能方便用戶以近似裸機(jī)的方式進(jìn)行AI大模型的開發(fā)和調(diào)試,并提供了多種使用方式,包括:Jupyter Notebook、ssh、服務(wù)本地端口映射和grafana監(jiān)控,全方位的為用戶提供便捷的開發(fā)體驗(yàn)。

同時(shí),還為用戶預(yù)制了含有ColossalAI代碼倉庫和運(yùn)行環(huán)境的docker鏡像,用戶無需環(huán)境和資源配置,便可一鍵運(yùn)行ColossalAI代碼倉庫中的代碼樣例。

Colossal-AI開源地址:https://github.com/hpcaitech/ColossalAI

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-10-05 12:22:43

AI模型

2024-11-29 13:54:13

Kimi架構(gòu)大模型

2024-12-05 13:50:00

AI大模型

2025-01-15 13:09:12

2025-03-14 11:56:52

2021-08-10 15:37:45

AI 數(shù)據(jù)機(jī)器學(xué)習(xí)

2025-03-04 09:00:00

2025-02-12 09:20:12

2022-06-01 16:47:53

AI模型開源

2025-03-10 11:55:10

2024-11-20 09:36:00

2025-04-30 09:00:00

模型推理AI

2025-01-20 13:08:25

2025-03-24 08:26:45

2024-03-29 14:04:00

模型訓(xùn)練

2017-05-11 14:00:02

Flask請(qǐng)求上下文應(yīng)用上下文

2023-10-18 09:25:08

模型推理

2024-02-01 12:43:16

模型數(shù)據(jù)

2023-08-10 14:04:15

代碼模型

2025-02-27 09:09:45

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)