|
【科技快報網(wǎng)】隨著大語言模型在文本分析、智能問答等場景的廣泛應用,處理1M超長文本推理時,常常面臨顯存不足、運算速度卡頓的行業(yè)痛點,嚴重限制了超長文本場景的應用。近日,上海交通大學李健教授團隊依托上海交通大學 鯤鵬昇騰科教創(chuàng)新卓越中心的算力支持,基于vLLM-Ascend 推理框架研發(fā)出一套針對超長上下文推理的稀疏注意力 KV Cache 分層緩存管理系統(tǒng)。在昇騰 AI 軟硬件平臺的全方位賦能下,該項目成功破解單卡支持超長上下文推理的顯存與性能雙重難題,同時大幅提升吞吐量。
項目核心創(chuàng)新在于設(shè)計了 KV Cache 分級緩存集成機制。該機制先對推理任務進行實時分析,智能識別Top-K 重要塊并集中算力處理,從源頭提升計算效率;同時采用數(shù)據(jù)冷熱分層存儲策略,根據(jù)數(shù)據(jù)訪問頻率,將生成數(shù)據(jù)動態(tài)劃分為高頻熱數(shù)據(jù)與低頻冷數(shù)據(jù),再針對性優(yōu)化存儲位置,減少資源浪費。這一機制的落地依托昇騰CANN異構(gòu)計算架構(gòu)靈活的動態(tài)調(diào)度能力,能精準控制冷熱數(shù)據(jù)在顯存與主存間的流轉(zhuǎn),大幅降低數(shù)據(jù)遷移開銷。最終,該方案實現(xiàn)單卡流暢處理超過1M的超長文本推理任務,系統(tǒng)推理吞吐量超過39%,徹底突破傳統(tǒng)系統(tǒng)在長序列處理上的顯存與性能瓶頸。 同時項目進行了元數(shù)據(jù)結(jié)構(gòu)優(yōu)化與緩存機制設(shè)計,其中數(shù)據(jù)索引與掩碼是關(guān)鍵支撐 —— 通過精簡索引結(jié)構(gòu)、合并掩碼維護步驟,有效減少重復運算,使昇騰NPU算力更集中于注意力計算與文本生成等核心任務,提升硬件利用效率。相關(guān)優(yōu)化已通過vLLM-Ascend推理框架靈活集成,保障了技術(shù)方案的順利落地。 目前,該項目源代碼已在 Gitee 社區(qū)中開源,后續(xù)將進一步推送到昇騰開源生態(tài),合入GitHub社區(qū) vLLM-Ascend 項目專區(qū)。此次技術(shù)突破,不僅為超長文本推理提供了高效解決方案,更印證了昇騰生態(tài)在AI創(chuàng)新中的賦能價值。未來,隨著該系統(tǒng)在更多行業(yè)場景的落地,昇騰將持續(xù)為AI技術(shù)研發(fā)提供算力與技術(shù)保障,推動大語言模型在長文本分析、智能辦公、數(shù)字孿生等千行百業(yè)的深度應用,加速人工智能產(chǎn)業(yè)化進程。 |
免責聲明:本網(wǎng)站內(nèi)容由網(wǎng)友自行在頁面發(fā)布,上傳者應自行負責所上傳內(nèi)容涉及的法律責任,本網(wǎng)站對內(nèi)容真實性、版權(quán)等概不負責,亦不承擔任何法律責任。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關(guān)內(nèi)容。本站不承擔此類作品侵權(quán)行為的直接責任及連帶責任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。