400 128 6709

行业新闻

单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速

发布时间:2024-07-09点击次数:

微软的这项研究让开发者可以在单卡机器上以 10 倍的速度处理超过 1m 的输入文本。


大型语言模型 (LLM) 已进入长上下文处理时代,其支持的上下文窗口从先前的 128K 猛增到 10M token 级别。

然而,由于注意力机制的二次复杂度,模型处理输入提示(即预填充阶段)并开始产生第一个 token 可能需要几分钟时间。导致首个 token 生成的时间过长,从而严重影响了用户体验,这也极大地限制了长上下文 LLM 的广泛应用。 

举例来说(如图 2a 所示),在单台装有 A100 的机器上为 LLaMA-3-8B 提供服务时,如果提示有 30 万个 token,模型需要 6 分钟才能完成预填充( pre-filling)阶段,如果提示增加到 100 万个 token,这个数字将增加到 30 分钟。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
自注意力计算的开销占到了总预填充延迟的 90% 以上,这使其成为 LLM 处理长上下文时的主要瓶颈。现有的加速预填充方法在应用于长上下文 LLM 时通常无法保持可接受的准确性或效率。

为了解决上述问题,来自微软、萨里大学的研究者提出了一种旨在加速长序列处理预填充的稀疏计算方法:MInference( Milliontokens Inference )。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
  • 论文地址:https://arxiv.org/pdf/2407.02490
  • 论文主页:https://hqjiang.com/minference.html
  • 论文标题:MInference 1.0: Accelerating Pre-filling for Long-Context LLMs via Dynamic Sparse Attention

MInference 可以直接应用于现有 LLM,无需对预训练设置进行修改或额外的微调。

通过对各种下游任务(包括 InfiniteBench、RULER、PG-19 和 Needle In A Haystack)以及模型(包括 LLaMA-3-1M、Yi-200K、GLM-4-1M、Phi-3-128K 和 Qwen2-128K)进行评估,实验证明 MInference 可有效将 A100 上的预填充推理延迟降低多达 10 倍,同时保持准确性。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速

Scenario Scenario

一个AI生成游戏资产的工具

Scenario 56 查看详情 Scenario
                                    使用 MInference 1.0 ,长上下文 LLM(如 LLaMA-3-8B-1M、GLM-4-1M)在单个 A100 上的推理速度实现了 10 倍提升,并且准确度更高。

方法介绍

作者提出了 MInference,这个名字反映了他们希望在一台 A100 机器上实现百万(million)token 推理的雄心。

MInference 是一种无需训练的高效方法,用于基于动态稀疏注意力的长上下文 LLM 的预填充阶段。

研究者认为注意力,特别是在长上下文中,是稀疏和动态的,即在不同的输入中,稀疏模式有很大的不同。这种动态稀疏性呈现出三种适用于所有输入的独特空间聚合模式:A 形(A-shape)、垂直 - 斜线(Vertical-Slash)和块状 - 稀疏(Block-Sparse)。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
MInference 首先使用内核感知稀疏模式搜索算法为每个头部离线确定最佳动态稀疏模式,如算法 1 所示。在推理过程中,它会根据头部的模式动态逼近动态稀疏指数,如算法 2、3 所示。最后,作者使用优化后的 GPU 内核执行高效的动态稀疏注意力计算,大大减少了长上下文 LLM 的预填充阶段延迟。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
例如,对于「垂直 - 斜线」模式,作者首先利用最后一个 Q 和 K 之间的注意力计算来估计垂直线和斜线的最佳指数。然后,他们利用动态稀疏编译器 PIT 和 Triton 构建垂直 - 斜线 FlashAttention 内核,加速注意力计算。对于 A 形、垂直 - 斜线和块状 - 稀疏模式,作者首先在注意力计算中使用 Q 和 K 的均值池。利用均值池和 MatMul 的交换属性,可以估算出块状 - 稀疏指数。然后,他们使用 Triton 构建块稀疏 FlashAttention 内核,加速注意力计算。有关内核的详细实现,请参阅附录 C.4 和代码。

在长上下文基准中的评估结果

作者在一系列场景中测试了 MInference,包括 QA、编码、基于检索的任务、multi-hop QA、总结和数学任务。RULER 基准包括几个复杂的 multi-hop 或 multi-needle 任务,有效地反映了 LLM 的实际上下文窗口大小。如表 1 所示,MInference 有效地保留了 LLM 的实际上下文窗口处理能力,甚至将实际上下文窗口大小略微扩展到 32K。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
作者还使用平均 token 长度为 214K 的 InfiniteBench 在更广泛的任务中测试了 MInference,如表 2 所示。与 SoTA 基线相比,MInference 在所有任务中都始终保持了良好的性能。值得注意的是,在更具挑战性的检索任务(如 KV 检索任务)中,所有基线都无法做出准确预测,准确率低于 1.2%。但是,MInference 成功地保留了处理动态 KV 对检索的能力。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
为了进一步评估不同上下文长度和关键信息在提示中不同位置时的性能,作者使用「大海捞针」任务测试了各种模型和方法。如图 1 所示,MInference 在不同的模型、上下文窗口和提示信息位置下都表现良好,与原始模型相比,其性能保持不变甚至略有提高。在 LLaMA-3-8B 和 GLM-4-9B-1M 的情况下,MInference 在高达 1M 的上下文窗口中实现了完全绿色的性能。相比之下,即使在 70K 上下文窗口中,StreamingLLM 和 InfLLM 在提示的中间段性能也会下降到 20% 以下。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
作者还使用 PG-19 在语言模型任务中测试了 MInference,其中包括多达 100k 的 token。如图 2 所示,MInference 有效地保持了 LLaMA-3-8B 和 Yi-9B-200K 的困惑度,而所有基线都出现了不同程度的困惑度下降。此外,与标准的 StreamingLLM 相比,使用膨胀和步长配置的 StreamingLLM 更好地保持了困惑度性能。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
延迟和内核中的稀疏模式 

图 3 展示了本文提出的三种注意力模式以及 FlashAttention 的微基准测试结果。可以看出,Vertical-Slash 是三种模式中最慢的,但在 1M 上下文窗口下,相比 FlashAttention 仍然实现了 13 倍的加速。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
图 4 展示了 Vertical-Slash 头部内核中的稀疏索引。垂直线通过 PIT FlashAttention 使用 1x64 块计算,而斜线通过块级 FlashAttention 使用 64x64 块计算。
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
参考链接:https://hqjiang.com/minference.html

以上就是单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速的详细内容,更多请关注其它相关文章!


# 实现了  # 关键词排名徐州百都网络  # 宿迁谷歌网站推广  # 小学生视频seo  # 怎么写英语网站推广文案  # 南头灯饰网站建设  # 抖音热门推广网站排名榜  # 怎么看需要优化的网站  # 呼和浩特网站建设平台  # 哈尔滨网站优化苹果手机  # 株洲app营销推广  # 有效地  # 量产  # 工程  # 提出了  # 如图  # 三种  # 所示  # 速度快  # 微软  # 这是  # type  # llama  # qwen  # 稀疏计算 


相关栏目: 【 行业新闻62819 】 【 科技资讯67470


相关推荐: 当一个网站的内容被 AI 完全接管  基于信息论的校准技术,CML让多模态机器学习更可靠  看似低调,实则稳健:字节在AI路上会遇到什么?  ​日媒:AI高效解析纳斯卡地画  CREATOR制造、使用工具,实现LLM「自我进化」  马斯克嘲讽人工智能:机器学习本质就是统计学  广州团建公司方案 | 绝密飞行 → X-PLANE无人机团建主题团建  “可用”“有用”的讯飞星火认知大模型将亮相世界人工智能大会  人工智能在服务优化方面优缺点有哪些  2025 WAIC|美团无人机发布第四代新机型  Vision Pro 太贵,苹果基于 iPhone 的 VR 头显专利曝光  复旦发布「新闻推荐生态系统模拟器」SimuLine:单机支持万名读者、千名创作者、100+轮次推荐  无人机协助盐城交通执法的协同训练  OpenAI 已全面开放 GPT-3.5 Turbo、DALL-E 及 Whisper API  如何用AI重塑你的工作流(一)  美图公司影像节或发布AI设计新品  新华三集团总裁兼首席执行官于英涛:人工智能时代需要想象力,更需要精耕务实  谷歌推出RT-2视觉语言动作模型,使机器人能够掌握垃圾丢弃技能  传字节内测对话式 AI 产品,代号「Grace」;马斯克嘲讽苹果 头显;比亚迪 F 品牌定名「方程豹」  视觉中国推出AI灵感绘图功能  亚马逊确认今年不会举办 re:MARS 机器人和人工智能大会  人工智能赋能无人驾驶:商业化进程再提速  此「错」并非真的错:从四篇经典论文入手,理解Transformer架构图「错」在何处  午报 | 字节跳动要造机器人;东方甄选首次启动自有APP|直播|  国家发改委组织工业机器人产业高质量发展现场会  人工智能如何与智能家居集成  AI在教育中的角色:AI如何改变我们的学习方式  智能电网技术:提高能源效率和可靠性  英伟达的AI领域垄断地位:一直无法撼动吗?  微软最新推出的NaturalSpeech2语音合成模型:提供更准确的语音重构,避免棒读效果  微软向美国政府提供GPT大模型,如何保证安全性?  7大探索区域打造沉浸式玩乐“元宇宙” 昆明京东MALL未来科技探索官全城招募中  东软成立魔形科技研究院,积极布局大语言模型系统工程战略,迎接AI时代  静安大宁功能区企业云天励飞亮相2025世界人工智能大会,秀出AI硬实力!  Bing 聊天机器人现支持在桌面端用语音提问  微软更新服务协议,以防止通过AI服务进行逆向工程和数据抓取  "探索Meta发布的Quest MR/VR视频录制与拍摄指南"  “世界人工智能之都”的新烦恼:AI热潮无法拉动大量就业  能走、能飞、能游泳,科学家打造全能 M4 机器人  世界人工智能大会中西部县域数字就业中心组团亮相  选对AI智能写作软件,让创作游刃有余!  “电碳”技术提升碳排放监测精度  人工智能和神经网络有什么联系与区别?  田渊栋新作:打开1层Transformer黑盒,注意力机制没那么神秘  OpenAI更新GPT-4等模型,新增API函数调用,价格最高降75%  机器人加速!稀土永磁也被带火,持续性如何?  视觉中国宣布推出AI灵感绘图、画面扩展功能  XREAL发布新款硬件XREAL Beam投屏盒子:可悬停AR空间屏  人工智能即将进入Windows:企业准备好安全策略设置了吗?  Nature发AIGC禁令!投稿中视觉内容使用AI的概不接收 

400 128 6709
E-mail

contact@tlftec.cn

扫一扫,添加微信

©  云南淘乐房科技有限公司 版权所有  滇ICP备2025071560号  

云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司 云南淘乐房科技有限公司