• 首页 > 云计算频道 > 大模型

    BiTA:创新AI方法加速大型语言模型生成

    2024年02月02日 17:14:39   来源:站长之家

      2月2日 消息:近年来,基于transformer架构的大型语言模型(LLMs)已经崭露头角。Chat-GPT和LLaMA-2等模型展示了LLMs参数的迅速增加,从几十亿到数万亿。尽管LLMs是非常强大的生成器,但由于所有参数的计算负载,它们在推理延迟方面存在问题。因此,人们一直在努力加速LLMs的推理,尤其是在像边缘设备和实时应用(如聊天机器人)等资源受限的情境中。

      最近的研究表明,大多数仅解码器的LLMs遵循逐标记生成模式。由于标记生成的自回归(AR)性质,每个标记必须经过推理执行,导致许多transformer调用。这些调用针对内存带宽限制运行,常常导致降低计算效率和较长的墙钟周期。

      通过在单个模型推理步骤中同时合成多个标记,半自回归(SAR)解码减少了推理执行的高需求。问题在于,大多数LLMs只能生成AR模型,而不能生成SAR模型。由于SAR目标和AR预训练不同步,重新训练SAR模型似乎是一项艰巨的任务。

      Intellifusion Inc.和哈尔滨工业大学的研究人员希望通过他们的新加速方法,即双向调优以实现无损SAR解码的Bi-directional Tuning for lossless Acceleration(BiTA),通过学习少量额外的可训练参数,甚至只有0.01%。BiTA的两个主要部分是建议的双向调优和简化的SAR草稿候选验证。为了预测未来的标记,AR模型的双向调优将提示和掩码标记一起纳入考虑,超越了下一个标记。标记序列中的可学习前缀和后缀嵌入是这种方法的一个隐喻。在变换后的AR模型中,通过复杂的基于树的注意机制,生成和验证在单个前向传递中同时进行,无需额外的验证程序或第三方验证模型。建议的方法使用快速调优,可作为插拔模块用于加速任何公开可访问的基于transformer的LLMs,特别是那些经过良好指导的聊天机器人,而不削弱其出色的生成能力。

      该模型使用基于树的解码技术在并行中执行高效的创建和验证。BiTA的这两个方面共同作用,加速LLMs的同时保持原始输出不变。在对不同大小的LLMs进行了广泛的生成任务测试后,研究发现其印象深刻的加速效果范围为2.1×至3.3×。此外,当资源受限或需要实时应用时,BiTA的可调提示设计使其成为一种可插即用的方法,可用于加速任何公开可用的LLMs。

      文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。

    即时

    TCL实业荣获IFA2024多项大奖,展示全球科技创新力量

    近日,德国柏林国际电子消费品展览会(IFA2024)隆重举办。凭借在核心技术、产品设计及应用方面的创新变革,全球领先的智能终端企业TCL实业成功斩获两项“IFA全球产品设计创新大奖”金奖,有力证明了其在全球市场的强大影响力。

    新闻

    敢闯技术无人区 TCL实业斩获多项AWE 2024艾普兰奖

    近日,中国家电及消费电子博览会(AWE 2024)隆重开幕。全球领先的智能终端企业TCL实业携多款创新技术和新品亮相,以敢为精神勇闯技术无人区,斩获四项AWE 2024艾普兰大奖。

    企业IT

    重庆创新公积金应用,“区块链+政务服务”显成效

    “以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。

    3C消费

    “纯臻4K 视界焕新”——爱普生4K 3LCD 激光工程投影

    2024年3月12日,由爱普生举办的主题为“纯臻4K 视界焕新”新品发布会在上海盛大举行。

    研究

    2024全球开发者先锋大会即将开幕

    由世界人工智能大会组委会、上海市经信委、徐汇区政府、临港新片区管委会共同指导,由上海市人工智能行业协会联合上海人工智能实验室、上海临港经济发展(集团)有限公司、开放原子开源基金会主办的“2024全球开发者先锋大会”,将于2024年3月23日至24日举办。