Brave搜索推出AI对话功能,打造搜索引擎新体验西班牙BBVA银行成功部署ChatGPT企业版 五个月创建2900个GPTsAI2开源训练方案Tülu 3,打破大模型后训练技术垄断亚马逊投资1.1亿美元用于Trainium芯片的AI 研究数据既要利用又要保护,安恒信息在互联网之光博览会上拿出一份AI+方案AI助力800年古迹浴火重生!时隔5年,巴黎圣母院终于完成修复三星推出全新 Gauss 2 AI 模型或将成为下一个Galaxy大脑微软公测 Translator Pro 翻译应用:打破职场语言障碍,可本地运行微软重拳出击:捣毁大型网络钓鱼平台 ONNX,斩断 240 个恶意域名专攻财务人员!“银狐”木马病毒出现新变种:通过微信、QQ群传播营收达 351 亿美元!黄仁勋认为英伟达股价将继续上涨的三个原因消息称亚马逊面临欧盟调查:是否在电商市场偏袒自有品牌产品智能手机2024收官在即,华为扔出王炸强势收尾消息称苹果正评估电视新品类,智能家居是关键为产业经济插上“数字羽翼”,魔珐有言AIGC“3D视频创作大赛”成功举办首款纯血鸿蒙TWS耳机!华为FreeBuds Pro 4宣布11月26日发布首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务“闲置经济”成新消费趋势,万物新生长期成长性如何?阿里整合电商业务,电商迎来终局一战?为什么在拼多多诞生了第1500亿个快递?
  • 首页 > 云计算频道 > 大模型

    1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX

    2024年03月28日 09:43:00   来源:AIGC开放社区公众号

      3月28日,著名数据和AI平台Databricks在官网正式开源大模型——DBRX。

      DBRX是一个专家混合模型(MoE)有1320亿参数,能生成文本/代码、数学推理等,有基础和微调两种模型。

      根据DBRX在MMLU、HumanEval和 GSM8K公布的测试数据显示,不仅性能超过了LLaMA2-70B和马斯克最近开源的Grok-1,推理效率比LLaMA2-70B快2倍,总参数却只有Grok-1的三分之一,是一款功能强算力消耗低的大模型。

      Databricks作为数据管理领域的超级独角兽,为了抓住生成式AI的风口,2023年6月26日曾以13亿美元的天价,收购了大模型开源平台MosaicML

      MosaicML曾在2023年5月5日发布了类ChatGPT开源大语言模型MPT-7B。(开源地址:https://huggingface.co/mosaicml/mpt-7b)该项目具备可商业化、高性能、算力消耗低、1T训练数据等技术优势。

      MPT-7B只进行了大约10天的训练,零人工干预,训练成本仅用了20万美元。性能却打败了LLaMA-7B、StablelM-7B 、Cerebras-13B等当时知名开源模型。

      截至目前,MPT-7B的下载量已超过300万次,而Databricks此次发布的DBRX在MPT-7B基础之上进行了大幅度优化并且将算力需求降低了4倍。

      DBRX简单介绍

      DBRX是一款基于Transformer的MoE架构大模型,1320亿参数中的360亿参数处于长期激活状态。

      这与其它开源的MoE类型模型如Mixtral、Grok-1相比,DBRX使用了数量更多的小专家模型。DBRX有16个专家并选择4个,而Mixtral和Grok-1有8个专家并选择了2个

      DBRX使用了12T的文本和代码数据(支持中文),支持32k上下文窗口,并在3072个 英伟达的 H100上进行了3个月的预训练。

      DBRX除了与开源模型进行了对比之外,还与OpenAI的GPT系列、谷歌的Gemini以及Anthropic最新发布的Claude3系列进行了同台竞技。

    图片

      MMLU、HellaSwag、WinoGrande、HumanEval等综合测试结果显示,DBRX推理、数学解答、语言理解、代码等能力超过了GPT-3.5,性能与谷歌的Gemini1.0Pro 性能差不多。

      什么是专家混合模型

      MoE模型全称为Mixture of Experts,其核心原理是将一个庞大的神经网络分解为多个相对独立的小型子网络(即专家),每个专家负责处理输入数据的某些方面。

      这种架构设计使得MoE模型能够高效利用计算资源,避免对所有参数进行无谓的计算。主要包括门控制机制、专家网络和聚合器三大模块

      门控机制:这是MoE模型的核心模块,负责决定每个输入应该由哪个或哪几个专家处理。

      门控机制会根据输入数据的特征分配权重给不同的专家,这个过程是动态的,意味着不同的输入会根据其内容被分配给最合适的专家处理。例如,Grok-1模型中只有大约25%的参数被实际使用或“激活”。

      专家网络:这些是模型中的子网络,每个都有自己特定的参数配置。在传统的MoE模型中,这些专家网络可以是结构相同但参数不同的多个神经网络。每个网络都专注于模型任务的一个方面或输入数据的一个子集。

      聚合器:一旦各个专家给出了自己对于输入的处理结果,聚合器则负责将这些结果综合起来,形成最终的输出。聚合的方式可以是简单的加权和、投票机制或者更复杂的融合策略。

      MoE是开发、训练超过千亿参数大模型常用的架构,例如,GPT-4、Palm2等著名大模型使用的都是该架构。

      文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。

    即时

    新闻

    明火炊具市场:三季度健康属性贯穿全类目

    奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。

    企业IT

    重庆创新公积金应用,“区块链+政务服务”显成效

    “以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。

    3C消费

    华硕ProArt创艺27 Pro PA279CRV显示器,高能实力,创

    华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。

    研究

    中国信通院罗松:深度解读《工业互联网标识解析体系

    9月14日,2024全球工业互联网大会——工业互联网标识解析专题论坛在沈阳成功举办。