产业焕新 科技创新 服务更新 东风汽车“以旧换新”行动促进汽车消费提振联动SunPump,HTX为去中心化生态打开新入口领北京政府补贴到京东购电脑至高立减2000元 联想拯救者笔记本、台式机热销1.2万选手共赴“AI爱因斯坦”之约,第二届世界科学智能大赛初赛结束、复赛开启天津市大模型应用生态基地揭牌中国科学院、阿里云发布首个月球专业大模型,撞击坑年代判别准确率超 80%星纪魅族获得红旗手机开发技术采购,有望操刀红旗首款机型消息称谷歌拟在越南建设“超大规模”数据中心,预计 2027 年建成最强端侧开源AI模型Zamba2-mini登场:12亿参数,4bit量化下内存占用小于700MBRuStore革新:启动全平台支付新工具开学换新季,ROG爆款电竞显示器,狂欢超值数据驱动营销 七彩之星助力企业在市场竞争中脱颖而出亨通光电上半年净利润16.09亿元 同比增长28.80%消息称OPPO全家桶10月“凑齐”:Find X8/Pro手机+Pad3 Pro平板+Enco X3耳机华为发布玄机感知系统 为可穿戴设备下一轮竞赛热身广和通上半年营收40.75亿元 同比增长5.42%为nova 13让路!华为nova 12系列官方降价:最高便宜500元 2199元起消息称台积电有望9月启动2nm制程MPW服务,吸引下游企业抢先布局真我 realme CEO 李炳忠:计划未来三年内出货1亿部AI手机金士顿积极布局直播带货新通路 深化渠道扶持政策
  • 首页 > 云计算频道 > 大模型

    原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

    2024年07月17日 14:59:46   来源:新智元公众号

      最近,7B小模型又成为了AI巨头们竞相追赶的潮流。继谷歌的Gemma27B后,Mistral今天又发布了两个7B模型,分别是针对STEM学科的Mathstral,以及使用Mamaba架构的代码模型Codestral Mamba。

      Mistral又惊喜上新了!

      就在今天,Mistral发布了两款小模型:Mathstral7B和Codestral Mamba7B。

      首先是专为数学推理和科学发现设计的Mathstral7B。

      在MATH基准测试中,它获得了56.6% pass@1的成绩,比Minerva540B提高了20%以上。Mathstral在MATH上的得分为68.4%,使用奖励模型得分为74.6%。

      而代码模型Codestral Mamba,是首批采用Mamba2架构的开源模型之一。

      它是可用的7B代码模型中最佳的,使用256k token的上下文长度进行训练。

      两款模型均在Apache2.0许可证下发布,目前权重都已上传HuggingFace仓库。

      Mathstral

      有趣的是,根据官宣文章,Mathstral的发布恰好庆祝了阿基米德2311周年诞辰。

      Mathstral专为STEM学科设计,以解决需要复杂、多步骤推理的高级数学问题。参数仅有7B,上下文窗口为32k。

      而且,Mathstral的研发还有一个重量级的合作伙伴——上周刚刚在Kaggle第一届AI奥数竞赛中得到冠军宝座的Numina。

      而且,有推特网友发现,Mathstral可以正确回答「9.·11和9.9哪个更大」这个难倒一众大模型的问题。

      整数、小数分开比较,思维链清清楚楚,可以说是数学模型优秀作业的典范了。

      基于Mistral7B的语言能力,Mathstral进一步聚焦STEM学科。根据MMLU的学科分解结果,数学、物理、生物、化学、统计学、计算机科学等领域都是Mathstral的绝对优势项目。

      根据官方博客文章的透露,Mathstral似乎牺牲了一些推理速度以换取模型性能,但从测评结果来看,这种权衡是值得的。

      在多个数学、推理领域的基准测试中,Mathstral打败了Llama38B、Gemma29B等流行的小模型,特别是在AMC2023、AIME2024这类数学竞赛题上达到了SOTA。

      而且,还可以进一步增加推理时间以取得更好的模型效果。

      如果对64个候选使用多数投票(majority voting),Mathstral在MATH上的分数可以达到68.37%,进一步添加额外的奖励模型,还能取得74.59%的高分。

      除了HuggingFace和la Plateforme平台,还可以调用官方发布的Mistral-finetune和Mistral Inference两个开源SDK,使用或微调模型。

      Codestral Mamba

      继沿用Transformer架构的Mixtral系列发布后,第一个采用Mamba2架构的代码生成模型Codestral Mamba也问世了。

      而且,研发过程也得到了Mamba原作者Albert Gu和Tri Dao的协助。

      有趣的是,官宣文章专门cue到了和🐍有关的「埃及艳后」Cleopatra七世,她就是戏剧般地用一条毒蛇终结了自己的生命。

      Mamba架构发布后,其优越的实验性能得到了广泛的关注和看好,但由于整个AI社区在Transformer上投入了太多成本,我们至今也很少看到实际采用Mamba的工业界模型。

      此时,Codestral Mamba恰好能为我们提供研究新架构的全新视角。

      Mamba架构首发于2023年12月,两位作者又在今年5月推出了更新版的Mamba-2。

      与Transformer不同,Mamba模型具有线性时间推理的优势,并且理论上能够建模无限长度的序列。

      同为7B模型,Mathstral的上下文窗口只有32k时,Codestral Mamba却能扩展到256k。

      这种推理时间和上下文长度方面的效率优势,以及实现快速响应的潜力,在用于提升编码效率的实际场景中尤为重要。

      Mistral团队正是看到了Mamba模型的这种优势,因而率先尝试。从基准测试来看,7B参数的Codestral Mamba不仅比其他7B模型有明显优势,甚至可以和更大规模的模型掰掰手腕。

      在8个基准测试中,Codestral Mamba基本达到了和Code Llama34B相匹配的效果,甚至在其中6个测试上实现了性能超越。

      然而相比大姐姐Codestral22B,Codestral Mamba的参数量劣势就体现出来了,依旧显得能力不足。

      值得一提的是,Codestral22B还是不到两个月前发布的新模型,再次感叹一下总部在巴黎的Mistral竟如此之卷。

      Codestral Mamba同样可以使用Mistral-inference部署,或者英伟达发布的快速部署API TensorRL-LLM。

      对于本地运行,官方博客表示,可以留意后续llama.cpp的支持。但ollama行动迅速,已经将Mathstral加入到了模型库中。

      面对网友催更codestral mamba,ollama也非常给力地表示:「已经在弄了,稍安勿躁。」

      文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。

    即时

    原 Character.AI CEO 诺姆 沙泽尔“回家”后履新,消息称

    据 The Information 北京时间今天晨间报道,谷歌发送给员工的消息显示,本月重返谷歌的 Character.AI联合创始人兼原 CEO 诺姆 沙泽尔(Noam Shazeer)将担任谷歌 AI 项目 Gemini 的联合技术负责人。

    新闻

    敢闯技术无人区 TCL实业斩获多项AWE 2024艾普兰奖

    近日,中国家电及消费电子博览会(AWE 2024)隆重开幕。全球领先的智能终端企业TCL实业携多款创新技术和新品亮相,以敢为精神勇闯技术无人区,斩获四项AWE 2024艾普兰大奖。

    企业IT

    重庆创新公积金应用,“区块链+政务服务”显成效

    “以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。

    3C消费

    “纯臻4K 视界焕新”——爱普生4K 3LCD 激光工程投影

    2024年3月12日,由爱普生举办的主题为“纯臻4K 视界焕新”新品发布会在上海盛大举行。

    研究

    2024全球开发者先锋大会即将开幕

    由世界人工智能大会组委会、上海市经信委、徐汇区政府、临港新片区管委会共同指导,由上海市人工智能行业协会联合上海人工智能实验室、上海临港经济发展(集团)有限公司、开放原子开源基金会主办的“2024全球开发者先锋大会”,将于2024年3月23日至24日举办。