毕尔巴鄂对阵皇家社会:两支近邻球队将于西甲联赛 “巴斯克德比”中为捍卫荣耀而战贝壳第三季度营收226亿元 经调净利润17.8 亿元 同比下降17.46%AI营销,让科技巨头尝到了大模型商业化的甜头安恒信息范渊在乌镇峰会谈AI:以工具视之、以工具用之、以工具治理之诺基亚与微软再合作,为 Azure 数据中心供货延长五年天岳先进发布业界首款 300mm(12 英寸)N 型碳化硅衬底三星介绍内部安全团队 Project Infinity 攻防演练项目,高效修复 Galaxy 手机平板漏洞上海市将推进低空飞行服务管理能力建设,2027 年底前累计划设相应航线不少于 400 条岁末,海尔给您备好一套“小红花”为什么说Q10K Pro是今年最值得入手的电视?看完这几点就明白了!“小墨方·大不凡”!Brother“小墨方”系列彩喷一体机全新上市黄仁勋:AI智能需求强劲,“物理定律”限制英伟达芯片增长诺基亚与微软再合作,为Azure数据中心供货延长五年国家数据局:到2029年基本建成国家数据基础设施主体结构中国已发展成为全球最大的互联网市场,拥有全球最多的网民和移动互联网用户中国铁塔:计划按照10:1的比例合股美国FCC正式划定5.9GHz频段用于C-V2X技术在AI领域奋起直追!苹果要对Siri大革新 2026年正式发布日本机构公布量子专利榜单:本源量子、国盾量子位居全球第1中国联通:拟向华为、中兴展开5G网络设备竞争性谈判采购
  • 首页 > 云计算频道 > 大模型

    52万张GPU集群塞进一个「盒子」?AI神器破解百模争霸困局!

    2024年10月17日 15:26:10   来源:新智元公众号

      【新智元导读】「算力」堪称是AI时代最大的痛。在国外,OpenAI因为微软造GPU集群的速度太慢而算力告急。在国内,企业则面临着「模型算力太多元、产业生态太分散」这一难题。不过,最近新诞生的一款「AI神器」,令人眼前一亮。

      如今,快速灵活地获取算力可谓是刚需,就连OpenAI也不例外。

      最近,The Information爆料:曾经约定微软是独家云服务器供应商的OpenAI,已经开始找其他家要买算力了。

      原因就在于,微软提供算力的速度太慢了!

      OpenAI既想要微软提供更先进、算力更强的GPU集群,又要他们加快建设进度。

      但微软的计划是,在明年年底之前为OpenAI提供约30万块英伟达GB200。

      于是,OpenAI找到了甲骨文,开始洽谈一个预计可在2026年中获得几十万块英伟达AI芯片的数据中心项目。

      无独有偶,在算力需求这一块,国内智能算力的年复合增长率预计也将达到33.9%。

      但在更进一步的大模型落地上,相比起只缺算力的OpenAI,国内的企业则面临着更多的挑战,比如算力资源管理困难、模型微调复杂等等。

      模型算力太多元,产业生态太离散

      根据赛迪研究院的数据,2023年我国生成式人工智能企业采用率达15%,市场规模约14.4万亿元。

      另一方面据公开数据显示,2023年全年,国内市场对大模型公开招投标的项目只有不到200家,金额5个多亿;而到了2024年,仅上半年的项目就达到了486个,金额13个多亿。

      其中,软件的占比在2023年为11%,而2024年上半年却只有5%。相比之下,大模型相关服务则从去年的17%暴涨到今年上半年的30%。也就是说,企业对大模型硬件和服务的需求,基本占了90%以上。

      对比可以发现,模型应用和市场趋势之间,存在着巨大的鸿沟。

      造成这一现象的原因,首先,就是大模型的幻觉问题。

      大模型在预训练阶段所用的知识是通用为主,但在企业的专业领域中,如果还是以算概率来驱动的方式生硬输出,就会答非所问。

      第二,要实现大模型与行业场景的深度结合,应用开发流程复杂,应用门槛高。

      微调、RAG都要分多个子步骤,应用开发还需要不同专业团队长期协作,研发难度大,耗时也很长。

      第三,在不同场景下,不同业务对模型能力有多样需求,比如推理速度快、生成精度高、函数和代码能力强。

      由于业务生成环境往往的多模并存,使用的算力资源也是多元并用的。多模和多元的适配问题,常需要软件整个重构,难度大,成本高。

      此外,在产业生态上,从芯片到软件框架,再到模型本身,不同厂商的产品数据源不同、技术标准不一,很难统一适配。

      在本地化的大模型应用生成与落地中,这些挑战会更加显著。

      如何才能让企业(尤其是传统企业)的大模型应用迅速落地?

      这时,业内迫切地需要高效、易用、端到端的软硬一体化解决方案,来支撑大模型行业落地。

      如果有这样一种开箱即用的产品,无论是模型本身、应用开发,还是算力问题,都能迎刃而解。

      算力即得

      针对这些痛点,LANGCHAO信息推出了堪称AI应用开发「超级工作台」的元脑企智EPAI一体机。

      从算力、平台,到服务,提供了一站式大模型开发平台。

      面向真实场景,平台提供了数据处理工具、模型微调工具、增强知识检索工具、应用开发框架等。

      而根据不同模型的能力特点,平台还支持调用多模态算法和多元算力。

      最强AI算力平台

      为了覆盖不同的需求,一体机共有5种规格——基础版、标准版、创新版、高级版、集群版。

      总的来说,元脑企智EPAI一体机具备了卓越的算力性能和极致的弹性架构,可支持延时RDMA网络和高性能并行存储。

      它们通过分布式并行加速、混合精度计算、高性能算子技术,提升了模型的训练和推理速度,实现应用高并发高能效处理、业务快速上线的需求。

      在训练稳定性方面,元脑企智EPAI一体机专为LLM训练微调优化提供了断点续训能力,为大模型训练保驾护航,优化升级算力池化与分配策略,支持按需弹性扩缩容。

      接下来,分别看下五个一体机不同的特点。其中,创新版、高级版和集群版均能同时支持训练和推理。

      面向模型推理的基础版配备了8块4090D GPU,性价比最高

      标准版则搭载了基于Hopper架构的HGX模块化AI超算平台,8颗GPU通过NVlink高效互联

      创新版可以为多元算力提供深度适配

      高级版专为那些对算力有极高需求的客户而定制,并且提供了训推全流程自动化开发测试工具链

      集群版,顾名思义就是机柜级的训推一体机——为那些业务规模较大,有分期建设、按需扩展需求的企业所定制的最高配

      值得一提的是,在网络单元上,集群版配备了LANGCHAO信息自研的「大模型专用交换机」——超级AI以太网交换机X400。

      它最高能够扩展到524,288张GPU的超大规模AI算力系统,而且凭借AR自适应路由、端到端拥塞控制、亚毫秒级故障自愈等技术,性能提升至传统RoCE网络的1.6倍。

      由此,大型集群实现了超高吞吐量、高可扩展性和超高可靠性。在LLM训练性能提升同时,也大幅缩短训练时长、降低训练成本。

      除了硬件上的创新之外,所有的一体机也全部预置了元脑企智(EPAI)大模型开发平台。

      这种软硬一体化交付,正是LANGCHAO信息一体机最大优势所在。

      开箱即用

      有了元脑企智EPAI,LANGCHAO信息的一体机才能为企业客户们,提供开箱即用的能力。

      更具体地讲,元脑企智EPAI是专为企业AI大模型应用,高效、易用、安全落地而打造的端到端开发平台。

      从数据准备、模型训练、知识检索、应用框架等工具全面涉及,而且还支持调度多元算力和多元模型。

      元脑企智EPAI的完整架构

      多元多模

      首先,元脑企智EPAI平台最核心的一部分是,平台底座能够适配多元多模的基础设施。

      多元多模计算框架TensorGlue

      多模是指,支持多种模型和多种计算框架。

      其中,预置了Yuan2.0、Baichuan2、ChatGLM3、Qwen1.5、GLM4、Llama3等7个基础大模型,以及应用DEMO样例。

      还有10+计算框架(MegtronLM、DeepSpeed、Pytorch、Transformer、Llamafactory、Fastchat等),以及多种微调能力,如监督微调、直接偏好优化、人类反馈强化学习等。

      同时,它还能广泛支持主流基础大模型结构,支持与用户自研模型的灵活适配和对接。

      多元算力管理调度AIStation

      而AIStation的作用在于,能够对支持超数千节点的AI服务器。

      它可以进行异构算力集群的统一池化管理,通过自适应系统将训练底层的计算、存储、网络环境实现自动化配置。

      从开发、训练、微调,再到应用部署,EPAI能够实现全生命周期监管和异常全自动化处理。

      而且针对不同业务场景,设备故障自动容错,保证业务时长高效、稳定运行。

      简单易用

      一体机的简单易用,便体现在了数据准备/生成、微调训练、推理部署中,全部实现自动化。

      从企业大模型开发部署业务流程来看,具备通用知识的LLM,就像刚毕业的大学生一样,需要学习企业知识。

      因此,第一步数据最关键。

      高质量数据自动生成

      当前互联网训练数据远远不足,尤其是专业化的数据,而AI数据生成恰好能弥补这一弊端。

      高质量数据,才是保障AI模型应用效果的第一要素。

      那么企业如何在种类多样、规模庞大数据库中,生成微调数据,并减少处理成本?又该如何将专业化数据为模型所用?

      元脑企智EPAI平台通过高质量数据生成,攻破了难题。

      企业仅需将原始数据上传,元脑企智EPAI将其提取为文本txt,各种结构化/非结构化文档均可支持。

      然后利用大模型生成问题答案对,也就是可以直接微调使用的数据。

      最后一步通过「微调数据增强」让AI再自动生成同类型、同主题高质量微调数据。

      这一过程,还会对数据抽取后,进行向量编码。

      举个栗子,「Apple」会被编码成很长一个向量,其中含了很多丰富的语义信息。它可能代表水果一类,也可能代表苹果公司等等。

      全链路微调训练工具

      有了数据,接下来就要微调模型了。

      好在元脑企智EPAI平台对LLM微调时所需的环境、框架、配置代码等一系列流程,完成了封装。

      开发者无需动手写代码,就能微调出领域大模型。

      从数据导入、训练参数配置、资源类型配置等均由平台自动管理,大幅提升微调任务的效率。

      训练微调完成后,模型部署和上线也是由元脑企智EPAI接手,还提供了多种评估的方式。

      总之,高效的数据处理工具,支持微调数据自动生成和扩展,为模型微调训练提供丰富数据源;丰富、完整的模型训练工具,支持SFT优化方式,训练之后支持一键部署。

      此外,元脑企智EPAI还支持API、对话式UI、智能体三类使用方式。

      如下是对话式UI界面的样子。

      支持RAG,弥补LLM知识无法及时更新难题

      另外,还需考虑的一个问题是,LLM幻觉之所产生,是因为无法及时获取到新知识。

      而元脑企智EPAI集成了LANGCHAO信息自研的RAG系统,帮助大模型提升了应用效果。

      仅需上传一个原始文档,就可以让LLM基于文档内容,进行精准问答和信息检索,快速构建出领域问答能力。

      同时,它还预置了一亿条的基础知识库,能够实现端到端30%召回率。

      在话式UI界面中,知识库管理中可以上传企业、行业、基础三大类知识。

      它还支持检索溯源、混合检索、结果重排,由此可以提升端到端检索精度。

      数据安全,隐私保护

      一体机另一个优势在于, 能够保护企业的私有数据不出域,杜绝数据风险。

      内置的元脑企智EPAI平台,可以提供全链路的防护,从文件级数据加密、访问控制,到数据存储、备份恢复。

      它可以精准控制每个用户数据、模型、知识库、服务的权限,保障多场景使用安全。

      还有内容多级过滤和审核体系,对用户输入、模型输出进行快速、准确审核,保障生成内容的安全性与隐私性。

      AI应用,每个企业皆可开发

      正是因为有以上种种优势,元脑企智EPAI能广泛地赋能企业内部的各类应用场景。

      比如研发的代码生成、部门助理,生产的故障识别、维修方案生成,销售的智能客服、文案协作,行政的招聘助手,公文写作等。

      开发速度快到低至1周,培训周期短到最快3天。

      在LANGCHAO信息内部,元脑企智EPAI就已经大大加快了大家的工作流。

      以前如果有数百万行私有代码,注释少,可读性差,需要参考几十页上下文的PDF,专业工程师单个函数开发就需要3周。

      但现在LANGCHAO信息利用智能编程助手,可以直接把开发周期缩短至2天。

      它能对数十万行代码自动解析,由AI自动生成超过65%的计算框架代码,为研发工程师每天节省了近3个小时的代码。

      而基于元脑企智EPAI打造的智能客服大脑「源小服」,涵盖了10+年的产品资料和5000+复杂场景,直接学习了2万余份产品文档、用户手册,百万余条对话等材料。

      对于常见技术问题的解决率达到了80%,整体服务效率提升了160%,斩获了《哈佛商业评论》「鼎革奖」的年度新技术突破奖。

      百模争霸,不再卡在落地

      因为具有以上优势,元脑企智EPAI一体机就为用户解决了燃眉之急。

      其中一类重要客户,就是传统制造业客户。

      尤其是大型制造业客户,无论是CIO、团队,还是三产公司,在数据、人员、技术方面都有很多积累,而应用本身也有应用牵引的趋势。

      而另一类,就是传统的ISV(独立软件开发商)客户。

      对于他们,LANGCHAO信息有上百号博士团队在做算力、算法、框架的应用开发工作,在算力上也很强,优势明显。

      还有一些用户,需要有对大模型专门的调优能力。

      目前的情况是,对于非常专业的应用领域,国内能卖相关服务不多,花很高的代价,也未必找得到。

      原本LANGCHAO信息有这个能力,但没有开放。如今,LANGCHAO信息把经验、服务都集成到了一体机的产品中,正好满足了他们的需求。

      在LANGCHAO信息看来,如今大模型落地的最大痛点,不是算法,也不是产品,而是行业的know-how。

      如果数据不ready,也很难通过一个工具、一个软件或一台设备去解决。

      但这时如果有一个一体机的产品,还能跟懂行业、懂数据但不懂AI的ISV互相赋能,大模型的落地就会变得很容易。

      从2021年开始到现在,LANGCHAO信息已成行业里的骨灰级玩家。比如2021年做完源1.0后,22年LANGCHAO信息就已经在用RAG做内部智能客服系统。

      如今,凭着对模型本身的know-how,以及模型使用上的know-how,LANGCHAO信息再次赋能自己的合作伙伴,加速企业大模型应用开发,打通了大模型落地最后一公里的难题。

      文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。

    即时

    新闻

    明火炊具市场:三季度健康属性贯穿全类目

    奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。

    企业IT

    重庆创新公积金应用,“区块链+政务服务”显成效

    “以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。

    3C消费

    华硕ProArt创艺27 Pro PA279CRV显示器,高能实力,创

    华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。

    研究

    中国信通院罗松:深度解读《工业互联网标识解析体系

    9月14日,2024全球工业互联网大会——工业互联网标识解析专题论坛在沈阳成功举办。