近日,有媒体报道称,百度正加紧训练文心大模型4.0,这将是文心大模型3.5版本后又一个重磅版本。据报道,文心大模型4.0进展比预期快很多,将是基础模型的大升级,理解、生成、逻辑、记忆核心能力都将提升,特别是在逻辑推理、代码和数学等方面提升最明显。
10月10日,记者从百度内部人士基本确认了该消息,据悉,即将推出的文心大模型4.0的参数量、训练数据量以及推理成本等都比3.5高出一个数量级。
今年3月16日,百度官宣新一代大语言模型“文心一言”启动邀测,8月31日正式面向公众开放服务。如今,文心大模型即将再度升级发布4.0版,如此迅速的大模型升级速度,在国内尚属唯一。只不过,快速升级的背后,文心大模型4.0快速攀升的参数量、数据量所带来的训练和推理成本提升,也正在成为大模型商业化过程中需要考虑的重点。
据此前消息报道,相比文心大模型3.5,文心4.0不仅训练成本在增加,推理成本也增加了很多,大概是此前的8-10倍。一直以来,百度并未对外披露大模型训练、推理的各项成本,不过据国盛证券此前估算,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM),训练成本介于200万美元至1200万美元之间。作为国内大语言模型代表,文心一言想要在性能上追赶甚至超越ChatGPT等国外同行,所需耗费的资金成本,恐怕也将与之相当。
过高的训练和推理成本压力下,在打造领先的底层基础大模型的路上,注定只能是一场巨头间的游戏。不过对于百度而言,由于具备万卡集群、飞桨、文心大模型以及丰富的百度应用生态优势,独具芯片、框架、模型及应用四层架构优势,更具技术竞争力。
在进一步降低大模型算力成本和时间成本上,百度万卡集群的整体优势已得到充分体现——在万卡集群训练大模型时,常规方法下工程师们有30%-40%时间都花在容错和故障恢复上,而在百度智能云自研的集群组网故障管理机制下,模型有效训练时间达到95%以上,人力及算力资源均得到了利用。
真金白银投入的背后,目前国外大模型厂商已开始尝试收费模式,无论是在面向企业客户的B端垂类大模型开发,还是面向消费群体的To C付费产品,均有不少案例。例如,在面向C端消费者付费领域,目前GPT-4已推出“每月支付20美元订阅费”的收费模式。
可以预见,不远的将来,以百度为代表的大模型企业们,或将陆续推出收费模式。在To C大模型AI应用层面,类似爱奇艺或百度网盘VIP会员的收费模式,也将不断浮现,逐渐培养用户付费习惯。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。