由于面临美国芯片限制和比西方同行更少的预算,中国人工智能(AI)公司正在降低成本以创建具有竞争力的模型。01.ai(零一万物)和DeepSeek(深度求索)等初创公司通过采取一些策略来降低价格,例如专注于较小的数据集来训练人工智能模型,以及聘请低价但熟练的计算机工程师。
阿里巴巴、百度和字节跳动等大型科技集团也展开了价格战,以降低“推理”成本(即调用大型语言模型生成响应的价格),大模型价格下降90%以上,仅为美国同行的一小部分。
总部位于北京的01.ai由前谷歌中国区总裁李开复领导,该公司表示,通过构建以较少数据量进行训练、需要较少计算能力的模型并优化硬件,该公司已经降低了推理成本。
李开复表示:“中国的优势在于制造出真正价格实惠的推理引擎,然后让其应用广泛传播。”
近日,在加州大学伯克利分校SkyLab和LMSYS的研究人员发布的排名中,01.ai的Yi-Lightning模型与马斯克名下公司x.AI的Grok-2在LLM(大模型)公司中并列第三,但落后于OpenAI和谷歌。
评估基于用户对不同模型对查询答案的评分。字节跳动、阿里巴巴和DeepSeek等其他中国公司也在大模型排名榜上名列前茅。
01.ai的Yi-Lightning的推理成本为每百万token 14美分,而OpenAI的较小模型GPT o1-mini的推理成本为26美分。与此同时,OpenAI规模更大的GPT 4o的推理成本为每百万token 4.40美元。用于生成响应的token数量取决于查询的复杂性。
李开复还表示,Yi-Lightning的“预训练”成本为300万美元,初始模型训练之后可以针对不同用例进行微调或定制。这只是OpenAI等公司对其大型模型所报成本的一小部分。他补充说,其目标不是拥有“最佳模型”,而是一个具有竞争力的模型,开发人员使用它来构建应用程序的成本“要低5到10倍”。
01.ai、DeepSeek、MiniMax、Stepfun等许多中国人工智能团体都采用了所谓的“混合专家模型(MoE)”方法,这一策略首先由美国研究人员推广。
该方法不是在从互联网和其他来源抓取数据的庞大数据库上一次性训练一个“密集模型”,而是结合了许多针对行业特定数据进行训练的神经网络。
研究人员认为,混合专家模型方法是实现与密集模型相同智能水平但计算能力较低的关键方法。但这种方法更容易失败,因为工程师必须协调多个“专家”的训练过程,而不是在一个模型中。
由于难以获得稳定充足的高端人工智能芯片供应,中国人工智能企业在过去一年中一直在竞相开发最高质量的数据集,以训练这些“专家”,从而使自己在竞争中脱颖而出。
李开复说:“中国的优势不在于在预算不受限制的情况下,进行前所未有的突破性研究。中国的优势在于建设得好、快、可靠且便宜。”
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。