2月18日晚间,百度发布2024年第四季度及全年财报。财报显示,百度2024年总营收达1331亿元,归属百度核心的净利润达234亿元,同比增长21%。百度的AI大模型和云计算业务尤其受到关注。财报显示,2024年12月,文心大模型日均调用量达16.5亿;四季度,智能云营收同比增长26%。
公开数据显示,自2024年第一季度以来,百度智能云业务已经连续四个季度实现同比双位数增长,在第四季度增速又明显加大。第三季度百度智能云营收达49亿元,同比增长11%。到了四季度,同比增速已翻倍至26%。
“2024年是我们从以互联网为中心转向以人工智能为先的关键一年。随着我们全栈AI技术得到广泛的市场认可,智能云的增长态势愈发强劲。”百度创始人、董事长兼首席执行官李彦宏表示。
2025年刚开年,百度又接连公布了多项AI方面的最新计划,包括文心下一代大模型开源、文心一言全面免费、文心一言上线深度搜索功能等;百度搜索和文心智能体平台将全面接入DeepSeek和文心大模型最新的深度搜索功能;此外,百度还宣布点亮昆仑芯万卡集群,智能云接入DeepSeek后提供业界最低价格……
这些举措涵盖底层算力、云计算、基础大模型和产品应用等众多层面,革新的力度空前。分析认为,这将进一步扩大百度AI大模型的影响力和智能云业务优势,其“大模型+云计算”的飞轮效应在2025年或将更加凸显。
01
「AI驱动云业务高速增长」
财报显示,2024年百度AI业务增长显著。在大模型方面,2024年,文心大模型日均调用量已达16.5亿。与23年同期的5000万次相比,一年狂飙33倍。在AI应用方面,2024年12月,百度文库AI 月活跃用户达到9400万,同比增长216%,环比增长83%。
在AI营收方面,电话会上透露,2024年第四季度云收入中AI相关收入同比增长近3倍。据公开信息,百度文库付费用户超4000万,位居全球第二、中国第一。2024年12月百度APP月活用户达6.79亿,季度内百度核心在线营销收入179亿元。
受AI驱动,百度智能云在四季度呈现高速增长,同比增速达26%。据透露,2024年百度实现了中国最大的大模型产业落地规模,超60%以上的央国企及大量民营企业使用。
有统计显示,2024年全年,国内大模型中标项目共910个,是2023年的4.5倍;中标金额25.2亿元,是2023年的4倍。而在所有的中标厂商中,百度智能云在中标项目数、行业覆盖数、央国企中标项目数这三个维度里均为第一。而且在前五大行业中,百度智能云在能源、政务、金融三个行业的中标项目数位于所有厂商第一。
以国家电网为例。2024年12月19日,国家电网有限公司发布电力行业大模型——光明大模型,并与百度签署战略合作协议。在双方2020年战略合作的基础上,百度继续支持国家电网打造了国内首个千亿级多模态电力行业大模型。其中,百度智能云为国家电网提供了通用基础大模型与工具链平台、相关底层技术等重要支持,并在电网规划、电网运维、电网运行、客户服务等专业领域探索大模型应用。
据Gartner预测,到2027年,企业使用的AI 模型中将有一半以上具有特定行业或业务功能,而在2023年这一比例仅为不到1%。在2024年11月举办的百度世界2024大会上,百度发布了基于大模型的100大产业应用。李彦宏在现场表示,百度不是要推出一个“超级应用”,而是要不断地帮助更多企业打造出数百万“超级有用”的应用。
02
「抢占AI应用爆发最佳身位」
2024年,“产业落地”成了大模型风潮的关键词。这种趋势还在加速。业内普遍认为,AI应用将在2025年迎来爆发。
当前,AI 模型快速更新换代,在语言理解、生成、推理、多模态输出等方面的能力不断增强,使得AI在复杂任务如教育、医疗诊断等更多领域的应用成为可能,尤其API 调用价格极速下降,这让更多的企业能够负担得起AI技术的应用,从而加速AI应用的普及。
大模型的使用量与AI应用的需求量将进入激增时期,第一受益方无疑就是云计算,尤其是能提供更高性价比、更低部署门槛、更方便开发AI应用的智能云,而这也正是百度多年前就开始布局的。
“今天,当我们谈论大型语言模型时,12个月内推理成本基本上可以降低90%以上成本。”李彦宏不久前在参加“世界政府峰会”时表示。百度此时宣布将下一代模型开源,必然也有成本的考虑,这意味着百度已经将成本降得足够低。
早在2013年,百度就开始布局AI,12年来积攒了深厚的技术家底。目前,百度已在云基础设施、深度学习框架、大模型、AI应用四层技术架构方面,实现了全栈自研。在此基础上,百度能够实现端到端优化,不仅大幅提升了模型训练和推理的效率,还进一步降低了综合成本。
百度智能云成功点亮昆仑芯三代万卡集群,成为国内首个正式点亮的自研万卡集群,之后将进一步点亮3万卡集群。其昆仑芯在性能上表现卓越,能够在更少的计算资源下运行大规模模型(如DeepSeek-V3/R1)。成熟的万卡集群管理和部署能力,进一步降低模型训练成本。百舸AI异构计算平台4.0已具备成熟的10万卡集群部署和管理能力,且在万卡集群上实现了99.5%以上的有效训练时长,能够将两种芯片混合训练大模型的效率折损控制在5%以内,达到业界领先水平。
百度在模型推理部署方面也有比较大的优势,尤其是在飞桨深度学习框架的支持下,其中并行推理、量化推理等都是飞桨在大模型推理上的自研技术。飞桨和文心的联合优化可以实现推理性能提升,推理成本降低。
在大模型层面,除了当前的文心大模型矩阵,2025年,百度还将发布多款模型,如文心4.5、5.0等,预计多模态能力将显著增强。在自家模型之外,百度智能云千帆大模型平台已接入国内外上百个主流大模型,调用价格具有很高性价比。
近期千帆平台接入了爆火的DeepSeek R1和V3模型,以低于DeepSeek-V3官方刊例价3折和DeepSeek-R1官方刊例价5折的价格,让企业用户优先、实惠地率先体验到了“满血版”的最新模型。拉动效果显著,数据显示,模型上线首日,已有超1.5万家客户通过千帆平台进行模型调用。
可以看出,在AI应用爆发的前夜,百度智能云凭借全栈技术布局和多方位的成本优势,已抢占极佳身位。
03
「2025新飞轮加速」
2025年刚开年,大模型领域热闹非凡,大模型厂商动作频频,一个值得注意的趋势是,开源和免费成为了新的潮流。
在国内,百度的反应非常敏捷。从免费到开源,从大模型到AI搜索,百度很快打出一套组合拳。
2月13日,文心一言在官网宣布将于4月1日起全面免费,所有PC端和App端用户均可体验文心系列最新模型。同时,文心一言上线深度搜索功能,该功能也将于4月1日起免费开放使用。这天凌晨,OpenAI首席执行官Sam Altman公布了GPT-4.5和GPT-5的最新消息。免费版ChatGPT能在标准智能设置下无限制地使用GPT - 5进行对话。
2月14日,百度宣布将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源。2月16日,百度搜索宣布将全面接入DeepSeek和文心大模型最新的深度搜索功能。
春节期间DeepSeek-R1降本出圈,百度文心也开启免费,各大AI厂商在提高模型性能和降低使用成本方面加速进化,种种动作将进一步加快推进国内大模型应用爆发。
更关键的是,AI的全面普及,最受益的反而是拥有数据、场景和生态的厂商。
以AI搜索为例。一方面,百度搜索的开放性使其能整合全网信息,结合DeepSeek的推理能力与文心大模型的多模态处理能力,覆盖更广泛的用户需求场景;另一方面,通过智能体平台吸引开发者共创工具,形成“技术+开发者+场景”多轮驱动的良性生态。
百度App月活跃用户约7亿,百家号有1100万内容创作者,文心智能体平台开发者突破80万。其生态优势将逐渐显现。
专家分析,随着文心大模型的免费和开源,其影响力将持续增强。文心大模型的开源还将进一步扩大云业务优势,形成“开源引流+云服务变现”的商业路径,增强飞轮效应。可以预期,百度智能云业务在2025年将迎来更大的增长。
百度凭借多年的深厚积累,不管在芯片算力、云计算、大模型、2B行业应用乃至2C软硬件产品,进行了全面布局。其技术领先性和布局全面性,在国内无疑仍处于第一梯队。对百度来说,2025年的AI市场有竞争,更有机遇。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。