11月10日消息,来自微软 Azure 和微软研究院的一组研究人员推出了一个高效的 FP8 混合精度框架,专为大型语言模型训练量身定制。
经过测试,与广泛采用的 BF16 混合精度方法相比,FP8 混合精度框架内存占用减少 27% 至 42%,权重梯度通信开销显著降低 63% 至 65%。
运行速度比广泛采用的 BF16 框架(例如 Megatron-LM)快了 64%,比英伟达 Transformer Engine 的速度快了 17%。
在训练 GPT-175B 模型时,混合 FP8 精度框架在 H100 GPU 平台上节省 21% 的内存,而且相比较 TE(Transformer Engine),训练时间减少 17%。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。