微软研究人员挑战了语言模型(LM)预训练的传统方法,该方法在训练语料库中的所有token上均匀应用下一个token预测损失。相反,他们提出了一种新的语言模型称为 RHO-1,该模型利用选择性语言建模(SLM)。
RHO-1方法通过选择性训练与所需分布一致的有用token,而不是尝试预测每一个下一个token。他们引入了 Rho-Math-v0.1模型,其中 Rho-Math-1B 和 Rho-Math-7B 在 MATH 数据集上分别实现了15.6% 和31.0% 的少样本准确率,仅使用预训练token的3% 与 DeepSeekMath 相匹配。
Rho-Math-1B-Interpreter 是第一个在 MATH 数据集上实现超过40% 准确率的1B LLM。
Rho-Math-7B-Interpreter 在 MATH 数据集上实现52% 的准确率,仅使用69k 个样本进行微调。
RHO-1的 SLM 方法涉及使用参考模型对预训练token进行评分,并使用更加专注的损失对具有更高多余损失的token进行语言模型训练。这种选择性过程使 RHO-1能够在持续预训练15B OpenWebMath 语料库时,将9个数学任务的少样本准确率提高高达30%。
该模型在微调后在 MATH 数据集上实现了最先进的结果,并且在80B 通用token预训练时,在15个不同任务中平均提升了6.8%。
传统的训练方法通常使用启发式和分类器在文档级别上过滤数据,以提高数据质量和模型性能。然而,即使高质量的数据集可能包含对训练产生负面影响的嘈杂token。
SLM 方法直接解决了这个问题,通过专注于token级别,并在预训练期间消除不需要的token损失。
在研究中,SLM 在预训练期间选择的token与数学相关,有效地调整了模型对原始语料库的相关部分。研究人员在各个检查点中调查了token过滤,发现后续检查点选择的token倾向于在训练的后期具有更高的困惑度,并在早期具有更低的困惑度。
讨论部分强调了未来的工作,包括将 SLM 推广至数学领域以外的领域,将该技术扩展至更大的模型和数据集,以及探索在评分token时是否需要训练参考模型。
对 SLM 的改进可能包括重新加权token而不是选择它们,以及使用多个参考模型减少过拟合。
SLM 可以扩展到监督微调,以解决数据集中的噪声和分布不匹配,并通过训练一个强调帮助性、真实性和无害性的参考模型来获得在预训练期间获得本地对齐的基本模型。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。