AI驱动网络连接新纪元,锐捷网络发布全场景园区网络解决方案贝壳董事会主席彭永东拟捐900万股 部分用于应届毕业生等租客群体的租房帮扶雪中送炭! 京东出口转内销扶持计划助力厨电品牌长帝破局升级格创东智与香港大学共建工业AI联合实验室,推动香港成为全球工业AI创新枢纽Reachy2开源人形机器人正式开售JetBrains 推出编码智能体 Junie AI,助力编程与调试全新体验谷歌 Gemini Live 功能全面开放,安卓用户迎来新体验月之暗面Kimi开源数学定理证明模型Kimina-Prover字节发布豆包1.5深度思考模型:多模态深度思考、延迟低微信低调上线首个AI助手“元宝”,这功能有点香OpenAI发布两款多模态推理模型o4-mini、满血版o3苹果Vision Air头显配置曝光:将采用钛金属,深蓝配色抢眼卡西欧推出60周年纪念款计算器 融合日本传统纹样设计vivo X200 Ultra真机图曝光:蔡司大师镜头加持,旗舰配置拉满AI火花集|从技术竞速到应用共生,阿里云和AI火花先锋“解锁”中国AI应用的破局之路追风者正式公布Evolv S2机箱:延续 X2整体设计,高度有所降低阿里云等多家单位联合起草 首个云超算国标 GB / T 45400-2025 发布消息称联想旗下摩托罗拉与美 AI 公司 Perplexity 达成协议,刀锋折叠机将用上新助手iQOO Z10 Turbo 系列手机全系标配旗舰同款自研电竞芯片 Q1AMD锐龙 Z2 A掌机处理器被曝基于 "Van Gogh" 芯片
  • 首页 > 云计算频道 > 大模型

    Midjourney新研究发力创意文本生成,让LLM写作更具创意

    2025年03月25日 10:39:13   来源:AIbase基地

      以AI图像生成技术闻名遐迩的Midjourney,正悄然展现其在人工智能领域的更广阔野心。这家拥有庞大用户群体的科技公司,在自研计算和AI硬件的消息之后,近期携手纽约大学(NYU)的机器学习专家,发布了一项关于训练文本生成大语言模型(LLMs)的最新研究成果。

      该研究聚焦于提升LLM在创意写作方面的能力,旨在使AI模型能够像Meta的Llama和Mistral等开源模型一样,写出更具创造性的文本。

      不止于图像:Midjourney发力创意文本生成

      对于一家以扩散模型AI图像生成技术著称的公司而言,Midjourney此次在文本生成领域的创新尝试,无疑向外界传递了一个明确的信号:他们的目标远不止于视觉内容。正如研究人员所言,“一图胜千言”的传统观念或许将被改写,文本的创意潜力同样值得深入挖掘。Midjourney正在用实际行动证明,其在AI领域的探索是多元化的。

      告别“套路”:创新技术提升AI写作多样性

      该项发表于AI代码社区Hugging Face的研究论文,创新性地提出了两种名为“多样化直接偏好优化”(Diversified Direct Preference Optimization, DDPO)和“多样化赔率比偏好优化”(Diversified Odds Ratio Preference Optimization, DORPO)的新技术。这两项技术的核心目标在于扩大AI模型生成文本的范围,使其在保持连贯性和可读性的前提下,呈现出更加丰富多样的内容。

      研究人员指出,尽管当前的LLM在事实性问答或代码辅助等领域表现出色,能够生成“最优解”,但在创意写作领域,由于其开放性,对同一个提示本应存在多种有效的回应。例如,对于“写一个关于月球上的狗的故事”这样的提示,人类可能会构思出宇航员遗落在月球上的宠物狗、未来犬类太空殖民地的狗狗,或是与外星生物成为朋友的流浪狗等多种截然不同的情节。

      然而,经过指令调优的LLM往往会收敛于相似的故事线和主题。这主要是因为后期训练技术更侧重于用户偏好而非原创性,强化了流行但重复的答案;同时,指令调优也可能平滑了变异性,使模型倾向于生成“安全”但缺乏新意的回应。此外,现有的多样性促进技术(如温度调整)通常只在模型推理阶段发挥作用,而没有融入到模型的学习过程中。这最终导致AI生成的创意写作显得同质化,缺乏惊喜和深度。

      让AI模型“另辟蹊径”

      为了克服这些局限性,Midjourney的研究团队对现有的偏好优化方法进行了改进,引入了DDPO和DORPO。这两项创新的核心在于利用“偏差”(deviation)——即一个回应与其他回应的差异程度——来指导模型训练。

      具体来说,在训练过程中,模型会接收一个写作提示和多个可能的回答。随后,每个回答都会与其他同提示下的回答进行比较,并计算出一个偏差分数。那些罕见但高质量的回应在训练中会被赋予更高的权重,从而鼓励模型从更多样化的例子中学习。通过将偏差融入到直接偏好优化(DPO)和赔率比偏好优化(ORPO)中,模型能够学习生成更高质量且更具差异性的回应。这种方法确保了AI生成的故事不会局限于单一可预测的结构,而是能够探索更广泛的角色、设定和主题,就像人类作家一样。

      为了验证这些新方法的有效性,研究人员使用了Reddit社区r/writingPrompts上的数据集对LLM进行训练。他们选择了Meta的Llama-3.1-8B(一个80亿参数的模型)和Mistral AI的Mistral-7B-v0.3(一个70亿参数的模型)作为基础模型。

      训练过程包括监督式微调(SFT)和偏好优化两个阶段。在偏好优化阶段,他们首先使用标准的DPO和ORPO作为基线,然后应用DDPO和DORPO引入基于偏差的权重。最后,通过自动评估(测量语义和文体多样性)和人工评估(判断输出的多样性和吸引力,并与GPT-4o和Claude3.5进行比较)来评估模型性能。

      实验结果显示,DDPO在保持输出质量的同时,显著优于标准的DPO。搭载DDPO的Llama-3.1-8B在质量和多样性之间取得了最佳平衡,其生成的回应比GPT-4o更加多样化,同时保持了良好的连贯性。即使在数据集规模缩小的情况下,DDPO模型仍然能够保持一定的多样性。

      赋能各行业:AI创意内容潜力无限

      这项研究对于需要使用AI生成创意文本的企业而言,具有重要的实际意义。例如,在营销文案、企业故事讲述以及影视游戏剧本创作等领域,提升AI生成内容的多样性和质量至关重要。对于负责LLM部署的AI团队而言,如何在保证质量的前提下增强输出的多样性是一个关键挑战。Midjourney的研究为解决这一难题提供了一种新的思路。

      该研究提出了一种新的LLM后训练方法,能够在不牺牲质量的前提下增强创造力。它还提供了一种实用的替代方案,可以取代推理时期的多样性调整(如调整温度),将多样性直接融入到模型的学习过程中。这有望开发出更具吸引力的AI应用,例如AI辅助写作工具和能够动态调整回应的虚拟助手。

      对于负责AI模型编排和自动化的专业人士来说,这项研究强调了在训练阶段调整模型的重要性,从而减少部署后进行后处理调整的需求。它还提供了一种将自适应叙事引入AI驱动应用的方法,确保内容的可变性,同时保持高质量。此外,该方法有助于使LLM的输出更像人类,这对于需要互动叙事、客户互动或动态内容创建的应用至关重要。

      结语

      DDPO和DORPO的成功表明,以多样性为目标训练LLM可以在创意写作方面取得显著的进步。未来,将基于偏差的学习方法集成到企业AI模型中,以增强面向客户的应用中的响应多样性,探索这些方法在诗歌、剧本创作或游戏故事等其他生成任务中的应用,以及开发平衡多样性和指令遵循能力的混合训练方法,都将是值得期待的研究方向。

      Midjourney的研究团队计划公开其代码,这无疑将为那些希望应用这些技术的开发者提供宝贵的资源。通过采纳这些创新技术,AI团队有望突破僵化、公式化的输出模式,构建出不仅智能,而且真正富有想象力的AI系统。

      文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。

    即时

    新闻

    明火炊具市场:三季度健康属性贯穿全类目

    奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。

    企业IT

    重庆创新公积金应用,“区块链+政务服务”显成效

    “以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。

    3C消费

    华硕ProArt创艺27 Pro PA279CRV显示器,高能实力,创

    华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。