猫眼电影
猫眼电影记者 金范 报道首次登录送91元红包
机器之心发布
机器之心编辑部
今年,文本生成领域迎来了从自回归(Auto-Regressive)向扩散语言模型(Diffusion LM)的重要范式转变。然而,长序列训练的不稳定性一直是制约扩散模型发展的核心痛点。上下文窗口限制使得模型在处理复杂的数学推理、编程任务,尤其是需要深度推理的「慢思考」场景时,显得捉襟见肘。
华为近日正式发布 openPangu-R-7B-Diffusion,基于openPangu-Embedded-7B 进行少量数据(800B tokens)续训练,成功将扩散语言模型的上下文长度扩展至 32K
在「慢思考」能力的加持下,该模型在多个权威基准中创下了 7B 参数量级的全新 SOTA 纪录:
多学科知识(MMLU-Pro):超越 16B 参数量的 LLaDA 2.0-mini-preview22%数学推理(MATH):得分,大幅领先同类模型。代码生成(MBPP):得分,展现出卓越的逻辑泛化能力。
Base模型链接:https://ai.gitcode.com/ascend-tribe/openPangu-7B-Diffusion-Base慢思考模型链接:https://ai.gitcode.com/ascend-tribe/openPangu-R-7B-Diffusion
接下来,我们将深入解析这款模型背后的技术革新。
1. 架构创新:
前文因果注意力掩码,自回归到 BlockDiffusion 的无缝迁移
openPangu-R-7B-Diffusion 在注意力机制上并未沿用传统扩散模型(如 LLaDA)的全注意力(Full Attention),也未采用 SDAR 或 Fast-dLLMv2 的分块掩码(Block Attention),而是创新性地融合了自回归的前文因果注意力掩码(Causal Attention Mask)。
这一设计从根本上解决了架构适配难题:
消除适配壁垒:以往将自回归模型适配至扩散模型,往往需要 Attention Mask Annealing 或 Shift Operation 等复杂操作来弥合差异。而 openPangu-R-7B-Diffusion 通过保留前文的因果注意力特性,使得模型仅需从「预测 Next Token」转变为「预测 Next Block 中的 Mask Token」,极大地降低了适配成本。兼容性最大化:该设计让模型能够自然继承自回归模型的预训练知识,为长窗口训练打下坚实基础。
2. 训练与推理:双模式解码与效率倍增
在训练策略上,openPangu-R-7B-Diffusion 延续了 BlockDiffusion 的思路(拼接带掩码的 Block 与无掩码的 Context),但进行了关键优化:
Context 利用率 100%:传统方法往往忽略无掩码 Context 部分的 Loss 计算,导致一半的数据被浪费。openPangu-R-7B-Diffusion 则将这部分数据用于标准的自回归 Next Token Prediction 训练。双模式解码:这种训练方式赋予了模型「自回归 + 扩散」的双重解码能力。用户可以通过不同的采样设置,灵活权衡生成质量与速度。极致性能:模型完整保留了变长推理与 KV-Cache 特性。在并行解码模式下,其速度最高可达自回归解码的2.5 倍
可视化实测:亲眼见证「慢思考」与扩散生成的融合
为了更直观地展示 openPangu-R-7B-Diffusion 的工作机制,我们对模型的推理过程进行了可视化处理。
在输入一道经典的数学逻辑推理题(Claire 的煎蛋问题)后,我们可以清晰地观察到扩散语言模型的独特生成方式:模型并非像传统自回归模型那样「逐词蹦出」,而是在 4 个生成步数(Generation Steps)内,并行地将多个 [MASK] 噪声逐步去噪还原为
、Claire、makes 等清晰的语义 Token。
图中首位的Token 尤为关键,它标志着模型正在启动我们前文提到的 「慢思考」模式。这种结合了扩散并行生成与深度思维链(Chain-of-Thought)的能力,正是 openPangu-R-7B-Diffusion 能够在数学和编程基准上大幅超越同类模型的核心原因。
结语:开启扩散语言模型的新篇章
openPangu-R-7B-Diffusion 的发布,不仅仅是一个新模型的开源,更是对「扩散模型能否处理复杂长文本」这一难题的有力回应。凭借其创新的因果注意力掩码架构,它成功证明了扩散模型不仅可以「快」(并行解码),更可以「深」(32K 长文与慢思考)。
值得一提的是,openPangu-R-7B-Diffusion 的训练、推理及评测全流程均在昇腾 NPU集群上完成,有力证明了国产算力在以前沿扩散语言模型领域的强劲实力。
时事1:网上游戏厅
12月28日,世卫组织发布新型减肥药物使用指南,苏自申:男,1975年12月出生,2017年10月起任国任保险副总裁,2018年1月至2025年6月任财务负责人。曾任广州市市政工程维修处财务会计科财务总监,深圳市建筑设计研究总院有限公司董事、财务总监,深圳市笋岗华润置地发展有限公司副总经理。,万喜国际真人游戏。
12月28日,2025中国金球奖各奖项候选者名单揭晓,供给收缩、需求扩张之下,原本持续压制锂价的库存压力缓解明显,行业供需关系随之得到显著改善。,天博app官网地址下载,ag注册平台,最大赌场网址是多少。
时事2:亚洲版365
12月28日,《习近平谈治国理政》中肯读者会在内罗毕举行,此前杭州、潍坊、昆明、青岛、深圳、成都、湖州等地均已出台规定,将出租车业从业年限上调至65周岁。,世界杯2026投注软件,世界杯竞彩彩票网站,沙巴体育app皇冠。
12月28日,“十四五”期间长三角铁路中欧班列开行量年均增长7%,新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。,现金网官网娱乐,体育平台大全app,皇冠在哪开户。
时事3:买球app下载官网
12月28日,截至10月底公募基金管理规模达36.96万亿元,现代汽车同样在电动汽车领域投入了数十亿美元,其转型策略则兼顾多方特点:和通用一样,现代将继续在售现有电动车型,且预计还会推出全新电动车型;同时也效仿福特,决定加大对混动车型的布局力度,并将佐治亚州一座耗资 76 亿美元的全新工厂产能,分配给现代与起亚的混动及燃油车型生产。,k8k8,tbvip天博体育,官网体育投注。
12月28日,深圳制造业从规模领先走向价值引领,西部证券发布研报称,据液冷产业链最前沿数据,2026年谷歌TPUv7及以上等级芯片预计出货约220万颗—230万颗,测算2026年谷歌机柜液冷市场规模为24亿美元—29亿美元。展望2026年,国产芯片出货有望保持高增,叠加AI超节点整机出货形式采用率的快速提升,将给国内液冷市场带来高增机遇。,ROR下载,宝马会投注登录,凤凰02下载。
时事4:世界杯怎么买球比较好
12月28日,中央社会工作部有关部门负责同志就修订后的《社会工作者职业资格考试大纲》答记者问,今年36岁的李樟煜,已经在残疾人自行车项目征战多年。2012年伦敦残奥会,他第一次实现了残奥冠军梦。接下来,从里约到东京,再到巴黎,他带着梦想破风前行,每届残奥会都有金牌入账。据介绍,李樟煜获得的各类国际赛事奖牌已有50多枚。,MG视讯充值就送,威尼斯人网页版,必赢亚洲官网主页入口。
12月28日,国务院食安办部署加强元旦、春节和全国两会期间食品安全工作,警察与消防车获报已经到场抢救中,根据消防部门最新消息,一名乘客被压在车厢底部,获救时头、腹部有开放性伤口,已明显死亡,警方将到场协助厘清死因。(海外网 杨佳),天博体育进不去了,今日3d开奖号码,球探体育比分去广告。
责编:康生
审核:登贝莱
责编:涂礼蓉












