最新资讯
科技风向标,聚焦前沿动态
10
2月 2026
华为发布业界首个扩散语言模型Agent,部分场景提速8倍!
扩散大语言模型(DLLMs)作为自回归(AR)解码的高效替代方案,其对智能体多步决策的影响尚未充分探索。核心问题:生成范式改变而框架与监督不变时,扩散主干是否会改变规划、工具使用行为并提升端到端效率? 实验显示,相同工作流与微调条件下,DLLM智能体精度与AR相当,但速度快30%以上(部分场景超8倍),交互轮次和工具调用更少,规划命中率更高、回溯更少。
29
1月 2026
AAAI 2026 论文速递
近日,AAAI 2026 正式在新加坡举办。今年大会共收到 23680 篇投稿论文,最终录用 4167 篇,整体录用率为 17.6%。华为诺亚方舟实验室共有 8 篇论文被 AAAI 2026 接收,其中 2 篇为 Oral 论文。
诺亚公众号
22
1月 2026
AAAI 2026 | 把大模型装进口袋:PocketLLM提出元网络压缩范式,实现10+倍极限无损压缩
随着大语言模型(LLM)参数量迈向千亿量级,如何在保持模型性能的同时,将其塞进手机、端侧设备等资源受限的环境,已成为AI落地“最后一公里”的核心挑战。传统的量化与剪枝技术在跨越4-bit阈值后往往面临严重的精度崩塌。近日,来自AAAI 2026的入选论文《PocketLLM》提出了一种基于元网络(Meta Networks)的极限压缩方案,通过在离散隐空间中重构权重,成功在10-16 倍压缩比下实现了几乎无损的性能表现。
诺亚公众号
16
1月 2026
轻如螳螂,稳如磐石:Mantis实现轻量又可靠的时序分类基础模型
近年来,面向多任务泛化的时间序列基础模型成为研究热点,但时序分类方向仍缺乏探索。为此,我们提出基于 ViT 架构的时序分类基础模型 Mantis,采用对比学习预训练,并通过轻量化适配器适配多元时序场景,在降低内存开销的同时高效建模跨通道依赖。实验显示,Mantis 在多个公开基准上实现出色的零样本泛化能力,平均性能超现有 SOTA 模型 1.5% 以上。
诺亚公众号
NOAH'S ARK LAB
Noah_ark_lab
noahlab1@huawei.com
关于华为
加入我们
合作生态
联系我们
版权所有 © 华为技术有限公司 1998-2026。保留一切权利。 | 法律声明