
2026年3月28日,由魔乐社区主办、华为昇腾团队深度支持的「极限压缩量化未来」Modelers GeekDay 上海站在模速空间顺利举行。本次活动以“大模型量化”为核心主题,吸引了来自学术界与产业界的众多开发者参与量化挑战赛。参赛者来自上海交通大学、华东师范大学、上海科技大学、小鹏汽车、小宿科技、阿里巴巴、蚂蚁金服、腾讯、携程、中国工商银行、中国农业银行等多家知名高校与企业。
01
技术分享:从算法原理到工程实践

华为昇腾团队的量化工程师 汪明华
华为昇腾团队的量化工程师汪明华带来了《离群值抑制算法介绍与 msModelSlim 工具仓快速接入》的分享。她将量化类比为“高精度照片压缩为低精度版本但仍保持清晰度”,生动解释了量化的本质。随后,她深入剖析了大模型量化面临的三大难题:激活比权重更难量化、离群值让激活量化更困难、离群值持续存在于固定通道。针对这些问题,她系统介绍了 SmoothQuant 的核心思想——通过数学变换将激活的量化难度“迁移”到权重上,并拆解了校准、平滑、推理三阶段实现流程。在此基础上,她还介绍了 Iterative Smooth 与 Flex Smooth Quant 两种进阶算法,前者通过迭代优化平滑因子,后者引入双参数网格搜索实现精细调控。整场分享兼具理论深度与工程落地价值。

昇腾优秀开发者 丁一超
随后,昇腾优秀开发者丁一超以《如何入门大模型从量化到评测》为题,带来了一场从工具链到实战的完整路径分享。他介绍了 MindStudio-ModelSlim(msModelSlim)这一昇腾模型压缩工具,演示了一键量化命令与敏感层分析方法,帮助开发者快速定位量化过程中的精度瓶颈。在量化配置方面,他对比了 v0 与 v1 版本的配置文件差异,让开发者理解不同配置项的实际意义。接着,他重点分享了模型评测的实操经验,包括使用 vLLM Ascend 部署量化模型、通过 AISBench 评测平台完成精度验证,并给出了从 GitHub 拉取源代码、利用代理地址加速下载等实用建议。最后,他还结合自身踩过的坑,分享了查看量化模型大小、确认量化类型等细节,这些经验对量化工程落地具有很高的实用价值。
02
实战挑战:极限压缩中的技术较量

挑战赛现场
下午的挑战赛将活动推向高潮。参赛开发者需要在规定时间内,基于 Qwen3-next-80B 模型结构从 msModelSlim (昇腾模型压缩工具 MindStudio ModelSlim,一个以加速为目标、压缩为技术、昇腾为根本的亲和压缩工具。包含量化和压缩等一系列推理优化技术,旨在加速大语言稠密模型、MoE模型、多模态理解模型、多模态生成模型等。)已有的算法从 Smooth Quant/Iterative Smooth/Flex Smooth Quant/Flex AWQ SSZ 等离群值抑制算法中选取合适方案,完成 W4A8 量化策略的实现,并通过 vLLM Ascend 服务化测评在 AIME25 数据集上的精度表现,完成量化工程化落地的全流程。
比赛任务涵盖了模型适配器修改、量化配置文件编写、离群值抑制算法接入、量化执行与服务化部署、精度评测等多个环节,全面考验开发者在量化工程化落地中的综合能力。

冠军获得者
经过数小时的紧张攻关,来自小鹏汽车的开发者率先完成全部挑战,顺利通过精度验收,斩获本次挑战赛的冠军,获得奖金及荣誉证书。比赛过程中,现场技术专家也为参赛者提供了细致的答疑与指导,帮助大家深入理解量化调优的难点与解决思路,不少选手在赛后表示对量化工具链的理解有了明显提升。
03
生态共建,能力进阶
本次活动不仅是技术能力的比拼,更是国产算力生态与开发者深度互动的一次实践。魔乐社区携手华为昇腾团队,为开发者提供了从工具链到实战场景的全链路支持,推动量化技术从“可用”向“极致好用”迈进。
未来,魔乐社区将继续围绕模型压缩、国产算力适配、端侧部署等方向,打造更多高质量的技术活动与实战平台,助力开发者在大模型时代抢占先机。
感谢所有开发者、讲师与支持团队的参与,让我们共同期待下一次技术盛宴!
魔乐社区
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产 AI 生态繁荣发展。