CANN/AMCT OFMR大模型量化
2026/5/9 15:32:45 网站建设 项目流程

AMCT大模型量化

【免费下载链接】amctAMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。项目地址: https://gitcode.com/cann/amct

1 量化前提

1.1 安装依赖

本sample依赖包可参考requirements.txt

需要注意的是torch_npu包版本需要与Python、torch包版本相匹配,需要安装CANN包

1.2 模型和数据集准备

本sample以Llama2-7b,qwen2-7b,qwen3-8b模型,pileval数据,wikitext2数据集为示例。 模型请用户自行下载,并传模型路径到脚本,数据集为在线加载。

1.3 简易量化配置

本sample中使用的量化配置已经内置在工具中,可以通过下述方式获取并使用:

from amct_pytorch import HIFP8_OFMR_CFG

如果需要修改详细配置,请参考资料构造需要的量化配置dict。

ofmr算法支持仅权重量化和全量化,支持的量化类型以及量化配置:

字段类型说明取值范围注意事项
batch_numuint32量化使用的batch数量1/
skip_layersstr跳过量化的层/跳过量化层支持模糊匹配,当配置字符串为层名字串,或与层名一致时,跳过该层量化,不生成量化配置。字符串必须包含数字或字母
weights.typestr量化后权重类型'float8_e4m3fn'/'hifloat8'/
weights.symmtricbool对称量化TRUE/
weights.strategystr量化粒度'tensor'/'channel'/
inputs.typestr量化后激活值类型'float8_e4m3fn'/'hifloat8'/
inputs.symmtricbool对称量化TRUE/
inputs.strategystr量化粒度'tensor'/
algorithmdict量化使用的算法配置{'ofmr'}/

2 量化示例

2.1 使用接口方式调用

step 1.请在当前目录执行如下命令运行示例程序,用户需根据实际情况修改示例程序中的模型路径:

python3 src/run_llama2_samples.py --model_path=/data/Llama2_7b_hf/
python3 src/run_qwen_samples.py --model_path=/data/Qwen2-7b/
python3 src/run_qwen_samples.py --model_path=/data/Qwen3-8B/

若出现如下信息,则说明量化成功:

Test time taken: 1.0 min 59.24865388870239 s Score: 5.477707

其中Score为量化模型PPL,具体数值参考下表:

模型校准集数据集量化前PPL量化后PPL
LLAMA2-7Bpilevalwikitext25.4725.505
QWEN2-7Bpilevalwikitext27.1377.196
QWEN3-8Bpilevalwikitext29.7159.808

推理成功后,在当前目录会生成量化日志文件./amct_log/amct_pytorch.log

【免费下载链接】amctAMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。项目地址: https://gitcode.com/cann/amct

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询