首页   

RSQ:关注重要信息,让大模型压缩更出色 查看图片 //@爱可-20250305075914

爱可可-爱生活  · AI  · 昨天

正文

2025-03-05 07:59

RSQ:关注重要信息,让大模型压缩更出色 查看图片 //@爱可可-爱生活:RSQ 论文创新性地提出了一种基于 token 重要性的后训练量化框架,通过旋转权重、重要性缩放和结合注意力集中策略,显著提升了低比特率量化后大语言模型在下游任务和长文本任务上的性能,揭示了在模型压缩过程中优先学习重要信息而非均匀压缩所有信息的反直觉但有效的策略。
[LG]《RSQ: Learning from Important Tokens Leads to Better Quantized LLMs》Y Sung, P Yadav, J Li, J Yoon... [UNC at Chapel Hill] (2025) 网页链接 #机器学习##人工智能##论文##AI创造营#
© 2024 精读
删除内容请联系邮箱 2879853325@qq.com