TAG:量化压缩

腾讯开源超轻量离线翻译模型,手机端运行仅需0.4GB内存

腾讯开源超轻量离线翻译模型,手机端运行仅需0.4GB内存

腾讯混元团队开源超轻量离线翻译模型Hy-MT1.5-1.8B-1.25bit,将33种语言翻译能力压缩至约440MB,可在手机端断网运行。文章重点介绍其量化压缩技术、实测性能、隐私优势及多场景落地价值。

2026-04-30 11:06
0
0

谷歌 TurboQuant 发布:LLM 键值缓存压缩六倍速度提升八倍 零精度损失无需训练

谷歌 TurboQuant 发布:LLM 键值缓存压缩六倍速度提升八倍 零精度损失无需训练

谷歌研究团队发布全新向量量化算法 TurboQuant,通过 PolarQuant 与 QJL 技术实现 LLM 键值缓存内存压缩6倍、推理速度提升8倍,零精度损失且无需训练。该技术可显著降低 AI 推理成本,推动长上下文应用落地,适用于广泛场景。

2026-03-26 17:43
45
0

推荐专栏

爱力方

爱力方

机器人前沿资讯及信息解读
机器人大讲堂

机器人大讲堂

中国顶尖的机器人专业媒体服务平台
关注爱力方,掌握前沿具身智能动态

© 2025 A³·爱力方

https://www.agentren.cn/