TAG:小模型

阿里黑科技炸场!0.6B 小模型“魔改”成 17B MoE,激活参数仅 5%,CPU 直接跑 30token/s!

阿里黑科技炸场!0.6B 小模型“魔改”成 17B MoE,激活参数仅 5%,CPU 直接跑 30token/s!

本文介绍阿里国际数字商业团队推出的Marco-Mini-Instruct MoE模型,该模型通过Upcycling技术由0.6B小模型升级为17B总参数规模,激活参数仅5%,CPU上可实现30token/s的推理速度,性能超越4B级Dense模型,为行业提供了低成本、高效率的MoE炼制新路径,大幅降低中小团队落地MoE的门槛。

2026-04-10 10:53
0
0

英伟达小模型成本仅为GPT-5 Pro三十六分之一

英伟达小模型成本仅为GPT-5 Pro三十六分之一

英伟达4B小模型NVARC在ARC-AGI2评测中以27.64%的成绩超越GPT-5 Pro,同时单任务成本仅为20美分,远低于对手的7美元。文章详细介绍了其零预训练深度学习方法和创新的合成数据管道,展示了小模型在特定领域的高效适应性和成本优势。

爱力方 2025-12-08 16:28
17
0

MIT 创企 Liquid AI 推出企业级小模型训练蓝图LFM2

MIT 创企 Liquid AI 推出企业级小模型训练蓝图LFM2

麻省理工学院创企Liquid AI发布了第二代Liquid Foundation Models(LFM2),这是一种采用创新“liquid”架构的企业级小模型,在设备端提供高速、高效的AI推理能力。LFM2在质量和CPU吞吐量上超越同类模型,支持手机、笔记本电脑等设备上的实时隐私保护应用。公司还公开了详细技术蓝图,帮助其他组织根据自身硬件约束训练定制化高效模型。

爱力方 2025-12-02 17:09
34
0

推荐专栏

爱力方

爱力方

机器人前沿资讯及信息解读
机器人大讲堂

机器人大讲堂

中国顶尖的机器人专业媒体服务平台
关注爱力方,掌握前沿具身智能动态

© 2025 A³·爱力方

https://www.agent.ren/