TAG:混合专家架构

欧洲AI巨头推出全能模型Mistral Small 4 支持推理多模态编程

欧洲AI巨头推出全能模型Mistral Small 4 支持推理多模态编程

Mistral AI 发布全能型大模型 Mistral Small4,首次在单一模型中集成旗舰级推理、多模态理解和编程能力。采用 MoE 架构,拥有 256k 超长上下文窗口,性能较前代提升显著,并以 Apache2.0 协议开源,为开发者提供高效灵活的选择。

2026-03-20 15:38
0
0

英伟达发布最强开源AI模型Nemotron 3 Super 120B参数性能提升5倍

英伟达发布最强开源AI模型Nemotron 3 Super 120B参数性能提升5倍

英伟达发布最强开源权重AI模型Nemotron 3 Super,拥有1200亿参数,采用混合专家架构,吞吐量提升5倍。该模型专为大规模运行复杂智能体系统设计,支持100万Token上下文窗口,显著降低多步推理成本。开发者可通过Hugging Face和各大云服务商获取。

2026-03-12 11:29
0
0

Arcee发布Trinity模型 挑战美国开源AI格局

Arcee发布Trinity模型 挑战美国开源AI格局

美国初创公司Arcee AI推出Trinity系列开源模型,包括Trinity Mini和Trinity Nano Preview,采用创新的注意力优先混合专家(AFMoE)架构,提升推理能力和长文本处理效率。模型在美国训练,采用Apache2.0许可证,旨在重塑美国在开源AI领域的地位,并计划于2026年发布更大规模的Trinity Large模型。

2025-12-03 15:59
16
0

推荐专栏

爱力方

爱力方

机器人前沿资讯及信息解读
机器人大讲堂

机器人大讲堂

中国顶尖的机器人专业媒体服务平台
关注爱力方,掌握前沿具身智能动态

© 2025 A³·爱力方

https://www.agent.ren/