TAG:MoE架构
腾讯混元2.0内测启动,406B参数号称推理性能国内领先
腾讯发布新一代自研大模型混元2.0,总参数达406B,采用MoE架构提升推理速度,在数学、代码等复杂任务上表现突出,支持256K长上下文窗口。模型已在腾讯云API及元宝、ima等应用灰度上线,并计划于2026年开源,推动国产大模型生态发展。
蚂蚁百灵大模型团队开源Ring-flash-linear-2.0-128K,混合注意力+MoE架构重塑长文本编程效率
蚂蚁百灵大模型团队开源Ring-flash-linear-2.0-128K,采用混合线性注意力机制和MoE稀疏架构,仅激活6.1B参数即可媲美40B密集模型性能。该模型原生支持128K上下文窗口,可扩展至512K,在代码生成和长文本编程任务中实现SOTA表现,推理速度提升3倍以上,为开发者提供高效AI编程解决方案。
AI振兴网络视听每一帧,但人仍是不可替代的灵魂
2026-04-15
0 浏览
中国工程院院士郑纬民:从模型服务走向词元服务,是智能体时代对基础设施的必然要求
2026-04-15
0 浏览
微软接手OpenAI挪威星际之门项目 加码AI算力布局
2026-04-15
0 浏览
让AI帮忙买保险结果付款给了陌生人?每经记者亲测:通用AI和保险AI用谁买保险更靠谱
2026-04-15
0 浏览
爱奇艺创始人、首席执行官龚宇:期待AI生成的高品质影视作品
2026-04-15
0 浏览
激进投资者施压叠加AI效率提升 Snap启动16%裁员计划 股价盘前大涨11%
2026-04-15
0 浏览
地平线副总裁吕鹏:物理AI时代需打造超级平台,舱驾融合是智能电动2026发展方向
2026-04-15
0 浏览
加纳驻华大使携手APUS签署战略合作,启动KOJO BONSU GEN Z AI CLUB
2026-04-15
0 浏览
AI时代背景下初高中学习:真人老师与AI工具谁更能提升学习效果
2026-04-15
0 浏览
佰维存储Q1净利28.99亿元实现扭亏为盈 AI端侧存储收入增近5倍
2026-04-15
0 浏览