TAG:xLLM-Core
AI推理的“新王”驾到?当xLLM-Core,用20毫秒的延迟,向vLLM发起挑战
xLLM社区将于12月6日举办首届线下Meetup,重磅发布自研开源推理引擎xLLM-Core。该引擎支持MoE、文生图、文生视频全场景,通过统一计算图和Mooncake缓存方案实现P99延迟低于20ms,较vLLM性能提升42%,吞吐量提升2.1倍。现场将分享京东双11实战案例,展示峰值每秒40k请求处理能力,并发布Apache 2.0开源版本。
美股三大指数震荡整理,芯片股走高,光通信板块大涨
2026-05-11
0 浏览
多空胶着恒指震荡整理,AI景气外溢主导行情波动
2026-05-11
0 浏览
宠物AI公司PurrPurr获阿尔法公社投资 首年GMV目标5000万
2026-05-11
0 浏览
隆源股份业绩说明会回应今年新能源汽车零部件领域新客户洽谈中
2026-05-11
0 浏览
中国品牌市占率达75%,4月我国汽车销量约252.6万辆,新能源汽车出口贡献度近五成
2026-05-11
0 浏览
4月汽车出口增长51% 国内零售下跌超20%
2026-05-11
0 浏览
4月全国新能源汽车渗透率历史首次突破60%,燃油车零售同比暴跌37%
2026-05-11
0 浏览
港股复盘:强势翻红 芯片概念股冲高回落 短期风险需警惕
2026-05-11
0 浏览
申昊科技拟设具身智能子公司 加码人形机器人业务
2026-05-11
0 浏览