TAG:VLA模型

星动纪元拿下具身奥林匹克三项全球第一 成绩超越PI

星动纪元拿下具身奥林匹克三项全球第一 成绩超越PI

在真机具身智能顶级赛事Benjie's Humanoid Olympic Games中,星动纪元凭自研VLA具身模型在剥橘子、开锁、翻袜子三项任务全面超越Physical Intelligence(PI),斩获三项全球第一并刷新纪录。文章解析赛事严苛规则、关键指标与星动纪元在小样本学习、视觉注意力与高频推理规划等技术上的突破。

2026-04-13 18:33
0
0

RL Token攻克VLA精度难题 在线强化学习助机器人精准操控

RL Token攻克VLA精度难题 在线强化学习助机器人精准操控

RL Token提出一种创新的在线强化学习框架,通过轻量级接口让预训练VLA模型在真实机器人上实现高精度操作的快速优化。该方法在保持泛化能力的同时,解决了传统方法在‘最后一厘米’精度任务中的效率与稳定性难题,为机器人灵巧操控提供了高效、可落地的技术路径。

2026-03-31 11:19
0
0

UNC团队攻克VLA模型痛点 新方案提升任务成功率17%

UNC团队攻克VLA模型痛点 新方案提升任务成功率17%

北卡罗来纳大学教堂山分校团队揭示VLA模型在真实场景中因视觉主导语言而产生的指令偏离问题,提出无需修改架构的CAG优化方案,通过双分支对比引导语言决策,使任务成功率平均提升17.2%,反事实失效显著减少,为具身智能落地提供关键突破。

2026-03-16 18:12
0
0

DreamZero开创具身智能新范式 语言理解迈向世界建模

DreamZero开创具身智能新范式 语言理解迈向世界建模

本文探讨了具身智能领域中VLA模型面临的泛化能力不足和物理建模困难等问题,并介绍了英伟达推出的DreamZero,一种基于预训练视频扩散模型的新一代世界动作模型(WAM),通过整合视频与机器人动作,实现了跨任务、跨环境的零样本泛化和实时控制。

2026-03-12 14:48
0
0

智元机器人ACoT-VLA框架获CVPR 2026收录 实现机器人动作空间自主决策

智元机器人ACoT-VLA框架获CVPR 2026收录 实现机器人动作空间自主决策

本文介绍了智元机器人联合北航团队提出的ACoT-VLA框架,该框架直接在动作空间进行思考决策,成功解决机器人执行动作中的语义与运动鸿沟问题,并在LIBERO、LIBEROPlus和VLABench三大基准测试中取得优异成绩。文章也探讨了其技术原理和创新点。

2026-03-11 13:44
0
0

智元ACoT-VLA入选CVPR 2026 开源助力AGIBOT挑战赛

智元ACoT-VLA入选CVPR 2026 开源助力AGIBOT挑战赛

智元机器人联合北京航空航天大学推出的ACoT-VLA架构入选CVPR 2026,开创了在动作空间进行推理的思维链范式。该模型通过显式与隐式推理模块的结合,显著提升了机器人在复杂环境下的操控性能,并作为AGIBOT WORLD CHALLENGE的基线模型开源,助力全球开发者推动具身智能技术的发展。

机器人大讲堂 2026-03-09 21:18
0
0

PI VLA模型解读:多尺度具身记忆终结机器人金鱼脑

PI VLA模型解读:多尺度具身记忆终结机器人金鱼脑

本文解读了Physical Intelligence团队提出的多尺度具身记忆(MEM)技术,该技术为VLA模型赋予了长达15分钟的连贯记忆能力,使机器人能够完成复杂的长时程任务。文章深入分析了机器人记忆实现的技术困境,包括存储与延迟的矛盾、长短时记忆的差异等问题,并展示了MEM如何突破这些瓶颈,推动具身智能进入全任务统筹的新阶段。

2026-03-08 19:37
0
0

KAIST与UC Berkeley团队为VLA模型赋予记忆 实测成功率提升一倍

KAIST与UC Berkeley团队为VLA模型赋予记忆 实测成功率提升一倍

KAIST和UC Berkeley团队提出的HAMLET框架为视觉-语言-动作模型添加了历史记忆能力,解决了机器人在长时任务中因缺乏上下文而失败的问题。该轻量级插件通过时刻令牌和记忆模块整合关键历史信息,无需从头训练大模型,即在真实场景任务中将成功率提升高达47.2%,同时保持高效推理速度。

2026-02-17 09:41
11
0

国产开源双臂机器人LingBot-VLA问世,2万小时实拍数据开启机器人GPT时刻

国产开源双臂机器人LingBot-VLA问世,2万小时实拍数据开启机器人GPT时刻

LingBot-VLA是一款国产开源双臂机器人视觉-语言-动作基础模型,通过整合9个主流平台约2万小时的真实世界操作数据进行预训练,显著提升了模型泛化能力和训练效率。该模型采用先进的视觉-语言骨干网络与扩散式动作头架构,在RoboTwin 2.0基准测试中表现出优越性能,并验证了数据规模与任务成功率之间的缩放法则。

2026-02-02 16:43
21
0

Helix 02:移动与操作融合,实现人形机器人全身控制的VLA模型

Helix 02:移动与操作融合,实现人形机器人全身控制的VLA模型

本文介绍了Figure公司发布的Helix 02模型,该模型通过三层系统架构(System 0/1/2)实现了人形机器人移动与操作的无缝融合。文章详细阐述了其如何解决传统方案中动作僵化、切换迟缓的问题,通过统一的视觉语言模型(VLA)实现从场景理解到全身关节控制的实时、自主协同,提升了机器人在动态环境中的鲁棒性和自然运动能力。

2026-02-02 16:43
33
0

具身智能需摆脱中国先研国外带火怪圈

具身智能需摆脱中国先研国外带火怪圈

本文探讨了具身智能领域的发展现状,指出中国研究者在关键技术架构上早有先见,却常由海外团队带火的现象。文章以VLA模型为例,分析了中国团队如智平方在RoboMamba等创新上的突破,强调中国玩家正以更系统、深入的方式参与智能竞争,避免历史重演。内容涵盖技术演进、行业格局及未来挑战,旨在回归系统与架构的本质思考。

2026-02-02 15:38
0
0

微软跨维智能新品发布 阶跃星辰临界点获融资

微软跨维智能新品发布 阶跃星辰临界点获融资

本文报道了近期具身智能领域的重要动态,包括微软发布首个机器人VLA+模型Rho-alpha、跨维智能开源具身智能工具链EmbodiChain、日本公司推出人形机器人Cinnamon 1,以及阶跃星辰、临界点、浙江人形等多家公司完成大额融资。文章梳理了技术突破与资本动向,展现了具身智能产业的快速发展与商业化前景。

2026-01-28 18:43
31
0

PI VLA模型解读:从π0.6到人机技能迁移的涌现

PI VLA模型解读:从π0.6到人机技能迁移的涌现

本文是PI VLA模型解读系列的第三篇,重点介绍了Physical Intelligence发布的具身智能VLA模型π0.6的架构设计、训练数据及改进点,并探讨了其引入的RECAP方法以及观察到的人机技能迁移涌现现象,展现了模型在机器人操作任务中性能的显著提升。

2026-01-26 16:16
69
0

PI VLA模型解读系列二:π0.5模型与实时分块算法RTC

PI VLA模型解读系列二:π0.5模型与实时分块算法RTC

本文深入解读PI VLA模型系列的第二部分,重点介绍了从π0.5模型到实时分块算法(RTC)的技术演进。文章详细阐述了π0.5模型如何通过多源异构数据协同训练提升泛化能力,以及知识绝缘VLA(π0.5-KI)新范式如何实现高效训练与精准控制。同时,解析了实时动作分块算法的原理及其对VLA模型的普适性价值。

2026-01-19 16:40
134
0

智元SOP突破机器人训练瓶颈 VLA模型实现分布式在线后训练

智元SOP突破机器人训练瓶颈 VLA模型实现分布式在线后训练

智元机器人提出的SOP系统是一种可扩展在线后训练框架,旨在解决VLA模型在真实世界部署中面临的挑战。该系统通过闭环的Actor-Learner架构,利用异构机器人集群持续采集交互数据,实现云端集中优化和分钟级参数同步,从而在保持模型通用性的同时提升任务执行熟练度。研究表明,SOP能显著提升VLA模型性能,且效率随机器人规模扩大而线性增长。

2026-01-07 16:47
28
0

推荐专栏

爱力方

爱力方

机器人前沿资讯及信息解读
机器人大讲堂

机器人大讲堂

中国顶尖的机器人专业媒体服务平台
关注爱力方,掌握前沿具身智能动态

© 2025 A³·爱力方

https://www.agent.ren/