TAG:多模态感知
戴上这只210g的手套后,机器人终于学会了“人的手感”
简智机器人推出仅210g的高精度人手多模态感知与行为重建设备Gen DAS Dex,旨在解决具身智能和人形机器人领域高质量手部数据极度稀缺的难题。该设备能够无感、高精度地捕捉人手23个自由度的精细动作,实现0.02度的关节检测和毫米级的指尖定位。Dex融合了高精度磁触觉传感与视觉(结合Ego),提供全面的触觉和视觉多模态数据,打破了当前具身智能领域的“数据悖论”。通过构建“数据飞轮”,Dex帮助机器人真实学习人类操作细节,加速模型迭代,让机器人最终拥有“人的手感”,从而推动具身智能技术发展。
13个传感器软手加持,康奈尔大学打造能看会摸采摘机器人登Nature子刊
康奈尔大学团队研发出全球首个集视觉、触觉与本体感知于一体的软体机器人手,配备13个传感器,可精准识别并采摘娇嫩草莓,实现‘看会摸’的智能采摘。该技术突破传统机器人在复杂光照下判断不准、易损果实的瓶颈,为农业自动化带来革命性进展,成果即将发表于《Nature Communications》。
非夕科技发布战略新品Enlight初昕:拓展通用智能机器人本体基座能力边界
非夕科技在2026年战略发布会上推出Enlight初昕系列机器人、Orion天枢控制器与MICO一体化平台,通过全栈式软硬件升级,突破物理感知与多臂协同瓶颈,定义通用智能机器人的基座平台,推动机器人在真实场景中的规模化落地。
机器人突破触觉感知 全球最大训练中心启用
国产人形机器人迎来重大突破!北京石景山建成全球最大机器人数据训练中心,首次实现0.01牛级触觉感知,精准捕捉如头发丝轻触般的压力。该中心推动机器人从视觉主导迈向多模态感知融合,显著提升在精密操作、医疗康养等场景的应用能力,标志着我国机器人产业从‘硬件制造’向‘智能感知’跃迁的关键一步。
全国最大人形机器人训练基地启用 可感知头发丝压力
北京石景山区投用全国最大人形机器人训练基地,重点培养机器人触觉感知能力,可识别0.01牛的力度,相当于头发丝的压力。这一突破将提升机器人在精细操作和多模态感知领域的能力。
国地中心发布全球首个跨本体视触觉数据集,助力具身智能发展
国地中心与纬钛机器人联合发布全球首个跨本体视触觉多模态数据集——白虎-VTouch,规模超6万分钟,涵盖轮臂机器人、双足机器人等多种本体构型。该数据集针对具身智能机器人面临的真实交互数据稀缺、触觉信息不足等核心难题,提供矩阵式任务构建与多模态采集方案,为下一代具身VTLA模型提供关键数据基础与工程底座,加速机器人从感知到精细操控的落地进程。
全球首款跨本体视触觉大模型数据集白虎VTouch发布
国地中心与纬钛机器人联合发布全球首个跨本体视触觉大模型数据集“白虎-VTouch”,规模达60,000分钟,包含约9072万对真实接触样本。该数据集整合了视触觉、RGB-D深度及关节位姿等多模态数据,覆盖人形机器人、轮式机器人及智能终端等多种构型,并围绕家居家政、餐饮服务等四大真实场景构建了系统化任务矩阵,旨在推动机器人实现更精细的感知与操作能力,加速具身智能发展。
北大与BIGAI联合推出TacThru传感器 触觉视觉双感知提升操作精度
北京大学与北京通用人工智能研究院联合推出TacThru传感器,通过透明弹性体材质、关键线标记和高效追踪算法,实现了触觉与视觉的同步感知。结合TacThru-UMI模仿学习框架,该系统在拾取、分拣、插入等机器人操作任务中展现出85.5%的平均成功率,显著超越传统方案,为精细操作提供了突破性解决方案。
昆虫触角附体,机器人长出感知超能力!浙大仿生微光学天线登《Science》子刊
浙江大学团队在《Science Advances》发表创新研究,成功研制出仿生微光学天线(MOA),灵感源自昆虫触角。这种微型天线仅约100微米大小,通过微纳光纤和功能化聚合物薄膜,实现了触觉、听觉和嗅觉的高灵敏度多模态感知。MOA在力、声波和气体检测方面性能卓越,并已集成到扑翼蝴蝶机器人和瓢虫地面机器人中,展示了在自主感知与操作中的实际应用潜力。
科大讯飞发布AI软硬一体方案:在90分贝噪声中也能精准识别
科大讯飞在2025开发者节发布AI软硬一体解决方案,通过软硬件深度融合实现在高噪声环境下的精准识别。该方案使智能办公本在90分贝工厂噪声中仍保持98.69%识别率,翻译耳机在复杂场景达97.1%准确率。同时推出的星火语音大模型支持一句录音复刻任意音色,推动个性化语音创作普及。
湖北构建行业首个超大规模多模态触觉数据引擎与认知训练中心
湖北人形机器人创新中心联合多家机构共建行业首个超大规模多模态触觉数据引擎与认知训练中心,填补国内真人触觉对齐数据空白,破解触觉数据碎片化难题。该中心包含10+场景实验室、双场景数据入口和千万级触觉数据库,为人形机器人产业构建核心感知基座,推动泛生态应用发展。