机器人找「手感」
人类的灵巧操作依赖视觉与触觉的协同配合,视觉负责识别目标与环境,触觉负责感知接触细节与控制力度,二者缺一不可。
过去十年,机器人在视觉识别与算力算法上取得了显著突破,逐步拥有了“眼睛和大脑”,但在触碰物理世界时,却因缺乏类人的“手感”而难以完成精细操作。
传统的阵列式触觉传感器主要包括压阻式、电容式和霍尔效应等类型,在实际应用中存在诸多难以克服的短板。
这类传感器受限于物理布线,无法在狭小空间内集成高密度传感点,且分辨率较低,无法捕捉切向力、摩擦力等多维力信息;
同时,其抗干扰能力较弱,易受温湿度、电磁场等外界环境影响,使用寿命较短,难以满足工业场景的长期稳定运行需求。
此外,传统传感器体积偏大、重量较重,难以集成到灵巧手、工业夹爪等末端执行机构中,严重限制了机器人的精细操作能力。
与传统触觉传感器相比,视触觉传感器(基于视觉的触觉传感器)具有显著优势,成为解决行业痛点的核心路径。
其核心原理是通过光学成像捕捉接触面硅胶层的形变图像,再结合先进图像处理算法,解算出力觉、触觉、形状、纹理等多种模态信息。
此前,笔者盘点过视触觉传感器产业链环节的部分代表性企业(点击跳转回顾),比如纬钛机器人、戴盟机器人、叠动科技、一目科技等。
这种技术路线无需密集布线的电极阵列,理论上分辨率仅受限于相机像素,可轻松超越人类指尖的感知密度;同时,由于没有易损电路,其使用寿命可达数百万次操作循环,远高于传统方案。
此外,视触觉传感器还能精准捕捉法向力、切向力、扭矩等多维力信息,可操作各类柔性物体,且抗干扰能力强,不易受外界环境影响,被公认为当前最先进的触觉实现路径。
随着具身智能进入以工程能力和商业落地为核心的实战阶段,触觉感知正从可选能力走向智能标配,直接决定机器人“能不能干活、能不能干好活”。
谁能率先完成从物理世界数据感知、采集、学习到商业落地的闭环,谁就有机会定义下一阶段的行业格局。
尤其在国内,叠动科技、纬钛机器人、戴盟机器人等企业加速布局,推出一系列视触觉传感器产品,推动技术产业化落地,填补行业空白。
01.
MEMS工艺融合
叠动科技推出三款差异化新品
4月15日,叠动科技正式发布全球首款引入MEMS工艺与视触觉传感技术的微视触觉传感器,同时推出ORY-Box、ORY-Mini、ORY-Finger三款差异化传感器新品。
叠动科技将自主研发的MEMS工艺与视触觉传感融合,推出的三款新品均延续至薄设计核心优势,针对不同应用场景完成差异化定制,兼顾高密度集成、通用化适配与灵巧化精细操作需求。
其中,ORY-Box为高密度集成而生,采用单电路板集成设计,本体厚度仅9.8mm,相较同类型产品大幅缩减空间占用,走线简洁且连接稳固,表面硅胶模组支持自由拆卸与替换,适配受限空间的高密度安装场景;
ORY-Mini定位于工业夹爪通用触觉模块,以7mm的至薄设计刷新行业轻薄纪录,实现极致轻量化,布线设计贴合生产现场实际需求,可广泛适配平行夹爪、定制夹具等多种末端工装;
ORY-Finger打造仿指腹的弧面硅胶接触界面,以指尖级小巧体量自然融入灵巧手与多指末端的有限空间,弧面接触形态可实现更稳定的曲面贴合,为曲面工件探触、捏取对位等精细操作提供细腻触觉反馈。
该系列传感器的核心突破的是,依托微结构光学设计结合先进图像处理算法,解决了传统成像方案物距远、厚度大的行业痛点,整体尺寸较传统视触觉传感器缩小约70%。
同时,传感器具备微米级形变分辨能力与10⁵级等效感知单元,精度达0.01N级,可实现高精度的物体材质、大小与重量感知,并能根据力的变化自动调整夹爪力度大小,为机器人末端提供可量产、可工程化落地的核心触觉感知单元。
除三款核心传感器新品外,叠动科技同步推出两大配套解决方案,已完成针对工业机械夹爪与自动化装备的工程化适配,可无缝对接多种产线的精密操作流程。
首先是灵巧手/机械夹爪触觉感知解决方案,采用模块化、定制化设计,可为灵巧手搭载视触觉传感器,为工业夹爪集成专用触觉模块,精准支撑精密零部件插拔、抓取、装配等典型工业场景,实现感知与抓取能力的按需配置。
其次是机器人电子皮肤解决方案,构建了可扩展的阵列化铺设方案,将柔性接触式传感单元部署于机器人手掌、前臂等关键触碰区域,实现大面积触觉覆盖与连续接触事件监测,支持分区布设与模块化维护。
其核心技术具备平台化可扩展架构,在高密度触觉应用中,可按任务需求灵活扩展感知覆盖范围,支持多指末端与大面积触觉覆盖,为产品规模化落地奠定基础。
在落地应用上,随着近期江苏省隆盛唯睿具身智能机器人创新中心在无锡正式启用,搭载叠动科技Ory-Finger视触觉传感器的灵巧手及“兰森”智能机器人3.0同步首发亮相。
叠动科技与隆盛唯睿达成深度合作,力争年内实现百台搭载视触觉传感器的机器人走进车间,推动规模化工业应用落地。
其中,“兰森”智能机器人3.0具备亚毫米级精度,兼具轻量化、高灵活度与强稳定性,与叠动科技的视触觉传感器形成协同,完美适配工业精密装配、智能检测等复杂场景。
双方将加速视触觉灵巧手工程化与量产落地,助力创新中心打造20万元级工业具身智能机器人解决方案,共建感知-本体-场景全链条技术体系。
02.
视触觉仿生指尖纬钛机器人重构机器人“手感”
纬钛机器人创始人李瑞博士,作为机器人视触觉技术路线的开创者与引领者,毕业于MIT计算机科学与人工智能实验室,师从美国两院院士Edward Adelson教授。
李瑞博士在MIT读博期间便与导师共同开创了机器人视触觉传感器的研究路线,发明了全球第一款分辨率超越人类手指的GelSight指尖传感器。
该传感器相比传统触觉方案性能提升上万倍,相关成果还在顶会发表多篇奠基性论文,引发了全球顶尖高校与机构的争相引用与跟随。
今年3月,纬钛机器人更是一次性推出四款视触觉新品,覆盖感知单元、执行单元与数据采集系统三大层级。
其中最受关注的是专为灵巧手打造的视触觉仿生指尖GF515,以及全球首个将视触觉与多模态数据深度融合的工业化采集平台VT-UMI85。
GF515作为全球首款集超小尺寸、超高分辨率、超高频率于一体的视触觉仿生指尖,标准款尺寸仅为15×27mm,与人类指尖相当,且可定制更小尺寸。
此外,其单体重量不足15克,却集成了每平方厘米上万点的触觉信息密度,最高可达人手的几百倍,最小可探测10微米级的纹理细节,并能同时探测法向力、切向力、扭矩等多维力信息以及滑移状态。
该产品具备最小0.01N的感知能力,可察觉比一片羽毛重量更轻微的接触变化,最大法向力/切向力可达20N,最高刷新率达120Hz,能在高速动作中形成实时闭环控制,让机器人拥有接近人手神经反射的节奏感。
更重要的是,GF515通过了500万次的按压测试,并非实验室样品,而是可集成到主流灵巧手平台、跑在产线上的工业级产品。
在实际应用中,搭载GF515的灵巧手展现出卓越的精细操作能力:可捏起极细的针戳向气球而不使其破裂,能清晰识别麻将牌面的刻痕纹理,可轻松拿捏鹌鹑蛋、薯片、柔软树叶等易损物体而不造成破坏,还能凭借多维力感知完成钥匙开锁、拧螺丝、切豆腐等高难度操作。
李瑞博士指出,自由度决定机器人动作的上限,而触觉决定操作的质量,GF515的意义在于为灵巧手补上真正的“指尖神经”,让机器人从只会重复动作的机器,进化为能够适应真实物理世界的执行主体。
VT-UMI85视触觉数据采集系统则直指具身智能的核心短板——真实接触数据的长期缺失。
过去,真实世界的数据采集成本高、设备笨重、操作复杂,且传统UMI数采设备只有视觉数据,导致“接触”维度的信息长期缺失于AI训练体系。
VT-UMI85自重仅500克,轻巧便携,支持在真实场景中自然采集数据,融合了视触觉、RGB-D、IMU、编码器、位姿轨迹、夹持状态等多模态信息,并以毫秒级精度实现时间同步,确保数据可100%复现。
该系统不仅是采集设备,更是完整的数据工作流入口,打通了「采集-训练-验证-落地」的完整闭环,让高校、算法团队和产业客户无需从零拼接工具链,可直接进入有效的具身智能数据闭环。
依托VT-UMI85的技术能力,纬钛机器人联合国家地方共建人形机器人中心,发布了全球首个最大规模的跨本体视触觉多模态数据集——“白虎-VTouch”。
该数据集将触觉、视觉、位姿等信息统一纳入训练体系,为具身智能提供关键的接触感知数据支撑,被称为“具身智能时代的「ImageNet」时刻”。
除上述两款重磅新品外,纬钛还发布了两款面向广泛工业场景的成熟产品:
GF220两指传感器以45g、体积缩减47%的紧凑设计,实现毫牛级力觉与10微米级分辨率,支持多维力高速反馈,为精密装配等场景快速注入“手感”;
VT-GRIPPER90视触觉夹爪则将传统夹爪升级为感知执行单元,实时捕捉滑移与接触状态,实现柔顺抓取控制。
在商业化层面,纬钛已与小米、国际汽车巨头、头部物流公司等中外500强企业,以及具身智能行业龙头建立深度合作,应用覆盖无序自适应抓取、精准放置与装配、柔性物体操作等典型场景。
03.
聚焦触觉底座
戴盟机器人构建完整产业闭环
戴盟机器人是一家孵化于香港科技大学的初创企业,由港科大机器人研究院创始院长王煜教授与其学生段江哗博士联合创办,以视触觉为技术核心,致力于以触觉与灵巧操作智能推动机器人走向通用。
创立不到两年,戴盟机器人已连续完成多轮融资,累计金额达数亿元人民币,刷新了触觉传感领域天使轮融资的最高纪录。
戴盟机器人选择视触觉技术路线,核心是看中其能同时实现高分辨率、多模态、高耐用性和低成本的优势。
与传统阵列式传感器相比,视触觉方案不依赖密集布线的电极阵列,通过光学成像捕捉硅胶层形变并结合算法解算多维触觉模态,分辨率可轻松超越人类指尖,且寿命远高于传统方案。
戴盟机器人的传感器具备两项突出核心性能:力感知灵敏度可达0.01牛,仅1克力的微小接触就能被识别;空间分辨能力达到0.01毫米(10微米),比人类手指尖的分辨率高出约300倍,能区分相距仅10微米的两个微小凸起,为微结构识别、精密装配和复杂接触分析提供了技术支撑。
而这种超细粒度的感知能力,在实际应用中具有重要价值。
比如在精密装配场景,可捕捉插针、拧微型螺丝时几毫牛的阻力变化,让机器人在不依赖视觉的情况下自主调整姿态或力度,避免零件损坏或装配失败;
在表面质量检测场景,可感知亚毫米级的纹理变化、粗糙度差异和材料软硬程度,替代老师傅的手感判断,助力高端制造质检自动化;
在柔性物体操作场景,可通过触觉区分皮革、织物、硅胶等不同材质,适用于服装分拣、奢侈品鉴定等人机协作场景。
在技术路线上,戴盟机器人坚持采用单色光方案,区别于主流的三色光方案(比如MIT孵化的GelSight公司)。
此外,针对硅胶接触面易磨损、老化的问题,戴盟机器人将其设计成标准化、可快速拆卸的模块,成本低廉,更换时只需拧下几颗螺丝,无需重新标定或复杂调试,可纳入工厂定期停机检修流程,几乎不增加额外维护负担。
值得注意的是,尽管拥有视触觉技术基础,戴盟机器人并未选择直接做灵巧手,而是专注于触觉赛道。

段江哗表示,无论是五指灵巧手还是二指夹爪,本质上都只是执行终端,真正决定操作质量的是感知系统,尤其是触觉。
对于纯视觉技术进步是否会削弱触觉感知价值的问题,段江哗认为,视觉和触觉从来都是互补关系,而非替代关系。
在视觉受限的场景(如封闭空间取物),触觉是唯一的感知手段。此外,在精细力控场景(如精密装配),触觉能提供视觉无法替代的接触反馈。
而在高效操作场景(如折衣服),触觉能提前感知物体状态变化,提升操作效率和成功率。
因此,触觉在机器人精细操作中不可或缺。
同样的,戴盟机器人计划今年以触觉数据为核心切入口,构建从数据采集、模型训练到应用部署的完整闭环体系,通过沉淀触觉数据资产与算法能力,为具身智能提供稳定、可扩展的触觉基础设施,推动机器人操作能力向通用化迈进。
04.
写在最后
整体来看,叠动科技、纬钛机器人、戴盟机器人均采用视触觉技术路线,但在技术侧重点和产品定位上形成了清晰的差异化布局。
叠动科技的核心突破是将MEMS工艺与视触觉传感技术融合,聚焦于传感器的薄型化、工业化量产,推出的三款差异化产品适配不同工业场景,并提供配套解决方案,重点解决行业“厚、重、难集成”的痛点,同时与产业方合作推动规模化落地。
纬钛机器人以“指尖神经+数据底座”为核心,一边推出GF515等高性能感知产品,突破超小尺寸、高分辨率、高频率的技术瓶颈,一边通过VT-UMI85和“白虎-VTouch”数据集,构建具身智能数据闭环,推动触觉技术成为机器人平台级能力。
戴盟机器人则聚焦于触觉底座的构建,坚持单色光技术路线,突出传感器的高灵敏度、高耐用性和低成本,不做终端灵巧手,而是通过提供触觉解决方案,同时计划构建完整的触觉数据闭环。













沪公网安备31010702008139