随着学会的队伍不断发展壮大,分支机构的发展愈发完善,丰富多彩的分支活动与学术分享也频频呈现。疫情期间,CAAI认知系统与信息处理专委会积极倡导学会“疫情防控不放松,学习充电不间断”的理念,邀请年轻学者结合本专委会自身领域研究精选相关文献进行研究与再解读,与大家分享《触感机器人综述》。
李强 (email:qli@techfak.uni-bielefeld.de)
德国比勒菲尔德大学认知交互技术研究中心(CITEC, Bielefeld University, Germany)
1、介绍机器人技术经过半个多世纪的发展已经取得了长足的进步,现在各种类型的机器人已经广泛应用于航天,海洋,企业,医院以及我们的日常生活当中。在航天领域,人们正在使用机器人作为智能设备辅助宇航员完成空间设备的维护;在海洋领域,机器人作为深潜器带着科学家去探索海洋的奥秘,让人类亲眼目睹在大洋深处的神秘物种;在工厂里,机器人代替人类完成繁琐,重复的重体力劳动,如汽车的焊接,零部件的装配;在医院里,机器人在协助医生完成有接触风险的任务;在日常生活当中服务机器人正在逐渐的成为我们生活中的伴侣,辅助我们完成日常生活中的部分任务。所有这些机器人从事的工作当中一个共性的地方在于--机器人需要与外界环境直接发生物理接触。被接触的环境可以是人造物,也可以是有生命的动物或人。为了可以更安全的,可靠的与这些“物体”交互,机器人需要触觉传感器来“感受”接触,“理解”接触,“使用”接触。这样的行为听起来很简单,但对于机器人而言则需要一个复杂的处理过程。
图1 清华大学孙富春教授团队开发指尖触感灵巧手抓取樱桃
本文将概述触觉感知技术的现状;如何从传感器原始数据计算重要的信息;讨论触觉感知的相关应用;最后陈述触感机器人技术面临的挑战,并展望未来的研究方向。
2、触觉感知研究现状现代的认知科学,神经科学,心理学研究表明,作为万物之灵的人类,我们的智能来源于我们有着丰富的感知能力,在不断的模仿,探索,行为和学习过程中,逐渐的建立起我们自身的知识库,这种知识库以某种形式存在于我们的大脑。当我们看到一个新的场景,大脑会利用自己的知识库进行认知,推理并进行行为决策来完成我们日常生活中需要的种种行为。因此可见,感知,学习和行为技术在推进人类智能发展的过程中起着举足轻重的作用。通过感知和行为的交互学习技术也将是开发高级智能机器人的重要手段。
触觉是人类通过触碰理解这个世界的重要感知模态。在机器人领域,大量的传感器已经被研发出来以模拟人类的触觉。早在上世纪的80年代,Hillis(Hillis 1982)开发了最早的皮肤阵列传感器,并成功的应用该传感器实现了如垫圈等平面物体的认知。在随后的时间里,触觉感知引起了灵巧手研究科学家的注意。(Salisbury 1984, Fearing 1987)在随后的几年里纷纷展示了他们充分利用触觉传感器实现了多手指机械手的灵巧抓取和操作能力的初步成果。看到了鼓舞人心的研究结果,科学家们开始预测使用触觉传感器还可以做些什么,它到底离我们真的人类皮肤还有多远。(Harmon 1984)是最早对触觉传感器的潜在应用领域做出预测的科学家之一,他认为触觉传感器将会在如下方面扮演重要的角色:(1)物体的分类 (2)提取物体的几何原语 (3)检测物体表面纹理 (4)抓取和滑动检测 (5)主动搜索 (6)机器人控制. 时至今日,这些方面依然是触觉机器人基础研究(fundamental research)的重点。
上世纪的90年代,对于触感机器人来说是新型传感器开发和基于触感的控制技术突飞猛进的10年。基于不同原理的触觉传感器纷纷问世,如压阻式(Liu1993),电容式(Gray 1996),压电式(Domenici 1996),电磁式(Audet1994),光感式(Um 1998), 应变式(Kim 2006) 和超声波式(Ando 1995)。在这期间计算机的存储和计算速度也有了大幅的提升,这使得机器人的实时控制成为可能。科学家们实现了使用触觉传感器来执行应激控制(reactive control),如(Berger and Khosla 1991)使用触觉阵列传感器实现了线状物体的跟踪;(Howe.1990) 使用高频触觉传感器实现了接触状态检测;(Maekawa 1992)使用触觉触觉传感器实现了机器人对物体的滚动操作。科学家们也开发了医疗触感机器人。在这一应用中,研究人员主要使用触觉传感器感知接触物体的软硬程度,而这恰恰是人体某些病变器官检测的重要依据。随着微创手术的逐渐普及,医生希望通过在手术设备上添加触觉传感器来辅助医生对病人情况进行诊断(Ohtsuka 1997)。
近十年以来,触觉感知技术开始朝实用技术方面发展,许多更先进,稳定的新型传感器被开发出来,并应用到了机器人领域。如完整的机器人皮肤覆盖了机器人的体表(Cannata 2008, Mittendorfer 2012), 使用这样的皮肤,机器人具备了像我们人类一样的自我 ”体意识”,高时空分辨率的触觉传感器被应用到机器人的灵巧手(Koiva 2013),这样的机器手具备了像人类一样精细操作未知物体的能力,利用视觉及光学技术的触觉传感器Gelsight (Yuan 2017)研究, 可穿戴的触觉传感器应用到外骨骼机器人或数据手套(Büscher 2012),这样的感知设备可以用于分析人类在日常生活中与物体交互的基本原理。
3、触觉信息通过触觉传感器,机器人可以提取丰富的被接触环境信息。如是否机器手指在抓取的过程中与外界物体发生打滑,是否机器人的脚稳定地踩到了一块基石上等等,这些信息是机器人可以鲁棒的与外界交互(抓取,行走,人机交互)的关键。这样的信息又是丰富多变的,如最基本的接触位置,接触压力信息;通过探索行为逐渐采集到的接触物体几何及刚度属性;通过当前触觉反馈及先前交互模式(interactive pattern)进行下一时刻或下一段时间的行为决策信息。
本文作者与他的合作者们提议了一种分层的信息组织结构(Li 2020)—接触层触觉信息,物体层触觉信息,行为层触觉信息。高层的触觉信息依赖于底层的信息,如底层接触层信息仅包含单一接触采集到的当前接触点属性,物体层信息则包含了多次接触获得更精准的物体层信息,如质量,中心,几何形状等。行为层信息则包含了使用触觉反馈计算触觉依赖的行为决策(控制器),这样信息的计算往往需要依赖于接触层和物体层信息。所有的这三层信息都依赖于触觉传感器最原始的阵列数据(raw data)。对于分层结构中,每一层的信息计算,方法,应用(Li 2020)有着详细的描述,这样的信息组织结构可以很好的将触觉感知与控制统一在一个计算框架内,为通用的触觉机器人感知和控制器提供了重要的参考模型。
4、触感机器人应用技术触感机器人主要使用在以下研究场景中:(1)触觉探索及认知 (2)抓取,手中操作及全身体操作(wholebody manipulation), (3)移动能力(locomotion), (4)非抓取的操作(non-prehensile manipulation), (5)工具的使用, (6)人机交互,(7)微创手术。因为篇幅的限制,本文中仅介绍其中的几种应用,详细的应用描述请参考(Li 2020)。
触觉探索(tactile exploration)是一种通过接触的方式获取未知物体属性的最有效方式,人类使用了多种不同的探索模式来获取接触物体的知识(Lederman 1987)—横向的运动,压,包络,曲面跟随,物体部件功能测试和物体功能测试。受这些探索方式启发,许多机器人的触觉探索学习算法用于获得物体的接触层信息—局部接触几何,材料属性;物体层信息—形状,质量。为了探索获得信息成为可能,这需要机器人具备一个基础能力--触觉伺服(Li 2013),原理上它是通过当前触觉反馈计算行为层信息来维持期望的单点(Li 2013)或多点(Sommer 2016)接触模式(tactile pattern)。
自从触觉传感器被开发伊始,科学家和工程师们就将它使用在机器人的抓取和操作中。使用高时空分辨率的触觉传感器(Koiva 2013) (Nicholas 2008),灵巧手正在像人一样灵巧的抓取和手中操作物体(in-hand manipulation)。当大面积的触觉传感器覆盖到机器人表面时(Mittendorfer 2012) (Cannata 2008) (Mukai 2011),机器人可以安全的举起重的物体,甚至是一个成年人。目前这一技术已经在医院服务机器人中得以应用。
在人机交互领域,触觉传感器也被广泛的使用来检测人的意图。除了通过和机器人直接的对话,人们也正在通过直接的物理接触来传递他们的意图给机器人。一个典型的例子是舞蹈机器人。机器人通过它自身的触觉感知来跟随并配合舞伴的动作。另外成功的应用是使用触觉传感器到机器人宠物上来辅助老年人或者病患来管理他们的焦虑;在工业领域,覆盖触觉皮肤的机械臂可以通过触碰接受操作者指令,切换响应的控制模式,直观自然的实现复杂的操作任务。
5、触感机器人的未来为机器人配置最高级的触觉传感器为它具备更高级的智能提供了硬件保证,而真正可以赋予机器人智能的还需要解决来自三个方面的触觉“软实力”挑战。(1)如何提议适合触摸方式的物体表征(representing objects),如何学习这样表征(learn the representation) (2)如何基于这些表征进行行为决策 (3)如何集成触觉和其它感知模态,如视觉,提高机器人的操作能力。
在未来机器人将可能与我们人类一起生活,他们需要自学习和自主操作能力,他们需要理解和与未见过的环境交互--一个新的物体,一个机器人,甚至是一个不熟悉机器人的成年人或者孩子。因此机器人必须通过自身携带的传感器来熟悉环境。比如说通过触摸机器人需要知道它面前的物体时软的还是硬的,它的纹理感是什么样的,它的光滑的还是粗糙的,它可以被移动么?它是一个像盒子一样可以打开的物体么?机器人需要根据这些估计去预测--如果对这样的物体施以力,如推,抓,拉,滚动,这些物体会发生什么样的运动等等。这些基础的“常识”构成了触感机器人学习世界的核心内容。现在及未来这些信息的学习都是触感机器人需要攻克的难点。
估计和认知物体的属性仅仅是完成了触感智能的一半工作,另一半则是基于这些估计进行自主的决策和执行。机器人决策的目的来源于赋予它的任务,有时这样的任务是为了完美的控制好机器人,比如说成功的抓取物体,安全的行走;而有时则是为了获得更好的环境物体知识,比如说熟悉瓶子里装的液体属性。对于后者这一任务,机器人必须根据触觉反馈做出行为决策—应该如何摇晃瓶子才能更快更准的为瓶中的液体建模。这样的行为可以描述为以多大的频率,怎样的旋转。这样就需要建立一种主动学习机制来学习一个从感知到行为的映射,频率和选择作为参数在学习过程中不断的被优化。
基于触觉的感知非常适合获得物体局部区域的信息,这也大大的限制了机器人可以智能操作物体的能力。在这样的条件下,其它模态的反馈可以为机器人提供全局物体信息。如(Li 2015)在触觉伺服的基础上提出了视触融合伺服的认知控制框架。这个框架对视触融合进行了最初步尝试,但还存在大量的未解决开放性问题。如:如何使用视觉来引导触觉的探索,如何通过视触融合来提高物体姿态的估计精度及效率,更通用的视触融合的框架又是怎样等等。
通过前面的描述可以看到,对于触感机器人的触觉感知与操作依然有很多的悬而未决的问题有待解决,不同的方法需要被尝试,更先进的触觉传感器有待开发。我们都期待着通过不断的解决这些挑战性的问题可以提高机器人的安全交互机制,使它们可以真正的生活到我们身边。我们坚信使用高级触觉传感器和开发学习及操作算法是解决这些挑战并开发出真正智能的,安全的自主机器人的必要途径。
致谢这篇公众号文章是两篇作者及合作者已发表文章([1] Qiang Li, Xun Luo, "Tactile Robots:An outlook into the future" ZukunfsDesign, Cuvillier Verlag Goettingen,p152-p156 [2] Q. Li, O. Kroemer, Z. Su,F. Fernandes Veiga, M. Kaboli, H. Joachim Ritter, "A Review of TactileInformation: Perception and Action Through Touch", IEEE Transaction onRobotics, DOI: 10.1109/TRO.2020.3003230)的摘要及更新版。目的是可以简要的介绍和小结这两份工作并与国内学者交流。对于专业的触觉感知及机器人领域学者,作者鼓励大家参考原文获取更细节信息。作者在此感谢之前文章的合作者在写作时付出的努力与讨论。也感谢DFG DEXMAN (项目号:410916101)对作者研究工作的支持。
作者简介
李强博士2010年毕业于中科院沈阳自动化研究所,研究方向为基于多传感器融合水下机器人定位与抓取。2009年10月获奖学金加入德国比勒菲尔德大学认知交互机器人实验室从事博士后研究。2012年-2018年在德国认知交互技术研究中心任高级研究员。2019-2020年任腾讯RoboticsX Lab专家研究员。目前作为DFG资助的中德联合项目--DEXMAN项目负责人(Principle Investigator)主导机器人灵巧操作的前瞻性关键技术研究。主要研究兴趣:多模交互技术,基于触/视觉机器人感知,认知与控制,机器人校准及动力学系统辨识。
李强博士是中国留德学者计算机学会(http://www.gci-online.de/)主席,负责学会的全面工作。着力推进中德在学术,科技领域的深度合作。多次组织中德智能机器人论坛及学会年会。被全欧华人专业协会联合会评为2018年度“欧洲华人10大科技领军人才”。他也是人形机器人领域期刊IJHR副主编,IROS2017-2020副主编,Humaniods2018-2019副主编。在ICRA, IROS, Humanoids上多次组织触觉感知与操作国际研讨会。
参考文献(略)
本文由CAAI认知系统与信息处理专委会供稿
,