7月16日,新加坡国立大学(NUS)两名研究人员在《机器人学:app与系统》上发表的研究结果显示,在机器人领域,与基于事件的视觉和触觉感知相结合,英特尔神经拟态计算大有可为。这项工作着重介绍了与目前只有视觉的系统相比,将触觉引入机器人技术能够显著提升系统能力和功能,并且神经拟态芯片在处理此类感官数据方面能够超越传统架构。
人类的触觉足够灵敏,可以感觉到不同表面之间的细微不同,哪怕这些差异仅仅是一层分子的区别。然而,现在大多数机器人的操作都是基于视觉处理。新加坡国立大学的研究人员希望用他们最近开发的人造皮肤来改变这一状况。根据他们的研究,这种人造皮肤在检测触觉方面,可以比人类的感觉神经系统快1000倍以上,并且在识别物体的形状、质地和硬度方面,可以比人类眨眼速度快10倍。
然而,创造人造皮肤只是实现这一愿景的第一步。“如果说让机器人变得更智能是一幅拼图,制造超快的人造皮肤传感器只解决了大约一半,”新加坡国立大学材料app与工程系、健康与创新技术研究所助理教授Benjamin Tee表示,“机器人还需要一个能够最终实现感知和学习的人工大脑,这是这幅拼图中的另一个关键部分。我们用英特尔Loihi等神经拟态芯片对AI皮肤系统进行了独特研究,为实现能效和扩展性迈出了重要一步。”
为了在机器人感知领域进行突破,新加坡国立大学团队开始探索神经拟态技术的潜力,尝试利用英特尔Loihi神经拟态研究芯片处理来自人造皮肤的感官数据。在最初的实验中,研究人员使用配有人造皮肤的机械手读取盲文,将触觉数据通过云传递给Loihi,以将手感觉到的微突转化为语义。在对盲文字母进行分类上,Loihi达到了92%以上的准确率,而功耗却比标准的冯·诺依曼处理器低20倍。
在这项工作的基础上,新加坡国立大学团队通过将视觉和触觉数据结合到脉冲神经网络(SNN)中,进一步提高了机器人的感知能力。为此,他们让一个机器人利用来自人造皮肤和基于事件的相机的感官输入,对装有不同量液体的各种不透明容器进行分类。研究人员也使用了相同的触觉和视觉传感器,来测试感知系统识别旋转滑移的能力,这对于稳定抓握至关重要。
当捕获到这些感官数据后,研究小组将其分别发送给GPU和英特尔的Loihi神经拟态研究芯片,从而比较两者的处理能力。其最新发表的研究结果表明,与仅使用视觉的系统相比,使用脉冲神经网络与基于事件的视觉和触觉相结合,可以使物品分类的准确率提高10%。此外,研究人员也展示了神经拟态技术用于为此类机器人设备中的功耗情况,Loihi处理感官数据的速度比高性能的GPU还要快21%,而功耗却降低了45倍。
这两名研究人员同时也是英特尔神经拟态研究社区(INRC)的成员。对此,英特尔神经拟态计算实验室主任Mike Davies表示:“新加坡国立大学的这项研究,让人们对机器人技术的未来有了深刻的了解,也就是说,未来机器人会以事件驱动的方式,结合多模态来感知和处理信息。有越来越多类似的研究显示,一旦我们对整个系统进行基于事件的范式重新设计,包括传感器、数据格式、算法和硬件体系结构,神经拟态计算的使用可以显著降低延迟和功耗。”
版权声明:凡本网注明“来源:明升中国app报、明升手机版(明升中国)、app手机版杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、明升头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。