CNCC2019 panel2:如何让智能机器人更“智能”
谈到“智能+社会”的建设,我们就不能不提智能机器人的强势地位和发展。特别是随着学科融合,技术交叉,AI技术的发展与广泛运用, 智能机器人应运而生,逐渐融入到人们的日常生活中,成为不可分割的一部分,让人们享受到“智能”福利。那么,智能机器人的智能究竟从哪里来的?如何才能让智能机器人更加“智能”呢?目前智能机器人的研究现状和前景又是怎样的呢?
对机器人情有独钟的小芯感到无比好奇和激动,下面就和小芯一起,听听机器人领域的专家们都怎么说吧!
屠长河:人机自然交互与和谐共融是我们共同的追求
屠长河
来自山东大学计算机科学与技术学院的屠长河教授和吕琳副教授是本次论坛主席兼主持人。
论坛伊始,屠长河简明扼要地介绍了智能机器人目前的发展现状,研究领域以及本次论坛的主要内容。
他表示:智能机器人是系统软件、机器学习和人机交互等多学科交叉的新兴领域,与产业界密切相关,已广泛应用于教育、医疗、旅游、银行等行业。研究领域主要涉及机器人操作系统和软件、感知理论和方法、机器人学习的理论和方法、地图构建与定位导航、人机自然交互与和谐共融等。
今天的论坛将组织智能机器人领域的专业人才,聚焦研讨机器人感知理论和方法、机器人学习的理论和方法、地图构建与定位导航,以及人机自然交互与和谐共融等领域的发展。让大家近一步了解智能机器人这个熟悉又陌生的领域,获得满满收获。
屠长河非常幽默,在每位嘉宾演讲结束后还不忘一句话精辟总结演讲内容和自己的感悟,让论坛现场整体氛围轻松又有趣。
章国锋:视觉SLAM技术解决基本问题,实现“智能+”
章国锋
第一位报告嘉宾是来自浙江大学CAD&CG国家重点实验室的章国锋教授。他带来有关“视觉SLAM技术”的演讲。
SLAM:同时定位与地图构建,能够解决机器人和计算机视觉领域的基本问题——在未知环境中定位自身方位并同时构建环境三维地图。它在增强现实、虚拟现实、机器人和无人驾驶得到了广泛的应用。它的运行结果:可根据设备根据传感器的信息计算自身位置 (在空间中的位置和朝向),构建环境地图(稀疏或者稠密的三维点云)
视觉SLAM技术主要采用视觉传感器,例如单目摄像头、双目摄像头或多目摄像头。广义上的视觉SLAM技术以视觉传感器为主,其他传感器为辅,例如廉价IMU、GPS、深度摄像头等。视觉SLAM技术具有硬件成本低廉、小范围内定位精度较高、无需预先布置场景等优势。
介绍完视觉SLAM技术的基本知识后,章国锋提出,虽然视觉SLAM技术在过去十多年里取得了很大的进展,但要满足实际的应用需求仍需要解决两方面的关键性挑战:
1. 复杂环境下的定位精度和稳定性(动态变化、视觉特征匹配不准、优化计算不稳定)
2. 大尺度场景下在低功耗移动设备上的实时性(场景规模大、计算维度高、低功耗设备计算能力有限)
并展现了自己对于解决这两方面挑战问题所提出的关键思路,分别是:
1. 通过高效剔除Outliers达到约束的正确性,通过运动先验约束、结构先验约束达到约束的充分性,最终实现稳定求解。
2. 通过分治求解和增量式计算的策略,来大幅提高集束调整的效率,实现高效求解。
同时,他还展示了“增量式集束调整、视觉定位与AR导航、自动驾驶中的定位与建图”等相关问题的思考与方案。
并在最后通过案例展示了目前在AR和自动驾驶方面所做的一些应用,展望了视觉SLAM技术的未来发展的三个趋势:
1. 缓解特征依赖(基于边、面特征的跟踪;直接图像跟踪或半稠密跟踪;结合机器学习和先验/语义信息)
2. 多传感器融合(结合IMU、GPS、深度相机、事件相机、光流计、里程计、WiFi、5G等各种传感器信号)
3. 稠密三维重建(单/多目实时三维重建,基于深度相机的实时三维重建,非刚性物体的实时三维重建等)
刘利刚:让机器人远离“路痴”状态
刘利刚
第二位上场嘉宾是来自中国科学技术大学的刘利刚教授,他的演讲主题是:机器人自主三维场景扫描与重建。
首先,他介绍了机器人两种主要类型(工业机器人、服务机器人)及相关的运用场景和特征;分析了“机器人”的反馈系统:机器人的信息感知来源于各种传感器,行为源自机械结构、仿生结构、平衡与控制系统等,而认知(智能) 源自机器算法。由于传感设备、获取数据方式不同,因此有不同的细分研究领域,比如自然语言处理、计算机视觉、视频处理、计算机图形学等。
其次,他介绍了计算机图形学++,即如何利用三维感知信息来对环境进行交互、认知和理解。其中,利用移动机器人对未知室内场景进行自主三维扫描与重建是机器人与计算机图形学领域共同关注的重要研究方向。
因为相比于人手持扫描,机器人自动扫描具有不易疲劳、稳定性好、控制精度高等优点。在Siggraph 2018国际会议上,刘教授团队及合作者共同提出了一种全新的自主场景三维重建的方法,通过为自动扫描提供基于物体感知的引导,使得对未知场景的探索、识别和重建能在一次扫描规划中完成。
该方法交替进行物体感知和基于物体分析的信息增益分析,为机器人的全局探索和局部扫描确定了下一个最佳物体以及下一个最佳视点。其中主要的技术点是针对不完全重建点云的语义识别问题,提出了通过多类图割最小化方法来同时求解物体分割和物体识别的新思路。并通过虚拟与真实场景的实验结果展现了所提出方法的可行性和实用性。
陈宝权:赐机器人一双认清环境的明眸
陈宝权
在计算机图形学上,北京大学教授陈宝权也分享了自己的研究成果——“面向机器人的三维视觉智能”。
主要讨论了三维视觉如何支持机器人视觉智能的提高,机器人的能动性如何帮助提升三维场景的理解,从而不断提升三维视觉智能等问题。
对比之前,时代对于计算机图形学和视觉上提出了新的挑战:以前处理的内容多为单个对象、数据密集和完整的,但现如今面对的却常常是多对象场景,数据稀疏和不完整的。以前内容符合抽样理论:采样率高于Nyquist采样率,可重构。但现如今内容一直在挑战采样理论:采样率远低于Nyquist采样率,无法重构。
所以我们需要研究面向机器人的三维视觉智能,来解决时代问题,陈宝权表示。
刘永进:UR3/UR5机器臂让我们的生活更“智能”
刘永进
刘永进是清华大学计算机系长聘教授,他给我们带来的报告主题是:UR3/UR5机器臂的一些智能应用。
报告中,他介绍了课题组在机器人手臂智能应用方向的一些工作。包括机器人辅助3D打印系统RoboFDM,一套生物3D打印原型系统和一套植物基因表型采集的多臂系统等。
他表示,RoboFDM 3D打印系统可以将模型分解为无支撑部件,不仅可以打印复杂的模型,而且可以应用于低成本的四轴打印设备中。
具体算法步骤如下:
步骤1:基于形状分析的粗分解
步骤2:序列规划
步骤3:使用可打印约束进行微调
此外,他还提出约束条件:可印刷性,存放材料时无碰撞。
Cons.1:分隔平面之间没有交点
Cons.2:所有的分离面都必须朝上
并且需要一定有效支持,观察过程中,对于非零亏格模型,很难确定支持自由体积分解。需要更通用的方法,遵守分解准则。
刘永进展示了生物3D打印原型系统通过在血管支架上打印干细胞得到的一些令人鼓舞的结果,极大推动医疗技术发展。
而在农业自动化的应用上,他表示课题组提出了一种新的多臂系统,其中多个机器人臂可以根据我们基于深度学习的规划器的轨迹同时执行任务。今天,他主要给我们介绍了UR3/UR5机器臂的具体的一些智能应用方面与成果,具体的研究工作发表在ACMSIGGRAPH, ICRA, IROS, IEEE T-ASE等国际著名会议期刊。大家有兴趣可以选择浏览。
潘佳:智能机器人如何精准避障
潘佳
接下来上台的演讲嘉宾是来自香港大学计算机系的潘佳教授,他的课题十分有意思,关于“密集人群场景下的自主机器人避障”相关研究。
他表示,密集人群场景下的自主机器人避障一直是一个尚未解决的问题,成为移动服务机器人实用的重要瓶颈。目前的解决方案大多基于针对静态场景的传统定位建图和运动规划的修修补补。常用的解决思路——分治法,做加法:
使用SLAM建立地图,并定位机器人的位置
通过视觉、语义等对动态障碍物进行稳定识别、跟踪、轨迹预测,通过MPC等算法进行动态物体的避障规划,控制器执行轨迹并控制误差;
或通过运动轨迹规划避开静态障碍物,控制器执行轨迹并控制误差,达到手工定义各种避障规则。
这种分治法方案具有很多局限性:
一、子问题也许在解决一个比原问题更难的问题。(通过一个更难问题的低质量的解来得到目标问题的解Or直接解决目标问题)
二、子问题的难点可能在于没有考虑其他部分的交互。
动态场景中目标人的跟踪中遮挡处理和重新辨识是个困难的问题。但如果机器人能在密集人群中进行灵活避障,就可以始终跟上目标人,从而简化遮挡和辨识上的困难。
动态场景中的SLAM往往会出现定位特征或者回环特征丢失的问题。但如果机器人能在密集人群中进行灵活避障,就可以依赖移动能力主动寻找恢复定位或者回环的特征。
面对现在很少针对动态场景本身的特点去设计对应的新的解决方案的现状。
潘佳提出了从提高机器人躲避动态障碍物的能力出发,运用新的角度解决密集人群场景下的自主机器人避障问题的方案。
通过做减法的思路,让机器学习人类思维,分析人类的核心避障行为,设置仿人避障框架,直接使用原始的传感器数据,通过高层学习+底层控制,反复训练达到最终目标。
现场,他还展示了四机实验(使用超宽带(UWB)进行大致定位)视频,并将扩展到三维(多无人机避障)问题的讨论。
罗钟铉:促进水下机器人发展,让我们更好“经略海洋”
罗钟铉
最后一位演讲嘉宾是来自大连理工大学的罗钟铉教授,他推动并主持承办了由国家自然科学基金委主办的“水下机器人目标抓取大赛”及高端论坛,获得中央电视台等国内多家媒体深入报道,在国际水下机器人领域引起广泛关注。
此次,他给我们带来的主题也与水下机器人有关——“基于海洋强国的人工智能实践与探索-水下敏捷机器人目标抓取”。
结合国家十八大与十九大关于海洋发展方针,他提出“人工智能+经略海洋”的研究方向,提出海洋牧场中的技术问题,表示海洋牧场信息化、智能化势在必行,海洋人工智能领域具有极高的研究价值。
报告中他详细介绍了水下机器人目标抓取大赛相关情况。并在此基础上,详细分析了目前海洋人工智能技术发展所面临的技术瓶颈与挑战:稳定性与敏捷性的矛盾,真实海流环境下的机器人控制和抓取的技术困难,水下视觉——水下目标精准识别和认知。
视觉增强:视觉效果差(波浪、折射、泥沙)=>如何获取高质量清晰水下图像?
深度估计:成像质量差(折射、畸变、噪声)=>如何实现高精度水下标定及深度估计?
目标检测:数据样本差(数量少、多样性差)=>如何实现高精度水下目标检测?
最后,他还介绍了水下评测平台的规划与展望。
至此,智能机器人——如何让智能机器人更“智能”论坛圆满结束,大家是不是和小芯一样,收获满满呀?
推荐阅读专题
我们一起分享AI学习与发展的干货
如需转载,请后台留言,遵守转载规范
推荐文章阅读
长按识别二维码可添加关注
读芯君爱你