English 日本語 Русский

视觉位姿检测的精度验证

视觉位姿检测的精度验证

客      户
北京航空航天大学
场地大小
2米×3米×2米
关  键 词
空间绕轨飞行器、机械臂、机器人位姿
被捕捉物
机械臂、模拟飞行器
核心配置
6个Mars 1.3H动作捕捉镜头

多目立体视觉能够在多种条件下感知三维场景的立体信息,基于多目立体视觉的位姿检测技术以其特有的优势在越来越多的领域扮演着重要的角色。

官网图四.jpg

在航空航天领域,随着越来越多人造飞行器持续地发射进太空,产生了大量的太空垃圾与废弃卫星,若不采取有效措施,有效飞行物被撞击的概率将不断变高。而在清理太空垃圾、修复目标物故障等在轨飞行任务中,需要保证机械臂末端与目标卫星的相对位置,有效的位姿测量方法尤为重要。北京航空航天大学国际交叉科学研究院的蒋催催博士对这一问题进行研究,在传统视觉定位方法上作出两个方向的改进。

官网图二.jpg

一个是在精度上,传统视觉定位算法依赖的参数本身就有一定误差,这些误差在计算过程中更是会被放大。改进的算法选用了5个独立的参数进行空间坐标的转换计算,而且减少了运算中的矩阵转换次数,有效地降低了计算误差,提高了定位精度。另一个是在运算速度上,传统视觉定位算法在坐标转换的计算中非常复杂、耗时颇多,算法改进后,降低了计算过程的复杂度,同时使用了基于FPGA的并行计算方法,大大减少了定位计算所需时间。

完成算法的改进后,需要验证改进算法的有效性。为此,实验室选用了NOKOV(度量)光学三维动作捕捉系统。NOKOV 度量动作捕捉的定位精度达到亚毫米级,并且使用FPGA技术进行边缘计算,输出数据延迟控制在毫秒级别。

官网图一加字.jpg

在实验对象——目标卫星模型与机械臂上贴Marker,三个以上动作捕捉镜头能看到这个Marker就能计算出它的三维坐标,从而计算出卫星模型与机械臂的相对位置关系。以动作捕捉系统获取的相对位置作为真值,可有效验证视觉定位算法的精度。




IEEE RA-L 机械臂操纵 实时规划方法

研究利用NOKOV度量动作捕捉系统实时追踪障碍物的位置与几何特性,并将这些检测结果拟合为几何原语。度量动捕充当环境感知与几何建模的基础角色,是将真实世界中的障碍物转化为几何参数的关键桥梁。

人形机器人的数据采集与分析

北京人形机器人创新中心使用NOKOV度量动作捕捉系统采集人形机器人关键位置数据。

动画还原潮汕非遗英歌舞

潮汕非遗英歌舞 动画还原

无人车路径规划算法验证

无人车路径规划算法验证-吉林大学
联系我们
如需更多应用、案例信息或产品报价,请致电 010-64922321,或在下方留言:
机器人/无人机 VR/AR/XR 运动康复 传媒娱乐
北京度量科技有限公司(总部)
Location 北京市朝阳区安慧里四区15号五矿大厦8层820室
Email info@nokov.com
Phone 010-64922321
提交成功!请您耐心等待!
欢迎关注公众号,获取更多信息
关闭