多智能体协同控制实验平台
北京理工大学北京理工大学在NOKOV(度量)光学动作捕捉系统的基础上搭建了一套以无人机、地面移动机器人/无人车为控制对象的异构多智能体协同/地空协同/无人机集群控制实验平台,该平台可实现对多种异构智能体控制算法进行验证,并模拟出空地协同巡逻、无人车围捕和探测围捕等多种军事场景。
> 点击右侧视频播放/暂停北京理工大学多智能体协同控制实验平台功能
• 无人机姿态控制
根据用户需求,自定义需要捕捉的部位,利用NOKOV精确捕捉运动物体的位置及姿态等三维数据。
• 无人机/无人车动态角色分配
根据NOKOV实时反馈的位置信息,使出现在随机位置的多智能体,以最短路径形成理想编队队形,为其他多智能体协同控制实验提供了基础。
• 空地协同编队、自主避障与跟随
由于设备的可拓展性,用户可随意增减目标数量,通过在软件内对目标进行命名等操作,来完成对大批量运动体的同时捕捉。
NOKOV(度量)光学三维动作捕捉系统功能
• 六自由度动作捕捉数据
采集三维空间XYZ坐标、六自由度(6Dof)、偏航角(Yaw)、横摇角(Roll)、俯仰角(Pitch)、欧拉角等数据,为无人机的位姿控制、运动规划提供连贯、流畅的动作数据基础。
• 亚毫米的定位精度
与采用GPS、航迹推算、全局摄像头、UWB等定位方法的实验平台相比,该平台的精度大大提高,可达亚毫米级。
• 丰富的二次开发接口
采集到的数据可以以VRPN形式传输,或通过SDK(C++语言)端口广播与ROS、Labview、Matlab(包含Simulink)等软件通信进行二次开发。
• 软件具有一键建立刚体功能,大幅提高工作效率
案例详解:多智能体协同控制实验平台研发 更多资讯:多智能体协同控制研究中光学动作捕捉与UWB定位技术比较 网络化多智能体协同控制实验平台彩页下载多场协同无人机自主建造的实现
同济大学建筑系无人机的6DoF的数据,通过实时的方式由控制系统中飞控程序所获取,用自带的传感器数据进行LPE(Local Position Estimate)计算,用于实时更新无人机相对于全局坐标系的位置估计。之后再通过轨迹规划,协调多台无人机执行砌筑、 搬运等任务时在多个航点间的移动方式,确保在操作过程中飞行器的安全以及砌筑顺序的正确。
• 使用NOKOV发表的相关论文
同济大学建筑与城市规划学院-基于无人机的离散结构自主建造技术初探.郭喆,陆明,王祥. 建筑技艺,2019.09
了解更多MARS系列动作捕捉相机
- • 满足客户全方位需求。分辨率从220万至1200万像素,频率从180Hz至340Hz全面覆盖。
- • 高精度,低延时,专为科学研究领域设计,是目前极具性价比的光学动作捕捉解决方案。
- • 适用型号:Mars 2H,Mars 4H,Mars 12H