English 日本語 Русский

让机器学会“察颜观色”:人体行为识别

让机器学会“察颜观色”:人体行为识别

客      户
吉林广播电视大学
场地大小
4米×4米×3米
关  键 词
动作捕捉、行为识别、人体姿态估计
被捕捉物
人体动作
核心配置
8个Mars 1.3H动作捕捉镜头

人体的行为是多变而复杂的,具有任何机械都无法做到的柔韧性和多样性,针对人体行为分析和识别的技术是人工智能和模式识别领域的新兴研究方向。在医学康复工程、体感游戏、影视、虚拟现实、专业运动分析等许多方面,人体行为分析和识别的技术获得广泛应用并产生巨大价值。

官网图四.jpg官网图二.jpg

吉林广播电视大学在针对学生上课过程中各种行为与动作的研究中,采用了NOKOV(度量)光学三维动作捕捉系统。系统使用光学动作捕捉镜头捕捉反光标志点(一般称为Marker),获取标志点在三维空间中的坐标,从而通过在身体关键节点处贴点,如手腕、小臂、手肘、大臂、头部等,重建出人体的三维运动模型。学生上课过程中的动作可以总结为:静止、举手、侧身、起立、转头等动作,每个动作对应着各自空间姿态的特征值,如水平运动加速度,垂直方向加速度,躯干夹角,关节夹角等。

官网图一.jpg

研究中利用NOKOV度量光学动作捕捉系统采集大量特征数据,根据特征值来逆推学生上课时的动作。将动作捕捉软件捕捉到的数据实时发送到编译好的程序中,程序会识别到这些特征值的变化,然后判断当前动作,并作出对应提示。例如当学生上课有举手的行为时,NOKOV度量动作捕捉系统准确捕捉到这一动作,将其特征发送到程序中,程序检测到特征值的变化,判断为举手,并通过灯光等方式来提醒老师学生有举手行为。

官网图三.jpg

分析和识别人体的行为动作是一个复杂的工程,可以创造出一种全新的交互方式,通过姿态、手势等动作来进行互动,实现人与环境、人与人的无缝沟通和自由互动。NOKOV度量动作捕捉系统捕捉精度高,能够真实记录下人体关键部位的运动数据,为人体行为识别方向提供可靠的解决方案。

 




人形机器人DEMO - 同济何斌教授团队

同济大学何斌教授团队利用NOKOV度量光学动捕系统与数据手套集成,获取高精度人体全身动作数据,用于人形机器人训练及遥操作。

IJRR 连续体机器人预设行为自适应控制(BPAC)框架

中山大学谭宁老师团队在IJRR上发表连续体机器人预设行为自适应控制(BPAC)框架,度量动捕为实验提供执行器位置真值,助力验证控制方法有效性。

《三体》经典台球场景沉浸式体验

置身建发·三体沉浸式艺术展,体验《三体》经典台球场景:两球相撞,撞出无限可能!物理学?不存在的!

慕尼黑工大 水下机器人研究

慕尼黑工大MIRMI研究院的Daniel Dücker老师,利用NOKOV度量水下动作捕捉系统,获取水下机器人的高精度位姿真值,用于生成训练数据、验证控制与估计算法。
联系我们
如需更多应用、案例信息或产品报价,请致电 010-64922321,或在下方留言:
机器人/无人机 VR/AR/XR 运动康复 传媒娱乐
北京度量科技有限公司(总部)
Location 北京市朝阳区安慧里四区15号五矿大厦8层820室
Email info@nokov.com
Phone 010-64922321
提交成功!请您耐心等待!
欢迎关注公众号,获取更多信息
关闭