如何形象地理解四元数

如何形象地理解四元数,第1张

在n系中,加速度计输出为,经过bCn(用四元数表示的转换矩阵)转换之后到b系中的值为;在b系中,加速度计的测量值为,现在和均表示在b系中的竖直向下的向量,由此,我们来做向量积(叉积),得到误差,利用这个误差来修正bCn矩阵,于是四元数就在这样一个过程中被修正了。但是,由于加速度计无法感知z轴上的旋转运动,所以还需要用地磁计来进一步补偿。

加速度计在静止时测量的是重力加速度,是有大小和方向的;同理,地磁计同样测量的是地球磁场的大小和方向,只不过这个方向不再是竖直向下,而是与x轴(或者y轴)呈一个角度,与z轴呈一个角度。记作,假设x轴对准北边,所以by=0,即。倘若知道bx和bz的精确值,那么就可以采用和加速度计一样的修正方法来修正。只不过在加速度计中,在n系中的参考向量是,变成了地磁计的。如果我们知道bx和bz的精确值,那么就可以摆脱掉加速度计的补偿,直接用地磁计和陀螺仪进行姿态解算,但是你看过谁只用陀螺仪和地磁计进行姿态解算吗?没有,因为没人会去测量当地的地磁场相对于东北天坐标的夹角,也就是bx和bz(插曲:关于这个bx和bz的理解:可以对比重力加速度的理解,就像vx vy vz似的,因为在每一处的归一化以后的重力加速度都是0 0 1然后旋转到机体坐标系,而地球每一处的地磁大小都不一样的,不能像重力加速度那样直接旋转得到了,只能用磁力计测量到的数据去强制拟合。)。那么现在怎么办?前面已经讲了,姿态解算就是求解旋转矩阵,这个矩阵的作用就是将b系和n正确的转化直到重合。现在我们假设nCb旋转矩阵是经过加速度计校正后的矩阵,当某个确定的向量(b系中)经过这个矩阵旋转之后(到n系),这两个坐标系在XOY平面上重合(参考DCM IMU:Theory的Drift cancellation部分),只是在z轴旋转上会存在一个偏航角的误差。下图表示的是经过nCb旋转之后的b系和n系的相对关系。可以明显发现加速度计可以把b系通过四元数法从任意角度拉到与n系水平的位置上,此时只剩下一个偏航角误差。这也是为什么加速度计无法修正偏航的原因。

1、使用圆命令(C)与直线命令(L)将LOGO框架按照以下图尺寸进行绘制 2、使用修剪命令(TR)对辅助线进行修剪并使用矩形命令(REC)绘制一个10241024的矩形,并使用圆角命令(F)将矩形四个角进行圆角,半径为R250。并将抖音LOGO框架按照下图间距进行调整: 3、使用复制命令(CO)及移动命令(M)参考下图尺寸进行绘制: 4、使用填充命令(H)对LOGO进行填充,填充图案选择SOLID,颜色值参照下图 5、LOGO外框填充调色,颜色1使用:20,11,24;颜色2使用:56,16,40。填充样式选择球形。 6、填充完成之后,去除各边。自行对细节进行调整即可。

三维人体姿态重建通常是指利用外部设备对人体进行三维姿态还原。相比于稠密的人体几何形状,人体骨架是表示人体姿势的一种紧凑型表达方式。本次主要介绍基于人体骨架的姿态重建。

目前工业界已有相对成熟的三维姿态重建解决方案,即接触式的动作捕捉系统,例如著名的光学动作捕捉系统Vicon(图1)。首先将特制的光学标记点(Marker)贴附在人体的关键部位(如人体的关节处),多个特殊的动作捕捉相机可以从不同角度实时检测Marker点。随后根据三角测量原理精确计算Marker点的空间坐标,再利用反向动力学(Inverse kinematics,IK)算法解算人体骨骼的关节角。由于场景与设备的限制,高昂的价格,接触式运动捕捉难以被普通消费者所使用。因此研究者继而将目光投向了低成本、非接触式的无标记动作重建技术。本次主要介绍近年来利用单目RGB-D相机或者单目RGB相机进行姿态重建的工作。

基于单目RGB-D相机的姿态重建

基于RGB-D的三维姿态重建方法可分为两类[1]:判别式方法与生成式方法。判别式方法通常试图从深度图像中直接推测出三维人体姿态。其中一部分工作尝试从深度图中提取与关节位置相对应的特征。

例如,Plagemann等人[47]利用测地线极值来识别人体中的显著点,然后利用局部形状描述符检测人体三维关节位置。另外一些判别方法则依赖于离线训练的分类器或者回归器。

Shotton等人[48]首先利用大量的样本训练了一个随机森林(Random forest)分类器,从深度图中分割出不同的人体部件区域,随后他们利用均值漂移(Mean shift)算法估计出关节位置。该方法的预测仅需要少量的计算量,可实时运行。该方法随后被Kinect SDK集成,用于实时重建三维姿态。

Taylor等人[49]利用随机森林方法预测属于人体关节的深度像素区域,随后将其用于姿态优化。判别式方法并不依赖于跟踪,可以减少累计误差,并且能够自然的处理快速运动。

与判别式方法不同,生成式方法通过变形参数化或非参数化模板来匹配观测数据。Ganapathi等人[50]使用动态贝叶斯网络(Dynamic Bayesian Network,DBN)来建模运动状态,并利用一个最大后验概率(Maximuma Posterior, MAP)框架推断出三维姿态。该方法需要事先知道人体的身材,并且不能有效地处理快速的人体运动。随后,Ganapathi等人[51]利用扩展的ICP测量模型和自由空间约束对方法[50]进行了改进。新方法可对人体参数化模板的大小进行动态调整,用于适配捕捉到的深度数据。

基于RGB-D的姿态重建方法由于其硬件限制,容易受到深度图噪声干扰,只能在距离较近的场景下适用。

基于单目RGB相机的姿态重建

得益于大规模带有三维人体姿态标注的视频数据集(如Human36M[52],Human-Eva[53])的出现,基于深度学习的三维姿态重建方法发展迅速。它们直接利用深度学习模型从图像或者视频中提取三维人体关节点位置[54–60]。

Li等人[54]是最早将深度学习引入到三维姿态估计,他们设计了一个包含检测与回归的多任务卷积神经网络,直接从图像中自动学习特征来回归三维关节点的位置,超过了以往通过人为设计特征的方法。

Pavlakos等人[56]提出了一种体素热图来描述人体关节点在三维体素空间不同位置上的可能性,并且使用一种从粗到细的级联策略来逐步细化体素热图的预测,取得了很好的姿态重建准确度。然而,这种体素表示往往需要面对巨大的存储和计算开销,最近[61]利用编码-解码(Encoder-Decoder)思想较好的解决了这个问题。

除了直接预测关节点三维位置,还有一些工作预测骨骼朝向[64,65],关节角[66],骨骼向量[67,68]等等。上述工作都采用强监督的方式进行训练,由于训练数据都是在受控环境下采集,因此训练出的模型通常都难以泛化到自然场景中。

为了提高模型的泛化能力,一些工作尝试利用弱监督的方式来监督自然场景中的图像,比如使用域判别器[69],骨骼长度先验[70]等等。

另一类三维姿态估计方法则将二维人体姿态作为中间表示。首先在图像中利用人工标注或者自动检测[71–74]的二维人体关节,然后通过回归方法[57,62,75]或者模型拟合[76]的方式将其提升到三维空间。

Martinez等人[62]设计了一个简单但是有效的全连接网络结构,它以二维关节点位置作为输入,输出三维关节点位置,如图2。

随后,Zhao等人[75]提出利用语义图卷积层模块捕捉人体关节点之间的拓扑相关性(比如人体对称性),进一步提高了三维姿态的重建准确性。但是从二维姿态映射到三维姿态本身是一个歧义问题,原因在于多个三维姿态可以投影出同一个二维姿态[77]。最近的一些工作尝试加入更多的先验知识来减轻歧义性[78–80]。

上述工作都属于判别式模型,预测得到的三维关节点位置可能不符合人体解剖学约束(比如不满足对称性,骨骼长度比例不合理)或者运动学约束(关节角超过限制)。Mehta等人[63]将一个人体骨架模板拟合预测得到的二维关节点与三维关节点位置,并提出了第一个基于RGB相机的实时三维姿态重建系统VNect,得到了较为准确的姿态重建结果。如图3所示。

参考文献

接上篇参考文献

[47] PLAGEMANN C, GANAPATHI V, KOLLER D, etal Real-time identification and localization of body parts from depthimages[C]//2010 IEEE International Conference on Robotics and Automation IEEE,2010: 3108-3113

[48] Shotton J, Fitzgibbon A, Cook M, etal Real-time human pose recognition in parts from single depth images[C]//CVPR2011 2011: 1297-1304

[49] TAYLOR J, SHOTTON J, SHARP T, et alThe vitruvian manifold: Inferring dense correspondences for one-shot human pose estimation[C]//2012 IEEE Conference on Computer Vision and Pattern RecognitionIEEE, 2012: 103-110

[50] GANAPATHI V, PLAGEMANN C, KOLLER D, etal Real time motion capture using a single time-of-flight camera[C]//2010 IEEEComputer Society Conference on Computer Vision and Pattern Recognition IEEE,2010: 755-762

[51] GANAPATHI V, PLAGEMANN C, KOLLER D, etal Real-time human pose tracking from range data[C]//European conference oncomputer vision Springer, 2012: 738-751

[52] IONESCU C, PAPAVA D, OLARUV, et alHuman3 6m: Large scale datasets and predictive methods for 3D human sensing innatural environments[J] IEEE Transactions on Pattern Analysis and MachineIntelligence, 2013, 36(7):1325-1339

[53] SIGAL L, BALAN A O, BLACK M JHumaneva: Synchronized video and motion capture dataset and baseline algorithmfor evaluation of articulated human motion[J] International journal ofcomputer vision, 2010, 87(1-2):4

[54] LI S, CHANA B 3d human poseestimation from monocular images with deep convolutional neuralnetwork[C]//Asian Conference on Computer Vision Springer, 2014: 332-347

[55] POPA A I, ZANFIR M, SMINCHISESCU CDeep multitask architecture for integrated 2d and 3d humansensing[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2017: 6289-6298

[56] PAVLAKOS G, ZHOU X, DERPANIS K G, etal Coarse-to-fine volumetric prediction for single-image 3D humanpose[C]//IEEE Conference on Computer Vision and Pattern Recognition 2017:7025-7034

[57] FANG H S, XU Y, WANG W, et alLearning pose grammar to encode human body configuration for 3d poseestimation[C]//Proceedings of the AAAI Conference on Artificial Intelligence:volume 32 2018

[58] SUN X, XIAO B, WEI F, et al Integralhuman pose regression[C]//Proceedings of the European Conference on ComputerVision (ECCV) 2018: 529-545

[59] LEE K, LEE I, LEE S Propagating lstm:3d pose estimation based on joint interdependency [C]//Proceedings of theEuropean Conference on Computer Vision (ECCV) 2018: 119-135

[60] HABIBIE I, XU W, MEHTA D, et al Inthe wild human pose estimation using explicit 2d features and intermediate 3drepresentations[C]//Proceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition 2019: 10905-10914

[61] FABBRI M, LANZI F, CALDERARA S, et alCompressed volumetric heatmaps for multiperson 3d poseestimation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision andPattern Recognition 2020: 7204-7213

[62] MARTINEZ J, HOSSAIN R, ROMERO J, etal A simple yet effective baseline for 3D human poseestimation[C]//Proceedings of the IEEE International Conference on ComputerVision 2017: 2640-2649

[63] MEHTA D, SRIDHAR S, SOTNYCHENKO O, etal VNect: Real-time 3D human pose estimation with a single RGB camera[J] ACMTransactions on Graphics (TOG), 2017, 36 (4):44

[64] LUO C, CHU X, YUILLE A Orinet: Afully convolutional network for 3d human pose estimation[J] arXiv preprintarXiv:181104989, 2018

[65] JOO H, SIMON T, SHEIKH Y Totalcapture: A 3D deformation model for tracking faces, hands, and bodies[C]//IEEEConference on Computer Vision and Pattern Recognition 2018: 8320-8329

[66] HABERMANN M, XU W, ZOLLHOEFER M, etal Deepcap: Monocular human performance capture using weak supervision[J]arXiv: Computer Vision and Pattern Recognition, 2020

[67] SUN X, SHANG J, LIANG S, et alCompositional human pose regression[C]//Proceedings of the IEEE InternationalConference on Computer Vision 2017: 2602-2611

[68] SUN X, LI C, LIN S Explicitspatiotemporal joint relation learning for tracking human pose [C]//Proceedingsof the IEEE/CVF International Conference onComputerVisionWorkshops2019: 0-0

[69] YANGW, OUYANGW,WANGX, et al 3Dhumanpose estimation in the wild by adversarial learning[C]//IEEE Conference onComputer Vision and Pattern Recognition 2018: 52555264

[70] ZHOU X, HUANG Q, SUN X, et al Towards3D human pose estimation in the wild: a weakly-supervised approach[C]//IEEEInternational Conference on Computer Vision 2017: 398-407

[71] WEI S E, RAMAKRISHNA V, KANADE T, etal Convolutional pose machines[C]// Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition 2016: 4724-4732

[72] NEWELL A, YANG K, DENG J Stackedhourglass networks for human pose estimation [C]//European conference oncomputer vision 2016: 483-499

[73] CHEN Y, WANG Z, PENG Y, et alCascaded pyramid network for multi-person pose estimation[C]//IEEE Conferenceon Computer Vision and Pattern Recognition (CVPR) 2018

[74] XIAO B, WU H, WEI Y Simple baselinesfor human pose estimation and tracking[C]//The European Conference on ComputerVision (ECCV) 2018

[75] ZHAO L, PENG X, TIANY, et al Semanticgraph convolutional networks for 3d human pose regression[C]//Proceedings ofthe IEEE/CVF Conference on Computer Vision and Pattern Recognition 2019:3425-3435

[76] CHENC H,RAMANAND 3D human poseestimation= 2D pose estimation+ matching[C]// Proceedings of the IEEEConference on Computer Vision and Pattern Recognition 2017: 7035-7043

[77] HOSSAINMR I, LITTLE J J Exploitingtemporal information for 3d human pose estimation [C]//Proceedings of theEuropean Conference on Computer Vision (ECCV) 2018: 68-84

[78] TEKIN B, MÁRQUEZ-NEILA P, SALZMANN M,et al Learning to fuse 2d and 3d image cues for monocular body poseestimation[C]//Proceedings of the IEEE International Conference on ComputerVision 2017: 3941-3950

[79] WANG J, HUANG S, WANG X, et al Notall parts are created equal: 3d pose estimation by modeling bi-directionaldependencies of body parts[C]//Proceedings of the IEEE/CVF InternationalConference on Computer Vision 2019: 7771-7780

[80] PAVLAKOS G, ZHOU X, DANIILIDIS KOrdinal depth supervision for 3D human pose estimation[C]//IEEE Conference onComputer Vision and Pattern Recognition 2018: 7307-7316

刚好在看姿态解算部分,粗略回答一下,有答的不对的地方欢迎讨论交流。

互补滤波有两种方法,加速度计和陀螺仪 加速度计,陀螺仪和磁力计,也就是所谓的IMU和AHRS

IMU方案是用加速度计修正陀螺仪,关于加速度计求解角速度也即是把重力分解到机体系上,通过反三角函数可以求解角速度,对于无法感知z轴上的旋转运动可以这样理解,当机体沿着z轴方向旋转时,分解出来的向量与旋转前并没有变化,也即水平面上没有重力分量,所以加速度计无法感知z轴的旋转,所以如果用这种姿态结算方法时,需要手动将机头对准正北方向,所以偏航的求解是有误差的。

以上就是关于如何形象地理解四元数全部的内容,包括:如何形象地理解四元数、各位四轴飞控的大佬们,四元素姿态解算的参数KI,KP该如何调节。是四元素解算的,不是PID的、人体三维重建(五)——人体姿态重建方法简述等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zz/9379769.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-27
下一篇2023-04-27

发表评论

登录后才能评论

评论列表(0条)

    保存