电子科技大学学士学位论文
第1步,标定。首先在目标区域距光源的多个不同位置分别用CMOS 感光元件采集散斑图案,然后存储这些不同位置的图案作为参考图像。此时标定完成。图2-3中,参考图像的位置分别记为Z1,Z2,Z3,Z4。
第2步,取样。当不透明物体放入场景,或者物体在场景中运动时,在物体表面形成新的散斑,得到测试图像,此时的散斑图样发生变化,与所有参考图像均不同。在图2-3中,物体A 和物体B 表面形成散斑的位置是ZA,ZB。
第3步,定位。将测试图像与所有参考图像分别计算相关系数,选取产生相关系数最大的参考图像,即物体在该参考图像所在位置的可能性最大。在图2-3中,场景放入A 物体所拍摄的ZA 位置散斑测试图与Z2 处参考图像相关系数最大,即认为A 物体在Z2 距离处。同理,B 物体认为在Z3 距离处。
第4步,重建。根据所选取的参考图像与光源间的标定关系,通过几何变换计算得出物体到光源的距离,构建3D 图像。并对距离数据归一化,转换成图像灰度值,最后将所生成的深度图像输出给外部处理设备。此时即完成对场景某一时刻的深度图像拍摄,向外部处理系统输出。然后返回执行第2步,得到连续不断的深度图像视频流。
第1步:标定 在不同距离处采集激光散斑参考图像 第2步:取样 采集物体表面的激光散斑侧视图 第3步:定位 计算测试图像与参考图像相关度,选取相关度最大的参考图像 第4步:重建 基于所选取的参考图与光源间的偏移量构建3D图像 输出 向外部处理系统输出深度图像 图2-4 光编码技术成像过程图
10
第2章 图像深度信息
2.3 实验数据预处理
如第一章所介绍的那样,我们需要提取图像特征的深度信息,由于原本图像的灰度矩阵大小为240*320=76800维,维数很大,并且其中包含有大量的零元素,即对实验结果影响几乎没有的元素,这时候,我们为了提高计算机的运行效率以及减少计算成本,在保留原始数据的尽可能完整性的前提下,我们需要对原始数据降维处理。本文当中采用的是主成分分析法(PCA)进行数据降维。
2.3.1 PCA算法的概念与应用
PCA(Principal Component Analysis),称主成分分析,从统计学的角度来说是一种多元统计方法。PCA通过将多个变量通过线性变换以选出较少的重要变量。它往往可以有效地从过于“丰富”的数据信息中获取最重要的元素和结构,去除数据的噪音和冗余,将原来复杂的数据降维,揭示隐藏在复杂数据背后的简单结构。近年来,PCA方法被广泛地运用于计算机领域,如数据降维、图像有损压缩、特征追踪等等。
PCA方法是一个高普适用方法,它的一大优点是能够对数据进行降维处理,我们通过PCA方法求出数据集的主元,选取最重要的部分,将其余的维数省去,从而达到降维和简化模型的目的,间接地对数据进行了压缩处理,同时很大程度上保留了原数据的信息,所以在机器学习和模式识别及计算机视觉领域,PCA方法被广泛的运用。
2.3.2 PCA算法的原理
PCA方法其实就是将数据空间通过正交变换映射到低维子空间的过程,如图2-5所示。而相应的基向量组应满足正交性且由基向量组构成的地位子空间最优地考虑了数据的相关性。在原数据集变换空间后应使单一数据样本的相互相关性降低到最低点。
11
电子科技大学学士学位论文
图2-5 红点代表原始数据点;绿点代表被映射到低维空间后的点;紫线代表映射
平面。
2.3.2.1 方差最大化
上面我们说过PCA方法的过程其实是寻找低维子空间的过程。那么什么样的低维空间才符合我们要求的呢。因为我们希望被映射后的数据之间的相关性降低到最低点,所以我们可以采取求解被映射后方差最大化的最优策略来找到低维空间。
假设我们有N个样本数据{xn},每个样本数据是D维,我们希望样本数据映射到M 1N(2-1) x??xn Nn?1那么映射后的数据方差就为: 1NT{u1xn?u1Tx}2?u1TSu1 (2-2) ?Nn?1 式中,S为原始数据集的协方差矩阵 T1N S??(xn?x)x (n?x) (2-3) Nn?112 第2章 图像深度信息 我们所希望的低维空间是能使等式(2-2)值最大的空间,即方差最大化。那么问题就转化为求解等式(2-2)的最大值。因为u1向量是正交向量,所以我们引入拉格朗日乘子法求解等式(2-2)得最大值。构造条件限制等式: T u1TSu1??(1?u1u1) (2-4) 由高等数学知识可知,我们要求解关于u1的等式(2-4)的最大值,只需要令(2-4)对u1求导令其等于0,得: Su1??u1 (2-5) 由线形代数知识可知,λ必为协方差矩阵的特征值,而为其对应的特征向量。我们将由1维情况扩展到M>1维情况,协方差矩阵S应该有M个特征特征值: ?1,....,?n,其对应的特征向量应为:u1,...,un 2.3.2.2 误差最小化 PCA的另一种构造形式是基于误差最小化。我们引入D维完备正交基向量组,即: uiTuj??i j (2-6) 所以我们可以用完备正交基向量来线形表示样本数据集中的每一个数据xn, v?vv(2-7) /(1v??) 充分利用根据等式(2-6)的正交属性,利用等式(2-7)可得系数?nj?xnTuj,反代回等式(2-7),可得等式: T xn??(xn ui)ui (2-8) i?1D我们来看表达等式(2-8)需要D维信息,而我们的目的是希望用M ???zniui? xi?1Mi?M?1 ?bu (2-9) iiDzni代表的是数据点的特殊分量,而bi代表的是所有数据点的所共有的分量。我们构造一个目标函数: 13 电子科技大学学士学位论文 1N2?n) (2-10) J??(xn?xNi?1其通俗的含义是我们希望通过M维表达的出的数据点逼近D维样本数据点,这里我们采用欧式距离衡量两个数据点的相似性。那么我们的问题又转化为最小化目标函数J。通过求导,我们可以得出: T Znj?xn uj (2-11) bj?xTuj (2-12) 反代回等式(2-10),得: J?i?M?1?uDTi(2-13) Sui 因此我们只要找寻协方差矩阵S的(D-M)个最小特征值就可。SVD奇异值分解是线性代数中的一种重要的矩阵分解方法,在信号处理、统计学等领域都有重要的应用。奇异值分解可以将一个比较复杂的矩阵分解为几个更小更简单的子矩阵相乘的形式来表达,而这些子矩阵描述的是原矩阵的重要的特性。 对于一个M×N大小的矩阵A来说,总是可以分解为: A?UM?M?M?NVT? (2-14) NN其中U和V分别是AAT和ATA的特征向量,而?则是他们的特征根。在PCA方法中,我们选取P个最大特征根及其所对应的特征向量,对A进行逼近: A?UM?P?P?PVT? P N (2-15) 线性代数理论证明:A与A’在最小二乘法的意义下是逼近的。而当P越接近N,则逼近的结果越接近于原矩阵。所以当我们选取的P远小于N时,所需要存储的信息量就会越小,达到了降维和压缩的目的。 14 百度搜索“77cn”或“免费范文网”即可找到本站免费阅读全部范文。收藏本站方便下次阅读,免费范文网,提供经典小说综合文库人体姿态估计本科毕业论文(4)在线全文阅读。
相关推荐: