点在k维平面上的投影以及点到k维平面的距离

点在k维平面上的投影以及点到k维平面的距离

一、点在k维平面上的射影及点到k维平面的距离(论文文献综述)

张楠[1](2021)在《绳索机器人的运动规划研究》文中研究指明绳索机器人采用柔性绳索控制末端执行器的运动以完成指定任务,但绳索只能向末端施加拉力而无法施加推力,此单向力传递特性为其运动规划带来了困难。为克服运动规划中的盲目性,本论文采用几何法首先研究了简单质点型绳索机器人的运动规划,然后将方法推广至复杂的平台型机构。之后通过映射视角研究了对具体机构类型依赖性较弱的更一般运动规划方法。最后考虑了基于期望运动空间的机构设计和在各类不确定性下的轨迹安全实现问题。具体研究工作分为以下四个方面。1)质点型绳索机器人的运动规划:为确定可行轨迹的存在性,论文采用几何法分析了绳索机器人的动力学约束特性及相应的动态工作空间。首先根据解析几何与射影几何将复杂的拉力约束转化为位置-加速度平面上的简单可行域约束,然后根据此平面上可行域的边界确定出末端执行器的最远运动距离,进而得到对偶的可达空间与可归空间。根据此对偶空间,可解析地规划出可行路径,并可在位置-加速度平面上直接设计可行的点到点轨迹、周期轨迹以及过渡轨迹。相应非空的轨迹参数取值范围可由可行域边界条件解析求解。2)平台型绳索机器人的运动规划:为将上述方法推广至平台型机构,首先分析了沿惯性主轴的转动下的单向力传递特性。它也可转化为位置-加速度平面上的可行域约束进行讨论,但约束边界变得更加复杂。根据此平面上曲线所满足的面积条件和可实现性条件,分析了可达空间并进行了相应的点到点运动规划。对于沿一般轴转动的情形,采用了可比较大小的内含点到点轨迹探索可达空间的边界并通过数值离散化路径求解了轨迹参数的取值范围。对于周期轨迹,可类似地通过函数合成或运动合成方式规划,合成参数的取值范围可用于描述相应的轨迹空间。最后也给出部分过渡轨迹的存在性结论或假设,并通过按动态优先级选择节点进行扩展的概率扩展树(PET)算法规划了两状态间的过渡轨迹。3)一般绳索机器人的运动规划:为寻找满足期望条件的可行轨迹以及对可行轨迹的性能进行优化,论文定义了两种对偶的映射(异性映射和共性映射),并将它们应用于一般轨迹的规划中。其中异性映射法是首先将拉力约束映射到拉力边界方程的无根区域,然后通过基于PET的移根法使拉力约束边界方程的实根离开不可行域而使不可行轨迹其变为可行轨迹。共性映射法是先选择参数化可行轨迹,然后采用斯图姆定理、区间代数运算或连续极值跟踪法将拉力约束转化为轨迹参数约束,并在保持轨迹可行性不变的条件下对轨迹性能进行动态改善,或求解用于描述轨迹空间的参数取值范围。4)绳索机器人的机构设计与轨迹实现:为在仿真或实验中实现期望的运动,论文根据延伸映射定义了一类对偶曲线以描述绳索机器人的可达空间,并通过对期望可达空间进行相应的收缩映射设计了合适的机构。为在无法跟踪运动目标时安全停止末端,论文以线性时变微分方程描述末端在广义变心场中的运动。然后采用一种基于纵横分级的PET算法,合理地搜索满足拉力约束条件、广义场心条件以及运动收敛条件的场参数,以生成一系列局部可行的轨迹,使得末端在绳索始终张紧的情形下停止成为可能。本论文主要采用几何法定义和求解了用于保证可行轨迹存在性的可达空间,并给出了可达空间内考虑复杂动力学约束下的运动规划方法。最后通过仿真或实验,对所提出的一些代表性运动规划方法进行了有效性检验。

李文涛[2](2020)在《基于结构光立体视觉的轨道磨耗测量研究》文中研究说明列车速度和轴重的不断提升将导致轨道磨耗加剧,如不及时检测并维护将引发列车脱轨等事故,严重影响铁路运输安全。随着我国高速铁路里程的迅速增长,对钢轨状态采用人工巡检和手工测量的方式因工作量大、效率和精度低等缺点,很难满足铁路现场维护的需求。如何精确快速检测轨道磨耗,掌握其损伤规律和磨耗变化,对轨道进行及时维护以延长使用寿命,避免安全事故发生,已成为铁路工务部门急需解决的难题。在此背景下,结构光测量技术因其非接触、精度高和测量数据丰富的优势被运用于轨道磨耗测量以替代传统手工方式。通常轨道磨耗发生在钢轨、辙岔、尖轨等不同部位,分为垂磨、侧磨、波浪磨耗等不同类型。钢轨铺设量大、分布广且结构简单,可通过获取钢轨轮廓来测量磨耗;而辙岔、尖轨等复杂结构部件和波浪磨耗通过二维断面轮廓难以定位,无法准确测量磨耗,需获取其三维形貌。本文根据结构光视觉测量特性,将线结构光视觉测量技术运用于钢轨全轮廓磨耗的动态测量,将面结构光视觉测量技术运用于辙岔、尖轨等复杂结构和波浪形磨耗测量。线结构光钢轨全轮廓磨耗双目视觉动态测量的精度容易受环境光照、现场标定、测量过程中振动及与标准模型误差分析的影响;而利用面结构光立体视觉对轨道三维形貌磨耗测量的难点在于测量点云数据预处理和与标准三维模型的对比分析。为利用结构光视觉测量技术精确测量轨道磨耗,本文主要研究内容如下:(1)为了实现线结构光双目视觉测量系统在铁路现场的标定,提出了一种基于自由平面靶标的高精度标定方法,是准确获取钢轨全轮廓的基础。铁路现场不便于调节设备,因此基于自由平面靶标实现系统标定。通过获取光平面与多个不同位置棋盘格平面靶标相交产生的特征点,拟合出光平面在钢轨两侧摄像机坐标系中的空间位置,然后将两侧摄像机测量的钢轨单侧轮廓统一到同一坐标系,从而获得钢轨断面全轮廓。因摄像机自身光敏特性以及外界因素影响,导致钢轨左右两侧轮廓会发生微小的偏差。根据两侧钢轨轨头踏面轮廓相同特征,实现钢轨断面全轮廓数据融合。(2)研究了线结构光视觉测量系统中钢轨光条轮廓亚像素中心精确快速提取方法,通过系统标定参数将其转化为钢轨全轮廓数据。铁路现场环境光以及轨头光亮带会影响钢轨光条轮廓图像质量,因此采用相机自动曝光法保证钢轨图像质量,同时使光条轮廓占据图像中一定量的像素点,在此基础上提取光条亚像素中心。为保证钢轨光条轮廓中心亚像素提取的精度和效率,提出图像动态阈值分割和Hessian矩阵相结合的提取方法,提高测量对环境的适应性,提升图像处理速度。(3)研究了线结构光视觉测量系统动态测量过程中,轨道检测车振动可能引起的钢轨磨耗测量误差,从硬件设计和测量算法上消除该影响。轨道检测车振动导致光平面偏转,测量的钢轨全轮廓会相对垂直断面发生横向和纵向拉伸,若与标准二维钢轨轮廓对比得到的磨耗值将产生误差。在硬件上通过弹簧压紧装置动态调整,使检测小车测量单元始终贴靠于钢轨侧面;测量算法上将测量的钢轨二维全轮廓数据引入三维空间,与标准钢轨三维模型进行对比。采用测量钢轨两侧轨腰小圆弧圆心作为初始配准基准,利用轨腰轮廓作为精确配准基准,实现测量钢轨全轮廓与标准钢轨三维模型精确对齐。最终将测量钢轨全轮廓投影到垂直于钢轨纵向的平面测量磨耗,能够有效消除测量过程中振动引起的光平面偏转问题。(4)研究了面结构光视觉测量系统获取的轨道原始测量点云预处理,检测数据与标准模型精确配准分析。轨道原始点云数据往往伴随大量噪声点并且数据量大,因此采用欧式聚类分割消除噪声点,然后采用基于曲率的点云自适应采样,在精简点云的同时保留点云细节特征,完成数据预处理。轨道三维磨耗测量是将测量三维形貌与标准三维模型进行对比分析,采用主成分分析法和最近点迭代法相结合的精确配准算法,与常用配准算法相比提高了精度和效率。(5)深入研究了线结构光双目立体视觉测量,实现钢轨全轮廓磨耗动态测量。在理论研究的基础上,设计并制造了线结构光双目立体视觉测量系统,在待检钢轨上推行轨道检测车获取钢轨断面全轮廓磨耗状况。对于道岔等复杂结构及钢轨波浪磨耗,则通过设计并制造面结构光立体视觉测量系统,以静态测量方式获取轨道三维形貌点云,实现轨道三维磨耗测量。通过理论研究和多次现场试验,实现了线结构光双目视觉测量系统对钢轨全轮廓磨耗的快速、动态测量和面结构光立体视觉测量系统对道岔辙岔、尖轨磨耗的三维测量以及工务测量参数提取,验证了结构光视觉测量系统的可行性和实用性,为轨道磨耗测量提供新的技术手段。

刘璐[3](2019)在《多视图三维重建与点云轮廓特征提取技术研究与实现》文中指出三维重建能够将现实景物在计算机中全方位再现,从而帮助人们全面认识环境物体信息。无人机由于其视角高、视场大等特点广泛应用于城市规划、土地勘测等领域。本文针对灾害发生后使用无人机对受灾现场建筑进行情况评测的应用场景,主要对其中使用到的多视图三维重建和点云轮廓特征提取两个关键技术进行研究,具体研究内容如下:首先,本文研究了通过图像重建三维模型所需的相关理论,并对重建时必要的相机内参数进行标定,为后续多视图重建奠定基础。随后,本文对采集到的待重建建筑的多幅多角度视图进行特征提取与匹配,寻找合适的初始图像对,恢复外参数和三维坐标完成初始模型重建,在此基础上每次选取一张新增图像,通过二维三维联系恢复相机矩阵,计算三维坐标并全局优化,获得稀疏三维模型,并通过稠密重建进一步完善模型轮廓和细节。针对实际应用时对断点重建和模型完善的需求,本文提出了基于模型的视图重建流程,能够随时基于已重建模型添加新视图以完善整体效果。之后,本文对计算得到的三维点云进行预处理,分割投影得到点云平面,提取平面轮廓,拟合出轮廓的直线特征。本文在直线特征拟合前引入轮廓线的可连接性判断,将提取出的平面轮廓分为空间位置上可连接的轮廓线集合,解决内外轮廓同时存在情况下可能发生的直线误拟合问题。最后,本文设计并实现了三维重建-轮廓提取系统,该系统包含数据输入,数据输出,可视化交互,三维重建和点云处理五个模块,能够基于图像重建三维模型并处理,同时支持三维模型导出和直线轮廓参数导出,便于实际应用。

尹旺美[4](2019)在《基于深度信息的视频拼接方法研究》文中提出随着多媒体技术的飞速发展,多视角视频拼接技术越来越广泛地应用于大场景的监控系统、安防系统、军事系统以及生物医学系统等,具有广阔的研究意义。在阅读关于视频拼接文献的时候发现,进行多视角视频拼接的时候,由于场景中深度的结构复杂,不同帧之间的深度信息是变化的,采用图像拼接中的配准方法,在拼接时会产生伪影、不连续等深度失真问题,严重影响大场景图像的质量。而且由于深度失真现象的存在,在摄像机运动或场景中有运动物体的情况下,深度失真现象还会被加强,进一步使拼接后的大场景视频图像出现模糊、鬼影等现象。本文针对视频拼接出现的深度失真问题,在原有的深度信息获取方法上进行改进,并通过对现有拼接方法加入深度信息约束,降低深度失真在视频图像拼接中所带来的不利影响,主要内容包括以下几个方面:1.在视频图像拼接中,摄像机拍摄的场景中不同的帧之间的深度信息是变化的,因此容易出现伪影、场景不连续等深度失真现象,而且在摄像机运动或场景中有运动物体的情况下,深度失真的存在会进一步使拼接后的大场景视频图像出现模糊、鬼影等现象。本文针对深度失真问题对深度信息的获取方法进行了研究,提出在快速先验视差估计和后验视差相结合的空间立体匹配算法的基础上,通过融合视频图像序列时间上的信息精化提取深度信息。2.针对两个摄像机拍摄到的同一个场景点在这两个成像平面的深度大小并不一样所产生的深度失真问题,本文提出加入深度信息对Automatic Stitching方法、As Projective As Possible方法、Shape Preserving Half Projective方法进行优化改进,利用深度信息更进一步约束特征点对筛选,进一步降低在拼接过程中产生的深度失真现象。通过实验表明,本文提出的方法能够有效地改善视频图像拼接后产生的倾斜、模糊等深度失真问题,高质量地完成视频图像的拼接。3.针对多视角的视频图像拼接过程中,由于摄像机的基线不在同一水平线上,需要对不同摄像机之间的基线问题进行考虑后再进行拼接,本文提出对宽基线图像多视角全景构建方法加入深度信息进行约束改进,进行图像和非平面图像之间的宽基线场景结构的图像之间的拼接,更好地实现多视角输入的图像拼接成一幅高质量的大场景图像。

史小敏[5](2018)在《多摄像机立体视觉动态实时测量系统》文中提出相比双目视觉系统,多摄像机立体视觉系统虽然算法复杂,设计难度大,但其具有更宽的测量范围和更高的测量精度,应用前景广泛。因此,论文针对多摄像机立体视觉的动态测量进行研究,从硬件选型到同步图像采集,从图像特征点定位、图像运动跟踪、自适应滤波到立体标定,分别进行设计和算法研究,开发了一套多摄像机立体视觉动态测量系统。综合考虑多摄像机动态测量对图像同步采集和图像传输速率的要求,进行了图像传输接口和相机种类选型。在Lab VIEW平台上,开发了多相机同步采集系统软件,建立了三摄像机立体视觉系统模型及动态测量软件平台。根据系统结构与测量精度的关系,设计了相机的空间布局方案。研究了多摄像机立体标定算法。通过开发新的标定工具箱,获取所有相机内参数、畸变参数和结构参数。并根据立体标定环境的实际情况,提出了一种自动调整曝光时间算法使棋盘格成像清晰,降低了标定结果的不确定度。选用四边形对角线交叉点为动态测量特征点,实现了该特征点的准确定位。为解决系统实时性问题,研究了基于检测更新模型的图像运动跟踪算法,与不使用图像跟踪算法相比,该算法减少了40%的运行时间,在i7四核CPU上实现了三摄像机每个相机大约12FPS(Frames Per Second)的实时处理。提出了一种IAE-DW自适应滤波算法,通过动态调整IAE算法窗口大小,取得了良好的滤波效果;实验证明,在1.5m深度附近,运动速度最快约64mm/s时,系统轨迹测量的平均误差小于1.5mm。

刘健辰[6](2017)在《基于倾斜影像的Mesh模型自动构建方法研究》文中研究说明倾斜航空摄影主要应用于城市区域三维建模,其能从多个角度获取完整的地物信息。传统的航空摄影只从垂直方向获取信息,能够用于4D产品的生产,但是不能满足城市区域的建模需求。倾斜航空影像弥补了垂直摄影的不足,能够获取更多的地物信息,并构建完整逼真的三维模型。倾斜影像在大比例尺测图、三维模型纹理采集和数字城市快速三维建模等方面得到了广泛的应用。区别于传统的竖直航空摄影方式,倾斜航空摄影从多个角度获取地物信息,其成像方式可以分为:固定倾斜角度成像,例如SWDC-5相机;摆扫式成像,例如A3相机。从单幅影像的角度来看,倾斜影像具有如下特点:①从多个视角倾斜成像,从而获取更多的建筑物立面信息;②具有较高的空间分辨率,且一幅影像内的分辨率不相同;③覆盖同一地物的多张影像的空间分辨率差异较大;④倾斜成像使地物遮挡现象较突出。从摄影方式的角度看,倾斜摄影具有如下特点:①获取数据速度快,时间分辨率高,能够反映测区的动态变化,利于数据实时更新;②倾斜航空摄影的重叠度比航空摄影的重叠度要高,多镜头和高重叠度使得像片数量庞大;③地物信息丰富,能够观测建筑物的每个立面的结构特征和纹理特征,尽量减少视角的盲点,提供完整的三维模型数据。目前,国外已有多家公司能够提供从影像空三到城市三维模型的技术。例如,瑞典的C3 Technology、法国的Smart3D、瑞士的Pixel4D和法国的街景工厂Street Factory等。虽然Smart3D已在国内大量应用,并能生成逼真的三维模型,但是还存在一些问题。倾斜影像三维重建存在的问题有:①密集匹配数据不够精确且不够完整;②密集匹配数据中建筑物的棱角特征不够突出;③建筑物表面变形;④三维模型有孔洞等问题。因此,基于倾斜影像自动构建三维Mesh模型仍然是一个难点,本文把基于影像的重建问题转化为基于密集点云的重建问题,克服倾斜影像透视变形对密集匹配的影响,构建高质量的流形三角网模型,适用于大区域、复杂场景的三维重建。本文的主要工作如下:1)本文围绕倾斜影像的特点,讨论了倾斜影像三维重建的难点,介绍了倾斜影像三维重建的基础知识,探讨了倾斜影像三维重建的关键技,深入分析了现有三维重建算法存在的问题。2)本文提出最小透视变形核线影像改正算法,在此基础上实现顾及物方平面的密集匹配策略,克服了倾斜影像的透视变形对密集匹配的影响。核线改正是三维重建中必要的初始步骤,针对倾斜影像变形大的特点,本文研究如何生成透视变形最小的核线影像,最大程度降低对密集匹配的影响。城市区域存在大量的水平面和竖直面,可以分别生成水平核线影像、竖直核线影像和相对于原始影像的像平面变形最小的核线影像。最后,融合以上三种核线影像的密集匹配结果,突出各自最有利的一部分区域,集成一幅最优的密集匹配深度图。3)本文提出虚拟视角法深度图融合,将相互重叠的深度图融合成一个非冗余的点云并提高点云的精度。倾斜影像数据量大且数据冗余大,直接利用密集匹配的点云构建Mesh模型存在计算量大且耗内存等问题;物体表面被多层点云覆盖且多层点云之间存在偏差,即存在深度图之间不一致的问题。通过深度图融合可以去除点云噪声,增强深度图之间的一致性,以及提高点云精度。常用的深度图融合方法,例如SURE和OpenMVS,是将每一张原始影像作为基准影像,虽然能够消除深度图之间的不一致,但是不能够去除冗余且计算量大。因此,合理选择基准影像是一个重要问题,既要避免冗余计算,还要保证基准影像覆盖所有的场景。本文通过定义有限数量的虚拟视角,尽可能地减少冗余并覆盖全部场景,在虚拟视角上融合深度图并实现三维重建。4)本文提出法向单参数法Mesh优化,利用原始图像信息优化Mesh模型,提高Mesh模型的精度。图割法构建Mesh模型具有抗噪声能力强,适应大场景、复杂区域的特点,但是构建的Mesh模型表面不满足二维流形特性。在图割法构网的基础上,本文通过顶点重标记实现二维流形Mesh的构建,为后续的Mesh简化和优化提供初始模型。由点云构建的Mesh模型,通常是重建了一个近似的表面,重建的Mesh模型存在局部变形、棱角不突出和三角网密度不一致等现象。因此,构建的Mesh需要再次利用原始影像信息弥补重建过程中的信息损失,依据匹配代价值最小原理利用原始影像和投影几何关系优化重建的Mesh。本文对Mesh顶点进行优化,并将其演化方向约束在法向量上,使其自由度降为1,减少了变量;用高斯曲率作为正则约束项,具有各向异性的特点,在优化过程中保留了建筑物的边缘特征。

王海鹏[7](2016)在《Android手机端基于图像的三维姿态计算及其计算机图形学应用研究》文中进行了进一步梳理通过相机的运动,计算机获得实时的二维图像,从而通过相关算法得到相机的运动参数。分析相机运动参数属于计算机视觉的范畴,三维模型加载则属于计算机图形学。相机运动在计算机图形学中的应用是计算机视觉与计算机图形学的交叉研究项目。典型研究课题是增强现实(Augmented Reality)、虚拟现实(Virtual Reality)。增强现实通过输入传感器,比如声音、视频或者GPS传感器来通过计算机生成对物理、真实世界的直接或间接的增强信息。增强现实是用虚拟世界增强真实世界,而相反的是,虚拟现实通过替换真实世界为计算机生成的虚拟世界。增强现实使用基于相机运动的计算机视觉技术,比如基于运动的三维重建、场景跟踪等技术。而虚拟现实通过各种运动传感器,比如陀螺仪、GPS跟踪器来获取运动信息,将设备的运动转为相机运动,并反映到虚拟世界。本文对增强现实和虚拟现实领域用的技术进行了简要的介绍,包括多视图几何的相关理论基础,三维建模的基本原理、对基于图像渲染的技术进行了阐述。本文实现的第一个系统是基于增强现实的人脸姿态识别的应用。使用了高效的人脸检测算法,并通过离线对人脸做的三维人脸模型,基于POSIT算法用二维人脸特征点和三维模型顶点对应关系得到相机运动矩阵来计算人脸姿态。并在Android手机中实现增强现实效果来观察人脸姿态检测的效果。实验结果证明不仅人脸姿态估计效果明显,而且达到了检测人脸并显示三维人脸模型的实时效果。本文实现的第二个系统是基于虚拟现实做的立体虚拟展示系统,通过离线生成摄像机的运动轨迹,并拟合规整的运动轨迹后,通过相邻两视点的摄像机参数,基于三视图几何的对极转移原理生成沿摄相机运动轨迹任意视点的摄像机参数。然后通过基于保持内容完整性的算法来生成沿新摄相机运动轨迹上任意视点的视图,实验证明相比较其他基于图像的渲染算法,比如全景图、Photosynth、View Morphing等算法来说,既保持了内容、又扩大了生成视点的范围。

刘艳[8](2015)在《机器人结构光视觉系统标定研究》文中指出视觉传感器使机器人具有视觉感知功能,是机器人系统组成的重要部分之一。机器人通过视觉传感器获取环境和目标物体的二维图像,然后利用图像处理技术对二维图像进行分析和解释,并将分析和解释的结果转换为可用信号,实现对目标物体的识别、测量和控制。由于线结构光视觉传感器具有抗干扰能力强、精度高、实时性强、主动受控等优点,特别适合于应用在复杂环境里的机器人测量和控制任务中。机器人利用视觉信息进行测量和控制时,通常需要获取视觉传感器坐标系和机器人坐标系间的关系及结构光的空间位姿,这需要对机器人末端与视觉传感器间的手眼关系及视觉传感器进行标定。本文针对机器人线结构光视觉系统中的线结构光视觉传感器标定、机器人手眼标定和基于图像控制的机器人视觉系统自动标定问题展开了研究工作。第一,以具有一组正交直径的同心圆为靶标,提出了一种基于两消隐点正交几何特性的摄像机内参数标定方法。证明了正交直径产生的两消隐点在摄像机坐标系下的正交性,利用毕达哥拉斯定理建立了摄像机内参数的约束方程,通过对约束方程的线性化求解实现了摄像机内参数的线性标定。将K-均值聚类算法与最小二乘法结合进行消隐点求解,有效提高了消隐点提取的精度和鲁棒性,从而保证了摄像机内参数标定的精度和鲁棒性。标定结果和误差分析表明,标定精度能够满足毫米级测量要求。第二,给出了线结构光视觉传感器光平面方程系数与视觉传感器几何结构参数之间的关系。对线结构光视觉传感器的测量范围和测量精度进行了理论分析,讨论了图像特征测量偏差和几何结构参数对线结构光视觉传感器测量范围和测量精度的影响,为线结构光视觉传感器的几何结构配置和结构参数选择提供了理论依据。提出了一种以已知距离共线三点为靶标的线结构光平面标定方法,实现了两步法中的线结构光平面标定。第三,以具有一组正交直径的同心圆为靶标,提出了两种机器人手眼标定方法。一种是基于摄像机运动量的方法,利用靶标图像产生的两正交消隐点计算出运动前后机器人末端摄像机的运动量;以单位四元数法表示手眼矩阵的旋转部分,利用解耦求解策略分别对旋转部分和平移部分进行线性求解。另一种是基于摄像机外参数和靶标位置参数的方法,利用两正交消隐点和定点变位姿方法分别求出摄像机相对于靶标的外参数和靶标位置参数,将它们代入手眼标定模型实现手眼标定。实验结果表明,标定精度满足毫米级测量要求,是可行和有效的标定方法。第四,给出了面向光条纹与直线对齐任务的基于图像的无标定视觉控制方法,根据视觉系统的配置特点和直线极坐标表示,推导了图像空间中光条纹和目标直线特征与三维空间中机器人位姿间的图像雅可比矩阵,并利用Kalman滤波算法对它进行在线估计。给出了摄像机内参数标定误差的等效描述,基于这种描述分析了标定误差对控制系统稳定性和控制精度的影响;根据李雅普诺夫稳定性理论,利用劳斯稳定判据分析了连续视觉控制系统和离散视觉控制系统的稳定性。提出基于图像控制的线结构光平面自动标定方法,在摄像机内参数已知的前提下,利用线对齐控制策略实现了线结构光平面的自动标定,标定精度优于人工标定方法。第五,给出了光条纹与机器人工作空间中特定点对齐的无标定视觉控制方法,以图像空间中直线斜截式参数为特征推导了图像雅可比矩阵,并利用Kalman滤波算法对其进行在线估计,实现了线结构光条纹与机器人操作空间中特定点的对齐控制。提出基于图像控制的机器人手眼自动标定方法。在线结构光视觉传感器已标定的前提下,基于手眼关系坐标变换模型,利用线点对齐控制策略实现了机器人手眼自动标定,标定精度优于人工标定方法。

郭春磊[9](2014)在《基于线结构光的H型钢位置测量方法研究》文中进行了进一步梳理准确地测量出H型钢的位置是实现型钢切割自动化的关键步骤。传统的手动或接触式的测量方法效率低下,测量准确度受人为因素影响较大,且难以与自动化设备集成。本文采用在工业领域有着广泛应用的线结构光测量方法,完成了对H型钢待切割截面上四个关键点位置的准确测量。在深入研究线结构光测量原理的基础上,本文结合具体工程应用,对系统标定及线结构光图像处理等方面提出了一些行之有效的改进方法,以使测量系统满足快速、准确的工程需要。主要研究的内容包括:研究了几种目前流行的三维视觉测量方法的原理,重点分析了线结构光测量方法的数学模型。根据具体的测量需要,建立基于线结构光的H型钢位置测量系统,包括确定组成测量系统的各个硬件模块和软件平台。线结构光测量系统的标定分为摄像机内参数标定和结构光平面参数标定。在标定摄像机内参数阶段,提出了一种采用棋盘格靶标的全自动标定方法,整个标定过程不需要人为干预,其标定精度与需要人为干预的标定方法相当,该方法极大地减少了摄像机标定的工作量。提出了一种带加权的图像模板匹配算法,利用模板匹配提取待测点的初始图像位置,并以此为基础通过连续迭代得到待测点的亚像素坐标。为了充分利用计算机的并行计算资源,分别采用基于Pthread标准的多线程技术和OpenMP标准,对原有的串行图像处理程序进行了优化。

吕耀文[10](2014)在《小、暗、多、快目标的近距离测量关键技术研究》文中提出现代靶场为适应武器系统快速发展的需要,提出了对小、暗、多、快目标测量的新要求。由于目标具有小、多、不发光和速度快等特点,要获取目标的清晰图像,相应的光学测量设备必须具有高帧频、高灵敏度和大视场的特性。基于对成本和安全性的要求,光学测量设备的布站位置距目标相对较远,因此无法给出对小、暗、多、快目标作用过程的细节。本文结合现代电子通信技术与摄像测量方法从低成本高速CMOS摄像机设计、图像采集存储、摄像机标定和目标测量等关键技术对该问题进行了深入的研究。本文的研究内容主要集中在以下几个方面:(1)根据测量要求并考虑研制成本,本文设计了一款分辨率为2K×1K、最高帧频为280帧、曝光可调的低成本高速CMOS摄像机,并详细说明了高速摄像机设计中的关键技术,尤其对高速数据采集中的位对齐和字对齐技术做了重点论述。为了适应测量设备小型化、便携化和低功耗的发展趋势,本文设计了一套基于高速SATA传输接口的嵌入式图像存储系统。实验结果表明,该图像存储系统最高图像存储速度可以达到294MB/s。(2)摄像机标定算法在本文中做了详细讨论和深入研究。以平面棋盘为标定工具,采用平面标定算法标定测量系统摄像机的内外参数,并针对该算法在实际标定中标定结果不收敛的问题,在随机抽样一致性(RANSAC)算法的基础上,提出了一种改进的标定算法。实验结果表明,改进的标定算法与传统方法相比,在降低算法迭代次数,优化算法运行效率的同时,标定精度提高了35%。(3)根据小、暗、多、快目标测量的实际需求,本文采用平面摄像测量方法单目测量目标的脱靶量和落点坐标,该方法具有测量简便、灵活性高的优点。在此基础上,针对点目标抛物线运动测量的问题,证明了二次抛物线的射影几何性质,并提出了一种针对抛物线运动目标三维信息测量的单目测量方法。通过仿真和实际小球投掷实验,验证了方法的正确性和可行性。该方法与双目测量结果比较,小球三维坐标测量误差在1.2%以内。(4)针对更一般的交汇测量任务,本文首先详细介绍了交汇测量中的关键技术,包括三维欧式重构、立体匹配与外参数标定等;其次,重点分析了外参数对测量精度的影响,通过仿真得到了最优的结构参数;最后,针对小、暗、多、快目标的落点测量问题,提出了一种无需标定的平面交汇测量方法,该方法可以应用于大范围、远距离、粗测量的场合。

二、点在k维平面上的射影及点到k维平面的距离(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、点在k维平面上的射影及点到k维平面的距离(论文提纲范文)

(1)绳索机器人的运动规划研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 绳索机器人的研究背景
    1.2 绳索机器人的研究现状
        1.2.1 机构设计
        1.2.2 特性分析
        1.2.3 运动规划
        1.2.4 轨迹实现
    1.3 论文内容与结构安排
        1.3.1 论文工作
        1.3.2 创新之处
        1.3.3 结构安排
第2章 质点型绳索机器人的运动规划
    2.1 运动学与动力学建模
    2.2 拉力约束特性分析
        2.2.1 直线路径下的单向力传递分析
        2.2.2 曲线路径下的单向力传递分析
    2.3 工作空间分析
        2.3.1 直线路径下的可达空间
        2.3.2 曲线路径下的可达空间
    2.4 运动规划
        2.4.1 点到点运动规划
        2.4.2 周期运动规划
        2.4.3 过渡运动规划
    2.5 本章小结
第3章 平台型绳索机器人的运动规划
    3.1 运动学与动力学建模
    3.2 拉力约束特性分析
        3.2.1 直线路径下的单向力传递分析
        3.2.2 曲线路径下的单向力传递分析
    3.3 工作空间分析
        3.3.1 可达空间
        3.3.2 周期空间
        3.3.3 过渡空间
    3.4 动态轨迹规划
        3.4.1 点到点运动规划
        3.4.2 周期运动规划
        3.4.3 过渡运动规划
    3.5 本章小结
第4章 一般绳索机器人的特性分析和运动规划
    4.1 动力学约束下的映射定义
        4.1.1 保路径可行性映射
        4.1.2 保时间历程可行性映射
        4.1.3 保轨迹可行性映射
    4.2 动力学约束下的映射求解
    4.3 映射视角下的工作空间求解与运动规划
        4.3.1 映射视角下的可达空间求解
        4.3.2 映射视角下的运动规划
    4.4 复杂机构与复杂约束下的运动规划
        4.4.1 可重构绳索机器人运动规划
        4.4.2 冗余绳索机器人运动规划
        4.4.3 绳索机器人避障运动规划
    4.5 本章小结
第5章 绳索机器人的设计与轨迹实现
    5.1 可达空间的几何描述
        5.1.1 对偶伴随曲线的定义
        5.1.2 对偶伴随曲线的存在唯一性
        5.1.3 对偶伴随曲线的求解
        5.1.4 对偶伴随曲线的性质
    5.2 绳索机器人的设计
        5.2.1 绳索机器人的参数设计
        5.2.2 绳索机器人的结构设计
    5.3 轨迹的安全实现
        5.3.1 安全实现的问题描述
        5.3.2 安全实现的方法
        5.3.3 安全拉力分配
    5.4 仿真与实验
        5.4.1 质点型绳索机器人的线性运动规划
        5.4.2 质点型绳索机器人的非线性运动规划
        5.4.3 平台型绳索机器人的线性运动规划
        5.4.4 平台型绳索机器人的非线性运动规划
        5.4.5 绳索机器人的安全停止
    5.5 本章小结
第6章 总结与展望
    6.1 总结
    6.2 展望
参考文献
致谢
在读期间发表的学术论文与取得的其他研究成果

(2)基于结构光立体视觉的轨道磨耗测量研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 轨道磨耗测量国内外现状分析
        1.2.1 铁路现场轨道检测现状
        1.2.2 国内外检测设备及研究现状
    1.3 结构光视觉测量关键技术
        1.3.1 结构光主动视觉成像原理
        1.3.2 结构光视觉测量系统标定技术
        1.3.3 结构光视觉测量图像处理技术
        1.3.4 视觉测量三维点云处理技术
    1.4 轨道磨耗测量研究内容
    1.5 论文组织结构
第二章 结构光立体视觉测量原理及系统构建
    2.1 视觉测量系统摄像机成像
        2.1.1 摄像机透视投影模型
        2.1.2 相机畸变模型
    2.2 线结构光钢轨全轮廓双目视觉测量系统
        2.2.1 线结构光双目视觉测量系统组成
        2.2.2 线结构光双目视觉测量原理
        2.2.3 线结构光钢轨全轮廓双目视觉测量系统设计
        2.2.4 线结构光双目视觉测量系统精度分析
    2.3 面结构光轨道三维形貌视觉测量系统
        2.3.1 面结构光轨道三维形貌测量系统组成
        2.3.2 面结构光双目立体视觉测量原理
        2.3.3 面结构光轨道三维形貌测量系统设计
    2.4 本章小结
第三章 线结构光钢轨全轮廓双目视觉测量系统标定研究
    3.1 引言
    3.2 摄像机内部参数标定
    3.3 线结构光平面标定
        3.3.1 线结构光平面提取
        3.3.2 线结构光平面标定
        3.3.3 线结构光平面标定步骤
    3.4 视觉测量系统标定试验与精度分析
        3.4.1 摄像机内参数标定试验与精度分析
        3.4.2 线结构光平面标定试验与精度分析
        3.4.3 线结构光双目视觉测量系统测量试验
    3.5 本章小结
第四章 线结构光视觉测量系统钢轨轮廓精确快速提取
    4.1 引言
    4.2 图像获取、分析与处理
        4.2.1 钢轨轮廓光条图像分析
        4.2.2 钢轨轮廓光条图像处理方法
    4.3 摄像机自动曝光
        4.3.1 摄像机自动曝光标准
        4.3.2 摄像机自动曝光方法
    4.4 线结构光光条中心提取
        4.4.1 线结构光光条中心提取常用方法
        4.4.2 基于Hessian矩阵的光条中心亚像素点快速提取
    4.5 试验与分析
    4.6 本章小结
第五章 线结构光钢轨断面全轮廓磨耗测量
    5.1 引言
    5.2 钢轨断面轮廓特征分析与提取
        5.2.1 经典霍夫变换算法
        5.2.2 钢轨轨头踏面轮廓提取
        5.2.3 钢轨轨腰小圆弧轮廓圆心提取
    5.3 钢轨断面全轮廓数据融合
        5.3.1 轨头和轨腰轮廓分割
        5.3.2 基于ICP算法的钢轨全轮廓数据融合
    5.4 钢轨断面全轮廓磨耗测量
        5.4.1 钢轨标准模型生成
        5.4.2 钢轨测量轮廓初始配准
        5.4.3 钢轨测量轮廓精确配准
        5.4.4 钢轨全轮廓磨耗测量
    5.5 本章小结
第六章 面结构光轨道三维形貌精确视觉测量
    6.1 引言
    6.2 点云数据预处理
        6.2.1 点云读取
        6.2.2 点云去噪
        6.2.3 点云自适应精简
    6.3 点云配准测量
        6.3.1 常用配准算法
        6.3.2 配准试验分析
    6.4 轨道磨耗铁路现场测量试验
        6.4.1 钢轨磨耗参数测量
        6.4.2 道岔磨耗参数测量
    6.5 本章小结
总结与展望
致谢
参考文献
攻读博士学位期间发表的论文及科研成果

(3)多视图三维重建与点云轮廓特征提取技术研究与实现(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景和研究意义
    1.2 国内外研究现状
        1.2.1 多视图三维重建
        1.2.2 点云轮廓特征提取
    1.3 研究内容与整体结构
        1.3.1 本文研究内容
        1.3.2 本文组织结构
    1.4 本章小结
第2章 多视图几何理论基础
    2.1 引言
    2.2 相机模型
        2.2.1 参考坐标系
        2.2.2 相机的针孔模型
        2.2.3 相机模型的一般表达
    2.3 图像间的对极几何
        2.3.1 对极几何
        2.3.2 基础矩阵
        2.3.3 本征矩阵
    2.4 相机内参数标定
    2.5 本章小结
第3章 多视图三维重建
    3.1 引言
    3.2 特征点检测与匹配
        3.2.1 SIFT特征检测
        3.2.2 SIFT特征匹配
    3.3 两视图重建
        3.3.1 初始图像对选择
        3.3.2 相机外参数估计
        3.3.3 三维坐标恢复
    3.4 多视图三维重建
        3.4.1 新增图像选取
        3.4.2 相机矩阵估计
        3.4.3 集束调整
    3.5 稠密重建
    3.6 基于模型的视图重建
        3.6.1 重建结果存储
        3.6.2 基于模型的视图重建
    3.7 本章小结
第4章 点云轮廓特征提取
    4.1 引言
    4.2 点云预处理
        4.2.1 平均点距计算
        4.2.2 邻域点搜索
        4.2.3 法向量估计
    4.3 点云平面提取
        4.3.1 点云平面分割
        4.3.2 点云平面投影
    4.4 点云轮廓特征提取
        4.4.1 轮廓提取
        4.4.2 可连接性判断
        4.4.3 轮廓直线拟合
    4.5 本章小结
第5章 软件系统设计与实现
    5.1 引言
    5.2 平台搭建与系统框架
        5.2.1 平台环境搭建
        5.2.2 系统整体框架
    5.3 系统功能演示
        5.3.1 数据输入
        5.3.2 数据输出
        5.3.3 可视化交互
        5.3.4 三维重建
        5.3.5 点云处理
    5.4 本章小结
结论
参考文献
攻读硕士学位期间发表的论文及其它成果
致谢

(4)基于深度信息的视频拼接方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 图像配准方面
        1.2.2 深度失真方面
        1.2.3 形状失真方面
    1.3 论文主要工作
    1.4 论文结构
第2章 相关理论基础
    2.1 摄像机标定
        2.1.1 三个坐标系
        2.1.2 摄像机变换模型
    2.2 摄像机标定过程
    2.3 极线几何
        2.3.1 极线几何基本概念
        2.3.2 极线几何实际模型
    2.4 RANSAC算法
    2.5 图像拼接方法
        2.5.1 Auto-Stitch方法
        2.5.2 APAP方法
        2.5.3 SPHP方法
    2.6 图像融合算法
        2.6.1 加权平均法
        2.6.2 小波变换融合法
        2.6.3 基于拉普拉斯金字塔变换融合法
    2.7 小结
第3章 深度信息恢复算法的改进
    3.1 空间立体匹配法
        3.1.1 Sobel描述子计算
        3.1.2 稳定匹配点对的提取
        3.1.3 建立先验信息基础
        3.1.4 结合后验概率
        3.1.5 建立综合概率模型
    3.2 空间立体匹配法的改进
    3.3 小结
第4章 视频图像拼接方法的实现
    4.1 改进的拼接方法
        4.1.1 Auto-Stitching+深度信息方法
        4.1.2 APAP方法+深度信息方法
        4.1.3 SPHP方法+深度信息方法
        4.1.4 APAP+SPHP+深度信息方法
    4.2 实验结果对比
        4.2.1 Auto-Stitching+深度信息
        4.2.2 APAP方法+深度信息
        4.2.3 SPHP方法+深度信息
        4.2.4 APAP+SPHP+深度信息
    4.3 实验结果分析与总结
    4.4 小结
第5章 基于宽基线图像拼接的实现
    5.1 多视角宽基线图像全景构建
    5.2 实验结果与分析
    5.3 小结
结论
参考文献
附录A 攻读硕士学位期间的学术成果
致谢

(5)多摄像机立体视觉动态实时测量系统(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 研究背景与意义
    1.2 多摄像机立体视觉系统研究现状
        1.2.1 双目立体视觉研究现状
        1.2.2 多摄像机立体视觉研究现状
        1.2.3 关键技术
    1.3 论文的主要内容与章节安排
第2章 多摄像机立体视觉系统总体设计
    2.1 需求分析
    2.2 硬件设计
        2.2.1 相机型号选择
        2.2.2 图像采集卡型号选择
    2.3 软件设计
        2.3.1 系统软件开发工具选择
        2.3.2 多摄像机立体视觉动态测量算法
        2.3.3 基于Lab VIEW的多相机同步采集系统
    2.4 本章小结
第3章 多摄像机立体视觉系统模型
    3.1 立体视觉中的坐标系
    3.2 针孔成像模型
    3.3 透镜畸变矫正
    3.4 多摄像机立体视觉系统模型
    3.5 系统精度分析与系统结构设计
    3.6 本章小结
第4章 多摄像机立体标定
    4.1 多摄像机视觉立体标定算法
        4.1.1 单目相机标定
        4.1.2 双目相机立体标定
        4.1.3 多摄像机立体视觉系统的全局标定算法
    4.2 标定工具箱设计
        4.2.1 标定工具箱需求分析
        4.2.2 标定工具箱现状分析
        4.2.3 程序设计
    4.3 立体标定实验
        4.3.1 曝光控制试验
        4.3.2 曝光控制对标定结果的影响
        4.3.3 立体标定结果
    4.4 本章小结
第5章 运动物体的多摄像机立体视觉测量
    5.1 多摄像机立体视觉的空间点定位算法
    5.2 图像特征点定位
        5.2.1 特征点选取
        5.2.2 四边形对角线交叉点提取算法设计
    5.3 基于检测更新模型的图像运动跟踪算法
    5.4 自适应滤波算法
        5.4.1 IAE滤波原理
        5.4.2 IAE标准差估计精度研究
        5.4.3 IAE-DW滤波原理
    5.5 实验研究
        5.5.1 IAE-DW长度测量滤波
        5.5.2 空间定位与轨迹测量
        5.5.3 图像运动跟踪实验
    5.6 本章总结
结论
参考文献
攻读学位期间发表论文与研究成果清单
致谢

(6)基于倾斜影像的Mesh模型自动构建方法研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究的背景与意义
    1.2 国内外研究现状
        1.2.1 基于影像建模的研究现状
        1.2.2 影像改正及密集匹配方法研究现状
        1.2.3 构建三角网方法研究现状
        1.2.4 三角网优化方法研究现状
    1.3 研究目标与内容
    1.4 论文结构与内容安排
第二章 倾斜影像三维建模的理论基础与关键技术
    2.1 引言
    2.2 倾斜影像的特点
        2.2.1 单张倾斜影像的特点
        2.2.2 倾斜影像的成像方式
        2.2.3 倾斜摄影平台简介
    2.3 倾斜影像三维建模的基础知识
        2.3.1 投影矩阵的计算及其分解
        2.3.2 深度图像的定义
        2.3.3 流形三角网的概念与表达
        2.3.4 三角网的遮挡检测原理
    2.4 倾斜影像三维建模的关键技术与存在的问题
        2.4.1 倾斜影像空三
        2.4.2 倾斜影像密集匹配
        2.4.3 构建Mesh模型
    2.5 本章小结
第三章 最小透视变形核线改正及密集匹配
    3.1 引言
    3.2 最小透视变形核线改正原理
        3.2.1 核线改正基础
        3.2.2 最小透视变形的约束原理
    3.3 倾斜影像核线改正方法
        3.3.1 核线影像的旋转矩阵
        3.3.2 核线影像的相机矩阵
        3.3.3 核线影像的变形区域约束
    3.4 倾斜影像密集匹配策略
        3.4.1 SGM密集匹配算法
        3.4.2 分层分块的匹配策略
        3.4.3 顾及物方平面的匹配策略
    3.5 算法效果与对比分析
        3.5.1 核线影像改正结果与分析
        3.5.2 密集匹配结果与分析
    3.6 本章小结
第四章 基于虚拟视角的深度图融合
    4.1 引言
    4.2 虚拟视角法深度图融合
        4.2.1 虚拟视角的定义
        4.2.2 选择匹配像对
        4.2.3 虚拟视角投影变换
        4.2.4 虚拟视角深度值融合
    4.3 基于区域的虚拟视角间深度图融合
        4.3.1 Mean shift算法滤波法向量图
        4.3.2 虚拟视角间深度图融合
    4.4 算法效果与对比分析
        4.4.1 融合点云的精度分析
        4.4.2 重建表面的粗糙度分析
    4.5 本章小结
第五章 流形Mesh的构建与法向单参数优化
    5.1 引言
    5.2 基于图割法构建流形Mesh
        5.2.1 构建能量函数
        5.2.2 添加有向图权值
        5.2.3 顶点重标记构建流形Mesh
    5.3 法向单参数法Mesh优化
        5.3.1 构建能量函数
        5.3.2 法向单参数能量函数
        5.3.3 法向单参数能量函数的梯度
        5.3.4 顾及特征的正则项约束
        5.3.5 求解方法
    5.4 算法效果与对比分析
        5.4.1 构网结果与分析
        5.4.2 Mesh优化结果与分析
    5.5 本章小结
第六章 倾斜影像三维重建实验
    6.1 引言
    6.2 实验数据
        6.2.1 倾斜影像数据
        6.2.2 倾斜影像空三解算
    6.3 三维重建结果
        6.3.1 双视图密集匹配结果
        6.3.2 虚拟视角法深度图融合结果
        6.3.3 Mesh模型结果
        6.3.4 纹理映射结果
    6.4 本章小结
第七章 结论与展望
    7.1 结论
    7.2 展望
参考文献
攻读博士期间取得的学术成果
致谢

(7)Android手机端基于图像的三维姿态计算及其计算机图形学应用研究(论文提纲范文)

致谢
摘要
Abstract
1 绪论
    1.0 课题来源
    1.1 课题的研究背景
    1.2 本文的工作和组织
        1.2.1 Android手机上的人脸姿态估计系统
        1.2.2 基于图像的立体虚拟展示系统
        1.2.3 实验
2 相机运动在计算机图形学与计算机视觉的相关理论基础
    2.1 射影变换
        2.1.1 仿射变换
        2.1.2 单应矩阵
    2.2 摄像机几何和单视图几何
        2.2.1 摄像机内参矩阵
        2.2.2 摄像机外参矩阵
    2.3 两视图几何
        2.3.1 对极几何
        2.3.2 基础矩阵
        2.3.3 本质矩阵
    2.4 基于图像的渲染
        2.4.1 不需要几何参数的渲染算法
        2.4.2 需要少量几何参数的渲染算法
        2.4.3 需要大量几何参数的渲染方法
3 Android手机端基于三维模型的人脸姿态实时估计系统
    3.1 系统概述
    3.2 系统框架
    3.3 基于SfM的三维人脸模型重建
    3.4 特征点提取
    3.5 Ransac筛选
    3.6 获取特征点三维坐标
    3.7 优化重建效果
    3.8 基于“显式形状回归”的检测人脸特征点的算法
    3.9 姿态识别与增强现实
        3.9.1 求解并优化旋转平移矩阵
        3.9.2 增强现实
    3.10 实验
4 基于保持内容的变形算法的虚拟展示系统
    4.1 系统概述
    4.2 生成的数据集
        4.2.1 摄像机内外参
        4.2.2 特征点集
    4.3 拟合摄像机运动轨迹
        4.3.1 对三维摄像机世界坐标点拟合一个平面
        4.3.2 将三维摄像机世界坐标点投影到平面上
        4.3.3 对平面上的二维坐标点拟合一个二维圆
        4.3.4 把二维圆转换为三维圆
    4.4 对极变换
        4.4.1 求解新视点摄像机内参
        4.4.2 求解原始视点与新视点之间的基础矩阵
        4.4.3 求解极线,并求极线交点
    4.5 预处理以及预变形算法
    4.6 保持内容的变形算法
        4.6.1 数据项(Data Term)
        4.6.2 相似变换项(Similarity Transformation Term)
    4.7 纹理映射算法与两视图图像融合
    4.8 生成最终视频
    4.9 实验
        4.9.1 真实数据
        4.9.2 View Morphing,Photosynth,CPW的对比试验
        4.9.3 Maya生成的数据在CPW算法下的结果
5 总结与展望
    5.1 总结
    5.2 展望
6 参考文献
作者简历及在学期间所取得的科研成果

(8)机器人结构光视觉系统标定研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 本论文的研究目的和意义
    1.2 摄像机标定技术研究现状
        1.2.1 基于靶标的标定方法
        1.2.2 基于主动运动的标定方法
        1.2.3 自标定方法
        1.2.4 基于消隐点的标定方法
    1.3 线结构光视觉传感器标定技术研究现状
        1.3.1 基于靶标的标定方法
        1.3.2 基于主动运动的标定方法
        1.3.3 基于消隐点的标定方法
        1.3.4 线结构光视觉传感器标定的关键技术
    1.4 手眼标定技术研究现状
        1.4.1 手眼标定的模型
        1.4.2 手眼标定的方法
        1.4.3 手眼标定的关键技术
    1.5 视觉控制技术
        1.5.1 机器人视觉控制概述
        1.5.2 基于图像的机器人视觉控制研究现状
        1.5.3 基于图像的视觉控制的关键问题
    1.6 本文主要研究内容和结构安排
第2章 基于两消隐点正交几何特性的摄像机内参数标定
    2.1 概述
    2.2 摄像机模型
        2.2.1 摄像机透视成像模型
        2.2.2 摄像机焦距归一化模型
        2.2.3 摄像机外参数模型
    2.3 消隐点基础
        2.3.1 消隐点定义与性质
        2.3.2 消隐点的产生与计算
        2.3.3 正交消隐点
    2.4 摄像机内参数标定原理
        2.4.1 两消隐点正交几何特性证明
        2.4.2 摄像机内参数标定原理
    2.5 实验与结果分析
        2.5.1 实验结果
        2.5.2 对比实验
        2.5.3 精度比较实验
    2.6 小结
第3章 线结构光视觉传感器的性能分析和光平面标定
    3.1 概述
    3.2 线结构光视觉传感器模型
        3.2.1 线结构光视觉传感器各组分模型
        3.2.2 线结构光视觉传感器的结构模型
        3.2.3 平面参数与结构参数的关系
    3.3 线结构光视觉传感器性能分析
        3.3.1 测量范围
        3.3.2 测量精度
    3.4 基于已知共线三点的线结构光平面标定原理
    3.5 实验结果和精度分析
        3.5.1 实验结果
        3.5.2 精度测试实验
    3.6 小结
第4章 机器人线结构光视觉系统的手眼标定
    4.1 机器人线结构光视觉系统手眼标定
    4.2 基于A_iX=XB_i模型的手眼标定
        4.2.1 手眼标定模型A_iX=XB_i
        4.2.2 基于两消隐点正交特性的摄像机运动量计算
        4.2.3 手眼矩阵X的求解
    4.3 基于AX=Z(B~i)~(-1)模型的手眼标定
        4.3.1 手眼标定模型AX=Z(B~i)~(-1)
        4.3.2 变换矩阵Z的求解
        4.3.3 手眼关系的计算
    4.4 实验结果
        4.4.1 手眼标定实验
        4.4.2 验证实验
    4.5 结论
第5章 基于视觉控制的线结构光平面自动标定
    5.1 概述
    5.2 基于图像的视觉控制
    5.3 基于线结构光图像的直线对齐控制
        5.3.1 图像雅可比矩阵
        5.3.2 基于kalman滤波的图像雅可比矩阵估计
        5.3.3 基于线结构光图像的直线对齐控制
    5.4 稳定性分析
        5.4.1 摄像机内参数误差对成像的影响
        5.4.2 视觉控制系统稳定性分析
    5.5 线结构光平面自动标定原理
    5.6 实验结果与分析
        5.6.1 系统结构
        5.6.2 控制的实现
        5.6.3 线结构光平面的自动标定的实现
    5.7 小结
第6章 基于视觉控制机器人手眼自动标定
    6.1 概述
    6.2 基于线结构光图像的点线的对齐控制
        6.2.1 图像雅可比矩阵
        6.2.2 基于线结构光图像的直线与点的对齐控制
    6.3 手眼自标定原理
    6.4 实验结果
        6.4.1 系统结构
        6.4.2 控制的实现
        6.4.3 验证实验
    6.5 小结
结论
参考文献
攻读学位期间发表论文与研究成果清单
攻读学位期间参与的科研项目
致谢
作者简介

(9)基于线结构光的H型钢位置测量方法研究(论文提纲范文)

中文摘要
Abstract
字母注释表
第一章 绪论
    1.1 课题来源及研究目的
    1.2 线结构光测量方法的发展及研究现状
    1.3 论文结构安排
第二章 测量要求与系统构成
    2.1 测量任务
    2.2 视觉测量技术
    2.3 H型钢位置测量系统
    2.4 本章小结
第三章 线结构光系统的标定
    3.1 摄像机标定
    3.2 全自动摄像机标定方法
    3.3 线结构光平面参数的标定
    3.4 本章小结
第四章 线结构光图像处理
    4.1 线结构光图像角点
    4.2 基于模板匹配的角点提取
    4.3 亚像素线结构光图像角点
    4.4 采用并行技术的图像处理程序优化
    4.5 本章小结
第五章 测量结果与误差分析
    5.1 系统标定
    5.2 测量实验
    5.3 误差分析
    5.4 本章小结
第六章 结论
参考文献
发表论文和参加科研情况说明
致谢

(10)小、暗、多、快目标的近距离测量关键技术研究(论文提纲范文)

摘要
Abstract
目录
第1章 绪论
    1.1 课题研究背景及意义
    1.2 相关领域的研究现状及发展趋势
    1.3 论文的主要研究内容和论文结构安排
第2章 摄像测量模型和参数估计
    2.1 坐标变换与摄像测量模型
    2.2 摄像机几何与极线几何
    2.3 参数估计与迭代优化
    2.4 本章小结
第3章 大分辨率高速记录测量系统设计
    3.1 系统总体硬件结构设计
    3.2 高速摄像机的设计
    3.3 嵌入式高速存储系统
    3.4 实验与分析
    3.5 本章小结
第4章 测量系统中摄像机参数的标定
    4.1 Tsai 的两步标定方法
    4.2 基于 2D 平面的摄像机标定方法
    4.3 基于棋盘平面的摄像机标定实验
    4.4 改进的鲁棒标定算法
    4.5 本章小结
第5章 单目摄像测量研究
    5.1 平面单应测量算法与误差分析
    5.2 抛物线运动点目标的单目测量算法
    5.3 算法仿真与实验
    5.4 本章小结
第6章 交汇测量研究
    6.1 交汇测量的基本原理
    6.2 立体视觉外参数的标定
    6.3 立体匹配
    6.4 交汇测量中的系统结构分析
    6.5 双目平面交汇落点测量
    6.6 本章小结
第7章 总结与展望
参考文献
在学期间学术成果情况
指导教师及作者简介
致谢

四、点在k维平面上的射影及点到k维平面的距离(论文参考文献)

  • [1]绳索机器人的运动规划研究[D]. 张楠. 中国科学技术大学, 2021(09)
  • [2]基于结构光立体视觉的轨道磨耗测量研究[D]. 李文涛. 西南交通大学, 2020(06)
  • [3]多视图三维重建与点云轮廓特征提取技术研究与实现[D]. 刘璐. 哈尔滨工业大学, 2019(01)
  • [4]基于深度信息的视频拼接方法研究[D]. 尹旺美. 湖南大学, 2019(07)
  • [5]多摄像机立体视觉动态实时测量系统[D]. 史小敏. 北京理工大学, 2018(07)
  • [6]基于倾斜影像的Mesh模型自动构建方法研究[D]. 刘健辰. 武汉大学, 2017(06)
  • [7]Android手机端基于图像的三维姿态计算及其计算机图形学应用研究[D]. 王海鹏. 杭州师范大学, 2016(08)
  • [8]机器人结构光视觉系统标定研究[D]. 刘艳. 北京理工大学, 2015(04)
  • [9]基于线结构光的H型钢位置测量方法研究[D]. 郭春磊. 天津大学, 2014(03)
  • [10]小、暗、多、快目标的近距离测量关键技术研究[D]. 吕耀文. 中国科学院研究生院(长春光学精密机械与物理研究所), 2014(09)

标签:;  ;  ;  ;  ;  

点在k维平面上的投影以及点到k维平面的距离
下载Doc文档

猜你喜欢