基于层次结构的彩色图像合成系统关键技术研究与实现

基于层次结构的彩色图像合成系统关键技术研究与实现

一、基于层次结构的彩色图像合成系统的关键技术研究与实现(论文文献综述)

郭承刚[1](2020)在《面向远程环境目标感知的视觉跟踪与深度估计算法研究》文中认为在我国多发自然灾害和事故灾难的情况下,为了保证救援人员的人身安全,发展远程无人操作平台是面向应急救灾安全保障的新需求。为了向操作员提供准确的远程环境感知能力,基于计算机视觉手段提取远程环境中各类目标物的方位、姿态、深度等信息,可以规避潜在危险并实现直观精细地操作辅助。针对远程场景中的目标深度感知需求,本文从视觉目标跟踪和双目立体深度估计两个方向研究了计算机视觉理论算法,取得了一定的理论研究成果,并设计了一种算法实施方案。近年来,基于传统数学模型的视觉跟踪方法和基于深度神经网络的立体匹配方法得到了研究人员的广泛关注和持续跟进。一方面,复杂环境中随时间变化的目标形态和目标外观对现有跟踪算法提出的挑战仍然存在,如何挖掘目标局部稳定外观特征,实现快速准确的视觉跟踪仍然需要深入研究。另一方面,最新的立体匹配算法通过设计复杂的深度神经网络结构来降低匹配误差,但无法实时输出高分辨率深度图。如何通过简化创新网络结构来提高立体匹配算法推理效率,并对深度图中的边缘等精细结构实现准确预测,面向实用化改进立体匹配网络仍是难点问题。本文首先完整地回顾总结了基于稀疏表示模型和基于相关滤波模型的视觉跟踪方法中的数学模型和算法思想,概括了基于深度神经网络的立体匹配方法的主要发展历程,然后分别提出了两种准确的目标跟踪算法以及两种轻量的立体匹配网络。在所提出的跟踪算法中,一定程度探索了稀疏表征思想和相关滤波思想的结合。在所提出的立体匹配算法中,则探讨了输入高分辨率彩色图的边缘纹理和预测视差图的视差边缘之间的映射关系。主要工作可以分为以下四点:(1)针对现有基于正向稀疏表示模型的目标跟踪算法中特征提取和编码过程的冗余重复问题,提出了一种基于循环反向稀疏模型的实时稀疏表示跟踪算法。该算法基于反向稀疏表示模型,使用由循环移位算子生成的候选目标样本集合作为稀疏字典,对目标模板进行稀疏编码。由于只对目标模板反向求解稀疏编码,并且将包含循环移位目标候选特征集合的优化式转换到频域求解,所提出的算法优化过程十分高效。相比经典的稀疏表示跟踪算法,综合性能表现更好,运行速度也大大加快。(2)针对现有基于鉴别相关滤波的目标跟踪算法忽略目标内部局部空间结构信息的问题,提出了一种基于空间树形结构的稀疏正则化相关滤波跟踪算法。该算法将表达目标内部空间层次化结构的组稀疏正则化项引入相关滤波目标优化式中,来对不同层次的局部滤波器分组施加正则化约束,以表达目标不同空间位置上局部外观特征与期望响应之间的关系。对于优化过程中的关键步骤,基于循环矩阵的性质将其转换到频域中以方便快速地求解。相比基于整体模型的相关滤波跟踪算法,所提出的基于局部空间结构的跟踪算法各项性能指标更好。(3)针对现有端到端立体匹配网络模型的视差上采样结构速度较慢,对边缘等精细结构不能有效预测的问题,提出了一种改进的端到端立体匹配网络模型。在所提出的网络模型中,主要研究了视差上采样细化阶段的局部自适应感知卷积结构和相关的损失函数。基于这种共享卷积结构,探索了不同上采样阶段图像强度像素与视差像素之间的语义联系,通过训练过程中卷积权重的梯度更新来自适应地感知预测视差图中的深度不连续边缘。实验表明,所提出的立体匹配网络中视差上采样结构相比直接级联强度特征和视差特征的上采样结构更为有效,且该立体匹配网络具有良好的预测精度和速度。(4)针对现有的立体匹配网络模型推理效率较低的实际问题,提出了一种有效结合低分辨率视差估计和超分辨率子网的深度立体匹配网络结构。该结构以降低卷积层的操作分辨率为原则,构建较低分辨率的匹配代价体,并执行低分辨率水平上的代价聚合和视差回归,从而快速获得初始视差图。然后使用所提出的超分辨率子网完成快速地视差图逐级上采样,并在上采样的同时进行高频信息补充与视差噪声细化。与最新的端到端立体匹配网络相比,所提出的新模型具有较高的预测精度和更快的预测推理速度。综上所述,本文对计算机视觉领域两个核心方向,视觉跟踪和立体匹配,开展了算法研究,为无人工程机械的远程环境视觉感知应用提供了算法理论方面的技术支撑。最后,为实际应用提供了系统方案设计思路和相关仿真实验。

刘波[2](2020)在《民族服饰草图自动着色方法研究》文中进行了进一步梳理绚丽多姿的少数民族服饰蕴含着丰富的民族历史与文化,其中具有符号象征的色彩体现了更深层的民族精神和地域特色。因此,研究少数民族服饰色彩规律及应用对于实现少数民族文化保护与传承具有积极的意义。当前该领域存在技术应用度不高、依赖专业经验等方面的问题,严重制约了少数民族文化数字资源的开发利用。因此,利用计算机领域新技术,探索并研究面向少数民族服饰数字资源应用的图像自动着色方法,具备一定的研究价值和应用前景。本文通过构建一个多样性的服饰草图库,利用生成式对抗网络在图像生成方面的优势,训练神经网络并得到一个用于草图着色的生成器,从而实现对民族服饰手绘草图的自动着色,为少数民族服饰文化数字化的应用提供了创新思路和技术参考。主要研究内容和成果如下:(1)设计民族服饰图案轮廓提取算法。本文提出一种基于离散H通道的边缘检测算法,该算法通过在HSV空间中定义多尺度颜色标签,将原图像转换为H通道的色彩标签图,然后计算色彩标签图中区域的离散相似性以确定边缘点,最后完成民族服饰图案边缘检测任务。实验分析表明,该算法极大提升传统梯度法的检测准确率,能有效提取民族服饰图案轮廓。(2)建立民族服饰草图库。本文利用提出的边缘检测算法对佤族民族服饰图像进行处理,在得到的民族服饰边缘图的基础上,结合现有草图生成算法对其进行多种风格的草图化处理,并通过筛选最终构建了包含彩色图像和手绘草图等多风格的民族服饰草图数据库,为民族服饰数字化相关领域研究提供重要的数据依据。(3)构建民族服饰草图着色模型。本文利用深度学习技术的优势,构建了基于生成式对抗网络的民族服饰草图着色模型,该模型由6层U-net结构的生成器和5层卷积神经网络的判别器构成,并在此基础上优化了损失函数,最后使用本文构建的草图数据库进行模型训练。通过大量草图着色实验结果表明,该模型对民族服饰色彩规律具备良好的学习能力,能够达到较好的着色效果。(4)实现民族服饰草图自动着色原型系统。本文设计并实现了用于展示民族服饰草图着色效果的原型系统,该系统将边缘检测、草图生成、草图着色等功能进行了集成,对本文研究的阶段性成果进行了可视化展示,进一步验证了本文方法的有效性和实用性。

谢斌[3](2020)在《基于特征保持的彩色图像增强研究》文中指出图像增强是图像处理的一个重要分支,其目的是通过添加特定信息或进行特定变换来有选择地突出或保持源图像中的重要特征,以得到满足用户需求的结果图像。随着计算机视觉技术的迅速发展和人们对图像质量要求的不断提高,图像增强技术涉及的研究领域日益广泛。由于彩色图像已经非常普及,并且它所包含的内容和表达的丰富信息是灰度图像无法比拟的,因此,对彩色图像增强的研究显得尤为重要。现阶段,重彩色技术和去彩色技术是彩色图像增强领域中的热点问题,受到众多科研人员的密切关注。为此,文中在综述了相关研究现状的基础上,对重彩色技术和去彩色技术中的若干特征保持关键问题进行了深入的研究和探讨。主要研究成果如下:(1)针对传统基于总变分正则的重彩色方法容易导致结果图像出现“阶梯效应”和小细节模糊的问题,文中提出了一种基于自适应总广义变分正则的重彩色新方法(ATGVR方法)。首先,将总广义变分正则引入到重彩色模型中,以有效地抑制“阶梯效应”。其次,在重彩色模型中设计了一种加权的边缘指示函数,它能够根据图像的内容自适应地引导总广义变分正则控制模型的平滑力度,以更好地达到保护重彩色结果图像细节的目的。另外,文中结合前向-后向分裂算法和加权原始-对偶算法设计了一种新的数值解法,以有效地求解所提新模型。仿真实验结果表明,相对于传统基于总变分正则的重彩色方法,文中所提ATGVR方法不仅可以有效地抑制“阶梯效应”,而且还能够更好地保护图像细节,得到的结果图像更加自然和清晰。(2)针对传统重彩色方法中目标图像的颜色信息容易对重彩色过程造成干扰并影响结果图像颜色效果的问题,文中提出了一种基于中心化约束的重彩色新方法(CFTVR方法)。一方面,设计了一种新的中心化约束并将其引入到重彩色模型中,以减小目标图像的颜色对重彩色过程的干扰,并使结果图像能够更好地保持参考图像的颜色信息。另一方面,将分数阶总变分正则引入到重彩色模型中,以更方便地抑制“阶梯效应”和保护结果图像细节。此外,为了求解所提新模型,文中结合增广拉格朗日算法和原始-对偶算法设计了一种新的数值解法。仿真实验结果表明,相对于传统的重彩色方法,文中所提CFTVR方法可以让结果图像的颜色风格更加忠诚于参考图像的颜色风格,并能够取得更好的重彩色效果。(3)针对传统织物图像重彩色方法中存在的算法复杂度高、重彩色后的结果图像不能很好地保留原织物图像的层次感和细节等问题,文中结合显着颜色提取和图像分解提出了一种新的织物图像重彩色方法(SDFR方法)。一方面,利用显着颜色提取得到原织物图像更具代表性的主要颜色和分割区域,以使结果图像能够更好地保持原织物图像的层次感。另一方面,将原织物图像分解成包含主要细节的纹理部分和包含主要轮廓结构的卡通部分,并利用更加简单有效的防溢出重彩色策略将新的颜色主题转移到原织物图像的卡通部分,然后再叠加原织物图像的纹理部分以得到重彩色后的结果图像,从而更好地保持织物图像的细节和有效地提升算法的运行效率。仿真实验结果表明,相对于传统的织物图像重彩色方法,文中所提SDFR方法不仅能够让结果图像较好地保持原织物图像的层次感和细节,而且运行效率也得到了明显的提升。新方法具有简单、高效的特点,能够较好地适用于织物图像的颜色设计工作。(4)针对传统基于双峰高斯分布的去彩色方法存在的对比度保持能力不足、容易产生伪影和算法复杂度较高等问题,文中提出了一种基于梯度保持和全局对比度保持的去彩色实时方法(GBGD方法)。首先,利用灰度结果图像的梯度和由亮度控制的彩色图像梯度设计了一种新的梯度保持约束项,以有效地保持灰度结果图像的局部对比度。其次,在双峰高斯函数约束中引入全局像素对比度,以更好地保持灰度结果图像的全局对比度。另外,为了求解所提新模型,文中结合固定点迭代法设计了一种高效的数值解法。仿真实验结果表明,相对于传统的去彩色方法,文中所提GBGD方法能够较好地保持原彩色图像的对比度和有效地抑制伪影,在评价指标方面亦有更好的表现。该方法达到了实时的速度,具有较好的应用价值。(5)针对传统去彩色方法不能较好地保持原彩色图像的主要视觉对比度、层次感和细节等问题,文中结合局部线性嵌入和梯度相似度提出了一种新的离散搜索去彩色方法(LLEGSD方法)。一方面,引入局部线性嵌入思想以让灰度结果图像保持原彩色图像的主要视觉对比度和层次感。另一方面,利用灰度结果图像与原彩色图像的梯度相似度以让灰度结果图像保持原彩色图像的边缘细节特征。最后,采用离散搜索策略快速地得到去彩色结果。仿真实验结果表明,文中所提LLEGSD方法可以有效地保持原彩色图像的主要视觉对比度、层次感和边缘细节,并能够取得较传统方法更好的去彩色效果。

顾钦华[4](2020)在《基于混合架构的高光谱图像多应用系统研究与实现》文中研究指明近年来,高光谱技术被应用于显微成像中,提供了传统彩色显微图像所不具有的光谱信息,许多研究者也开展了基于显微高光谱图像的病理研究工作,验证了其在医学领域应用中良好的发展前景与有效性。然而,由于高光谱成像设备的成本较高,数据不易获取,且大部分研究还处于探索阶段,所以导致了高光谱图像医学系统(医疗设备与功能软件)生态圈不如彩色图像发展蓬勃,特别是在全玻片扫描仪、数字切片浏览器、病理分析软件、病理图像库等方面。因此,在实验室已有的显微高光谱成像设备基础之上,本论文旨在设计、开发一套显微高光谱图像完整生命周期系统,为高光谱医学研究提供基础工具。为了使得系统具备更强的应用能力与更友好的交互能力,本文在整合C/S、B/S、SOA不同架构优势的基础上,进行了设计方案的优化。系统主要包括1个基础服务组件以及高光谱数据管理应用、高光谱图像处理软件与高光谱大区域影像浏览应用这3个顶层应用。在系统实现过程中,重点研究了针对高光谱图像的大区域影像格式以及显微图像序列拼接算法。对于大区域影像格式,本文调研了市面上不同厂商的全玻片图像格式,针对高光谱图像数据量庞大的问题提出了二维空间索引hyperslide与立方体阵列相结合的图像格式解决方案;对于显微图像序列拼接,本文针对传统基于特征点的图像拼接算法中无法有效利用高光谱信息以及显微图像序列配准复杂化等问题进行了改进,提出了结合先验约束与角点的图像拼接算法CSB,其在图像拼接的各个阶段采用了不同的加速方法与高光谱图像的适应策略,快速且准确地对本系统数据进行拼接,为生成hyperslide提供基础。系统的实际操作与拼接算法实验对比结果表明,本文设计的高光谱图像多应用系统覆盖了高光谱图像自采集后对数据进行发布、下载、大视场漫游、处理分析的完整生命周期,提高了自动化程度。大区域影像格式hyperslide为高光谱全玻片图像提供了一种有效、小数据量的解决方案,并解决了传统JPEG图像格式无法存储超大尺寸图像的问题。hyperslide与浏览应用的搭配也解决了JPEG图像内存占用量高的缺点。此外,相比于传统的基于特征点的图像拼接算法,CSB算法更有效地利用了高光谱图像的信息,且在更快速配准显微图像序列的同时也保证了精度。

陈毅[5](2020)在《基于激光雷达和摄像头融合的车辆检测方法研究》文中提出自动驾驶汽车是未来汽车发展的主要方向,车辆检测是保障其安全稳定行驶的关键技术。多传感器融合技术是实现稳定、快速、准确的车辆检测的重要方式,然而现有的检测方法存在鲁棒性差、检测速度与检测精度不能兼容的问题。在此背景下,本文以国家重点研发计划(SQ2018YFB16003105)为依托,研究激光雷达和摄像头的决策级融合策略,提出了一种多适应性、强鲁棒性以及高实时性的车辆检测方法,该方法由数据匹配、实时检测以及决策级融合三部分组成。主要研究内容如下:(1)实现了激光雷达和摄像头数据层面上信息的深度融合。在分析两种传感器的工作原理和几何关系的基础上,首先建立了三维激光点云与二维图像的对齐融合模型,得到了稀疏深度图。然后通过深度补全算法,将二维稀疏深度图补全为二维密集深度图,解决了激光点云数据的稀疏性问题,使激光点云和彩色图像具有相同的分辨率。并针对现有深度补全方法适应性单一问题,提出了能根据昼夜环境改变补全策略的多适应深度补全方法,为后续的研究提供了更高精度的数据。(2)研究了基于YOLOv3的实时车辆检测算法。在分析卷积神经网络的典型结构的基础上,研究了YOLO系列实时检测算法,并结合自动驾驶汽车的高实时性要求,选择了兼顾检测速度与检测精度的YOLOv3算法,并将其应用于彩色图像和密集深度图的实时车辆检测。(3)提出了一种决策级融合方法,实现了激光雷达和摄像头的鲁棒融合。首先设计了边界框融合方法,将彩色图像和密集深度图各自检测到的车辆边界框进行融合,得到车辆的候选区域。然后通过基于证据距离改进的D-S证据理论,进一步实现置信度融合,对候选区域的准确性进行分析,得到了最终的检测结果。最后通过融合结果提供的车辆位置信息和激光雷达提供的深度信息,获得了车辆之间的距离。通过KITTI和Waymo数据集,分别在日间和夜间驾驶环境下对提出的方法进行实验验证。实验结果表明,本文提出的融合检测方法能准确获取目标车辆的位置和距离信息,并拥有很高的实时性和鲁棒性。此外验证了本文提出的深度补全方法精度高、实用性强。

刘富强[6](2020)在《基于深度学习的三维工件识别关键技术研究》文中研究说明在制造业领域,对工业工件进行检测和识别是一项必不可少的技术。其中,工业领域中待处理的对象从二维表示逐渐过渡到了三维表示。传统的工件检测与识别采用基于几何特征的方法。在形状简单、图像清晰度高、以及场景相对简单(无遮挡、重叠等问题)的情况下能够达到很高的识别准确率和精度。然而,由于工件形状的复杂性、工件自身的低纹理性以及工件与环境之间的微小差异性,使得传统的图像处理方法和点云处理方法已经不能满足工业界的要求。因此,本文对基于深度学习的三维工件的检测与识别关键技术进行了研究。主要研究内容及创新点如下:(1)针对实际应用场景中二维工件图像尺度的多变性及位姿的多样性,提出了应用于打磨工件目标检测的二维卷积神经网络架构Polish Net-2d。在制造业领域,针对工业工件进行检测的稳定性、及精度还不是特别高的问题,为了增强网络的自学习尺度及位姿不变性,通过在骨干网络Res Net101中引入对工件目标的位姿变换具有自主学习功能的变换网络X-Net;基于具有不同尺度和位姿多样性的数据集,经过有无X-Net的对比性实验,结果表明Polish Net-2d的尺度及位姿不变性有所提升。其中,X-Net可以在训练集上对区域建议网络提取出的建议区域进行无监督的学习,提高了2d工件检测网络Polish Net-2d的检测率。本文从学习率、以及批大小等不同角度,基于单一工件数据集、以及多工件数据集等八个数据集,进行对比试验。实验结果表明,Polish Net-2d的全局收敛性具有很高的数据集鲁棒性。该网络旨在提高二维工业工件的检测率及稳定性,进而能够将该方法从工业领域走向实用向前推进一步;(2)针对三维工件点云的旋转角度多样性及尺度多样性,提出了应用于打磨工件点云识别的三维卷积神经网络架构Polish Net-3d。目前,三维点云识别是一个比较前沿的研究内容。相比于二维图像的检测率,三维点云数据的识别率还相对较低。该方法旨在提升工业领域中三维工件点云的识别率。该网络架构在骨干网络Point Net中引入对三维工件具有自主学习旋转参数的变换网络R-Net、以及层次特征提取网络Hierarchical Feature Extraction Network。同时,基于具有不同尺度和位姿多样性的三维工件点云数据集,进行了有无R-Net和HFEN的对比性实验。实验结果表明,在加入R-Net和HFEN后,网络测试平均分类精度有了明显的提升;(3)针对能直接用于训练深度神经网络的工业工件数据集种类和数量非常少的问题,以及用于训练深度神经网络的数据集标注费时的问题,本文提出了一种自动化构建深度学习数据集及其标注文件的方法。该方法可以极大地减少人工参与标注的时间,提高标注的效率,从而帮助一些深度学习领域的科研人员快速地生成自己领域的数据集。首先,基于理论工件模型、真实环境背景的数据、单独工件实际采集的数据,依据光照变换和多视角多源图像融合算法,构建了多视角理论工件、理论工件模型—真实环境背景、和单独实际工件—真实环境背景三种形式多视角数据集。该数据集共包含1,298,640张图片,其中训练集中有1,155,000张图片,测试集中有143,640张图片。在实际场景中采集的图像数据集上进行实验,结果表明,利用本文所提出的方法全自动构建的数据集可以满足深度神经网络训练的需求,使训练后的网络能用于实际工业场合。基于理论工件三维模型,经过点云数据格式转换、点云增采样、点云数据增强三个过程,得到三维工件点云数据集。经过五种点云数据增强方法的处理后,共有25,200个理想模型生成的点云数据,以及37,500个真实场景中采集到的工件的点云数据,该数据被应用于实际三维工件识别实验。结果表明,利用本文提出的方法全自动构建的三维工件数据集,能应用于工件尺度、位姿具有多样性的场合。针对用于训练深度神经网络的数据集标注费时的问题,基于本文构建的二维工件数据集,依据光照变换、阈值化、边缘跟踪算法,对二维检测结果标注文件的格式进行了分析,并且按照相应的格式,自动化地生成标注文件。与传统的手工标注方法相比,本文提出的自动化标注数据集的方法可以极大地减少标注的时间,提高标注的效率;(4)针对实际采集图像中工件表面的低纹理、采集的图像出现运动模糊等问题,基于多源数据决策级融合方法,本文提出了彩色图和深度图的边缘融合算法。利用该边缘融合算法,以及基于切向量的边缘连通算法对融合后的边缘图像进行补全和连通,然后利用Polish Net-2d进行边缘图像的检测实验。结果表明,该方法在工件表面低纹理、采集图像出现运动模糊等情况下,依然可以取得非常好的检测结果。结果表明,本文提出的Polish Net-3d在二维工件检测网络Polish Net-2d的检测结果基础上,对分割后的工件点云数据进行识别,大大减小了场景中背景的点云数据对于识别率的影响。因此,即使在场景中有多个工件的情况下,Polish Net-3d也可以达到94.50%的识别率。这个融合方法可以应用于纹理模糊、以及背景与工件灰度较为接近的场景,提升该环境下的工件检测率和识别率。

潘俊杰[7](2020)在《玻璃喷墨打印的图像处理及软件设计》文中进行了进一步梳理玻璃喷墨打印是一种以玻璃为介质的喷墨打印技术,其生产制品具有抗酸碱、色泽稳定、艺术感强等优点,广泛应用于玻璃幕墙、车窗玻璃、办公室隔断等场合。目前,玻璃喷墨打印的厂商主要以国外的以色列Dip-Tech公司为代表,其制作精美但生产造价过高,在国内没有得到广泛普及。为了降低玻璃喷墨打印的生产成本,使该技术进一步得到推广和运用,本文依托实验室项目对其中的图像处理关键技术展开了相关研究。总的来说,本文的研究工作和主要贡献如下:一、本文提出了一种位矢结合的图像编辑方法,旨在增强玻璃喷墨打印的图像质量。该方法结合了两种图像类型的优势,通过对原有图像进行位图编辑、位矢转换、矢量图编辑、矢量渲染处理,使得最终编辑图像的效果既有位图丰富的色彩表现能力,又兼有矢量图缩放不失真、图像清晰、存储空间小的优点。二、针对计算机处理图像和玻璃喷墨打印图像普遍存在的色差问题,本文基于传统的ICC色彩管理研究,提出了一套应用于玻璃喷墨打印的色彩管理方案。该方案的主要内容有:显示器设备校准、打印机ICC Profile制作、正向以及反向ICC处理。通过对ICC Profile中特征化信息的处理,可以使设备间的图像色彩具有较高的一致性,使打印色彩得到充分表现,提高玻璃制品出品的工作效率。三、针对现有玻璃喷墨打印分色算法中色差大、层次感单调等问题,本文提出了一种玻璃喷墨打印的多级灰度分色算法。该算法主要有四个关键步骤:准备基础色、确定打印灰度等级、像素点映射以及误差的传递。通过该算法,可以驱动喷嘴产生多种油墨量状态的墨滴。仿真结果表明,对比常用的二值分色算法,该算法的打印图像整体输出色差小,图像色彩表现力、层次感得到提升。四、本文设计开发了一款Windows平台下玻璃喷墨打印的图像处理软件,旨在整合玻璃喷墨打印的图像处理功能。整合的功能主要包括位矢编辑、色彩管理以及分色处理等图像处理模块。同时,软件基于MFC和Open CV类库,采用C++语言进行编写,具有图像处理速度快、界面设计友好、易于维护和拓展等优点。

郭瑞斌[8](2019)在《室内复杂场景三维视觉同步定位与建图技术研究》文中提出同步定位与建图(Simultaneous Localization and Mapping,SLAM)是指机器人在未知环境中移动时利用所搭载传感器的观测数据进行场景地图构建,并同时估计机器人在地图中的位置及运动轨迹。随着低成本三维视觉传感器(RGB-D相机)技术的成熟,三维视觉SLAM技术成为机器人领域和计算机三维视觉领域中新的研究方向。本文以实际应用需求为牵引,利用RGB-D相机可同时采集彩色图像和深度图像的特性,围绕三维视觉SLAM的实时性、稳定性、抗动态干扰性等关键问题开展相关技术研究,并基于这些研究成果构建了大场景室内地图快速重建系统,具体研究成果如下。(1)针对直接法进行帧间位姿估计易陷入局部极值及特征点法实时性能不高的问题,提出一种融合稀疏直接法和特征点法的RGB-D SLAM,在SLAM前端利用联合深度和光度残差的稀疏直接法构造视觉里程计,在SLAM后端使用特征点法约束优化,在不影响SLAM精度的情况下提高了SLAM实时性能。(2)针对弱纹理场景中图像的特征点及高梯度像素点少导致特征点法和直接法位姿估计性能变差的问题,提出一种基于点面约束的SLAM方法,提取图像中更高层次的平面特征来构造弱纹理场景中位姿估计的稳定约束项,在SLAM后端地图构建中添加了路标平面。此外,利用室内空间结构满足“曼哈顿世界”的假设,提出基于“曼哈顿世界”约束的点面SLAM,进一步提高了SLAM精度。(3)针对动态场景中SLAM前端数据关联错误率高的问题,提出了基于卷积神经网络和多视几何的动态场景SLAM方法,对场景中的动目标进行检测并实现了像素级分割,结合静特征点和地面特征进行位姿估计和地图管理,并对地图中关键帧的动目标区域进行了修复以便于后续地图的重复利用。此外,提出融合空间约束的多动目标KCF跟踪方法,在地图中可实时显示动目标三维位置。(4)针对室内大场景的地图快速重建问题,提出了基于多机器人协同的室内地图快速重建系统,包括三部分:移动机器人终端SLAM系统是在前三个研究内容基础上设计实现的,其功能是生成场景子区域的多特征地图;服务器终端系统对各子区域地图进行配准以获得室内大场景的全局一致地图;机器人和服务器端的地图信息传输通过加入差错控制机制和有序保障机制的UDP协议实现。

杨玲[9](2019)在《稀土上转换NaYF4水性聚氨酯荧光油墨的制备、性能调控及三线防伪应用》文中研究说明光致发光标签是当前主流的包装防伪技术之一,作为最具潜力的光致发光材料,稀土上转换NaYF4具有独特的优势,将其配制成油墨,已在药品、礼盒、烟酒等包装防伪领域崭露头角,面对严峻的环保形势,开发高性能的水性上转换荧光油墨将成为市场需求的必然结果。然而,受发光机制和合成条件的影响,NaYF4晶体呈现较低的发光效率和较差的水分散性,水性油墨连接料性能的不足进一步制约了其在包装防伪领域的推广应用。此外,面向高端品牌保护与防伪溯源,单一颜色、单一形式的荧光防伪明显存在不足。针对这一现状,本文通过优化合成三基色上转换β-NaYF4晶体和高性能的水性聚氨酯(WPU)分散液,制备了综合性能优异的三基色水性聚氨酯荧光凹印油墨,实现了高分辨的上转换荧光全彩成像,构建了以上转换荧光防伪为核心的三线防伪系统,提出了科学的系统评价模型,突破了单色、实地及单一荧光防伪的局限性。本文的主要研究内容和结果如下:1、以WPU预聚体/柠檬酸三钠(TSC)为配体,采用一步水热法优化制备了三基色上转换β-NaYF4晶体。研究发现,配体、反应条件和离子掺杂浓度影响晶体的结构和性能。一方面,WPU预聚体的螯合与封端效应,提高了结晶质量;相对较低的分子量以及合适数量的螯合锚点有利于荧光增强;WPU预聚体与TSC复配,可综合调节成核和晶体生长。另一方面,随着温度、NH3·H2O添加量或发光中心离子浓度的提高,荧光强度呈现先增加后降低的趋势;体系中乙醇的加入使得荧光强度急剧下降;一定浓度的K+或Mg2+共掺杂促进了荧光增强。通过正交试验优化制备的三基色上转换β-NaYF4晶体具有发光强、分散性好、尺寸均一、质量优、光谱纯度较高等优势。2、通过引入ZIF-8或NH2-ZIF-8晶体,结合酮肼交联,改善了WPU的抗水性和耐热性,进一步优化制备了三基色水性聚氨酯荧光凹印油墨。研究发现,当体系中引入一定量的ZIF-8或NH2-ZIF-8,WPU涂膜的接触角明显上升,吸水率依次降低,初始分解温度和最大失重速率温度同步升高。NH2-ZIF-8与WPU的相容性进一步改善了涂膜的抗水性和热稳定性。优化制备的水性聚氨酯荧光油墨呈现剪切变稀行为,性能均已达到凹印水墨的适性要求,其印品在980 nm激发下可呈现视觉亮度感知相当的三基色荧光发射。3、探讨了三基色荧光油墨的色彩特性和色彩再现规律,构建了上转换荧光光谱预测模型,实现了高分辨的上转换荧光全彩成像。研究发现,三基色荧光油墨的色调再现能力差异显着,底材的颜色影响亮度并级和阶调压缩的程度,纸张和网点面积率的变化制约荧光发射。在多色复制过程中,三基色荧光油墨遵循加色呈色规律,网点分布影响多色荧光的综合表现,采用调幅或局部并列加网,可以获得更强、更宽色域的荧光发射。此外,基于Neugebauer方程的光谱预测模型构建,可以实现多色复制过程中的上转换荧光光谱预测。4、以上转换荧光防伪为核心,巧妙运用多项印前防伪技术,构建了三线防伪系统,并提出了科学的评价模型。研究发现,三线防伪系统打破了纯科技防伪思想的局限,防伪特征的检测与识别证实了该系统具有全方位、难伪造、低成本、易推广等特色。基于层次分析法(AHP)的评价模型构建,利于高效优化三线防伪系统的质量。防伪元素与包装完美融合,赋予了高端产品一线、二线与三线防伪并存互补的多重功能,推动了上转换荧光材料在高端包装防伪领域的应用。

王雪艳[10](2019)在《基于深度图像的3D人体姿态估计研究》文中提出基于图像的人体姿态估计是计算机视觉领域的一大重要研究热点,其主要目标在于获得给定图像中人体各部位在图像中相对位置信息的过程,可广泛应用于视频监控、行为识别和人机交互等多方面领域。根据使用图像不同,可分为基于彩色图像和深度图像两大领域。其中深度图像记录的是目标到相机之间的距离信息,因而具有颜色无关性,不受光照变化等环境因素干扰,并且在保护隐私等方面也具有彩色图像不可替代的优点。但由于受深度图像姿态较为单一以及估计算法性能约束等方面的影响,目前在对深度图像的3D人体姿态估计仍是目前的研究难点及热点。本文为完成对深度图像的3D人体姿态估计,基于现有算法,在传统随机森林方法和基于深度学习卷积神经网络方法两大领域分别进行研究,其中在基于传统随机森林的姿态估计领域中,受训练样本研究条件等限制,本文仅对人体的上肢姿态估计方法进行研究;而对于深度学习的姿态估计而言,由于不存在上述研究限制,因而对整个人体的姿态估计方法进行研究。具体研究如下:1、为解决基于随机森林的3D人体姿态估计算法容易出现的误分类问题,提出一种基于自适应融合特征提取和误分类处理机制的改进算法。该算法利用自适应融合特征提取方法提取深度融合特征,此特征可表达图像距离信息和部位尺寸信息,增强了特征的表征能力;针对识别部位误分类问题,分别从识别部位误分点聚集情况和迭代整合思想出发,提出误分类处理机制,改善部位识别结果;最后提出可进一步处理误分点的改进主方向分析算法,自适应计算出部位主方向向量,实现对深度图像的3D上肢人体姿态估计。2、在基于深度学习方法的3D姿态估计中,首先针对提供3D标签的深度图像的3D姿态估计研究,本文提出一个基于沙漏网络结构的姿态估计方法。该方法网络结构由2D回归模块和深度模块搭建而成,可通过强监督学习技术,以端到端的训练模式,来完成对深度图像3D回归模型的训练,从而实现对深度图像的3D人体姿态估计。3、随后是针对深度图像缺乏深度标签,以及因姿态单一造成的模型泛化能力不高的问题,在上述网络结构基础上,创新性地提出一个基于多源图像弱监督学习的3D人体姿态估计方法,此方法主要包括以下几点,(1)使用多源图像融合训练的方法,提高模型的泛化能力;(2)基于弱监督学习技术,解决缺乏标签的问题;(3)为提高姿态估计结果,改善了残差模块设计。从而最终实现的对深度图像的3D人体姿态估计。

二、基于层次结构的彩色图像合成系统的关键技术研究与实现(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、基于层次结构的彩色图像合成系统的关键技术研究与实现(论文提纲范文)

(1)面向远程环境目标感知的视觉跟踪与深度估计算法研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 远程视觉感知的应用研究现状
        1.2.2 运动目标深度估计的研究现状
    1.3 研究内容和主要贡献
    1.4 本文的组织结构
第二章 经典视觉跟踪与双目深度估计算法研究现状
    2.1 引言
    2.2 经典视觉跟踪算法的研究现状
        2.2.1 基于稀疏表示模型的跟踪算法
        2.2.2 基于相关滤波模型的跟踪算法
    2.3 双目深度估计原理与立体匹配研究现状
        2.3.1 双目视觉系统的标定及深度估计原理
        2.3.2 基于深度神经网络的立体匹配算法
    2.4 本章小结
第三章 基于循环反向稀疏模型的实时稀疏视觉跟踪
    3.1 引言
    3.2 循环反向稀疏模型的建立与优化
        3.2.1 问题建模
        3.2.2 优化求解
        3.2.3 模板更新
        3.2.4 整体实现
    3.3 实验结果与分析
        3.3.1 实验设置
        3.3.2 定量分析
        3.3.3 属性分析
    3.4 本章小结
第四章 基于空间树形结构联合约束的稀疏相关视觉跟踪
    4.1 引言
    4.2 相关滤波原理与结构稀疏约束
        4.2.1 相关滤波原理
        4.2.2 结构稀疏约束
    4.3 空间结构联合约束跟踪模型的建立与优化
        4.3.1 问题建模
        4.3.2 优化求解
        4.3.3 模板更新
        4.3.4 整体实现
    4.4 实验结果与分析
        4.4.1 实验设置
        4.4.2 定量分析
        4.4.3 定性分析
    4.5 本章小结
第五章 基于自适应深度不连续感知的深度立体匹配网络
    5.1 引言
    5.2 基于局部自适应感知的立体匹配网络
        5.2.1 网络整体结构与参数
        5.2.2 局部自适应正则化损失
    5.3 实验结果与分析
        5.3.1 实验设置及评价指标
        5.3.2 定量分析和定性分析
    5.4 本章小结
第六章 基于深度超分辨率子网的高效立体匹配网络
    6.1 引言
    6.2 基于深度超分辨率的高效立体匹配网络
        6.2.1 网络整体结构与参数
        6.2.2 深度不连续感知超分辨率子网
        6.2.3 深度不连续感知损失
    6.3 实验结果与分析
        6.3.1 实验设置及评价指标
        6.3.2 定量分析和定性分析
    6.4 本章小结
第七章 基于视觉跟踪和深度估计的目标感知系统
    7.1 引言
    7.2 远程目标感知系统的总体结构
    7.3 远程目标感知系统的关键实现
        7.3.1 基于循环反向稀疏模型的多线程跟踪
        7.3.2 基于高效立体匹配网络的域自适应微调
    7.4 系统仿真实验
        7.4.1 室内环境深度估计实验
        7.4.2 室外环境系统运行实验
    7.5 本章小结
第八章 总结与展望
    8.1 全文总结
    8.2 后续工作展望
致谢
参考文献
攻读博士学位期间取得的成果

(2)民族服饰草图自动着色方法研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究意义与背景
    1.2 国内外研究现状
        1.2.1 彩色图像边缘检测方法研究现状
        1.2.2 草图着色技术研究现状
    1.3 本文研究内容
    1.4 论文结构安排
第2章 相关理论与技术
    2.1 常用颜色空间
    2.2 图像边缘与梯度
    2.3 手绘草图
    2.4 卷积神经网络
    2.5 生成式对抗网络
    2.6 本章小结
第3章 基于多尺度离散H通道的民族服饰图像边缘检测算法
    3.1 颜色空间选择
    3.2 多尺度的H通道民族服饰颜色标签
    3.3 离散H通道标签图中的区域相似度
    3.4 边缘检测方法
    3.5 实验与分析
        3.5.1 实验设置
        3.5.2 实验结果与分析
    3.6 本章小结
第4章 基于生成式对抗网络的民族服饰草图自动着色算法
    4.1 手绘风格的民族服饰草图生成
        4.1.1 多线条勾勒
        4.1.2 添加纹理背景
        4.1.3 触笔风格素描
    4.2 民族服饰草图数据库建设
    4.3 生成式对抗网络着色框架
    4.4 模型构建及训练
    4.5 实验与分析
        4.5.1 实验设置
        4.5.2 实验结果与分析
    4.6 本章小结
第5章 民族服饰草图着色原型系统设计与实现
    5.1 民族服饰草图着色系统设计
        5.1.1 需求分析
        5.1.2 界面设计
        5.1.3 功能模块设计
        5.1.4 系统流程图
    5.2 民族服饰草图着色系统实现
        5.2.1 系统开发环境
        5.2.2 系统代码结构
    5.3 民族服饰草图着色系统展示
    5.4 本章小结
第6章 总结与展望
    6.1 论文总结
    6.2 工作展望
参考文献
攻读学位期间发表的学术论文和研究成果
致谢

(3)基于特征保持的彩色图像增强研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 重彩色相关研究现状
        1.2.2 去彩色相关研究现状
    1.3 论文的主要研究内容和组织结构
        1.3.1 论文的主要研究内容
        1.3.2 论文的组织结构
第2章 基于自适应总广义变分正则的重彩色方法
    2.1 引言
    2.2 相关工作
    2.3 基于自适应总广义变分正则的重彩色模型
    2.4 数值解法
    2.5 实验结果及分析
    2.6 本章小结
第3章 基于中心化约束的重彩色方法
    3.1 引言
    3.2 基于中心化约束的重彩色模型
    3.3 数值解法
    3.4 实验结果及分析
    3.5 本章小结
第4章 结合显着颜色提取和图像分解的织物图像重彩色方法
    4.1 引言
    4.2 相关工作
    4.3 基于显着颜色提取和图像分解的织物图像重彩色模型
        4.3.1 图像分解
        4.3.2 显着颜色提取及分割
        4.3.3 防溢出重彩色策略
    4.4 实验结果及分析
    4.5 本章小结
第5章 基于梯度保持和双峰高斯全局对比度保持的去彩色方法
    5.1 引言
    5.2 相关工作
    5.3 基于梯度保持和双峰高斯全局对比度保持的去彩色模型
    5.4 数值解法
    5.5 实验结果及分析
    5.6 本章小结
第6章 基于局部线性嵌入和梯度相似度的离散搜索去彩色方法
    6.1 引言
    6.2 相关工作
    6.3 基于局部线性嵌入和梯度相似度的去彩色模型
    6.4 新模型的离散搜索求解
    6.5 实验结果及分析
    6.6 本章小结
第7章 总结与展望
    7.1 论文工作总结
    7.2 研究展望
参考文献
深圳大学指导教师对研究生学位论文的学术评语
深圳大学研究生学位(毕业)论文答辩委员会决议书
致谢
攻读博士学位期间的研究成果与科研项目

(4)基于混合架构的高光谱图像多应用系统研究与实现(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 高光谱图像在医学中的应用
        1.2.2 高光谱图像相关软件
        1.2.3 大区域显微图像
    1.3 本文主要研究内容
    1.4 本文结构安排
第二章 显微高光谱成像系统与多应用系统总体设计
    2.1 显微高光谱成像系统
        2.1.1 成像系统组成
        2.1.2 数据自动采集流程
        2.1.3 数据产品
        2.1.4 原始数据存在的问题
    2.2 高光谱图像多应用系统总体设计
        2.2.1 系统功能需求分析
        2.2.2 系统架构设计
        2.2.3 系统网络拓扑结构设计
        2.2.4 数据产品体系设计
        2.2.5 业务流程设计
    2.3 本章小结
第三章 高光谱图像多应用系统详细设计
    3.1 系统基础服务组件设计
        3.1.1 概述与主要技术
        3.1.2 数据库概念设计
        3.1.3 数据库物理设计
    3.2 高光谱图像处理应用设计
        3.2.1 概述与主要技术
        3.2.2 类与接口设计
        3.2.3 主要功能模块设计
        3.2.4 功能算法实现
    3.3 高光谱大区域影像浏览应用设计
        3.3.1 概述与主要技术
        3.3.2 类与接口设计
        3.3.3 主要功能模块设计
    3.4 高光谱数据管理应用设计
        3.4.1 概述与主要技术
        3.4.2 前端路由设计
        3.4.3 主要功能模块设计
    3.5 本章小结
第四章 高光谱图像多应用系统关键技术研究
    4.1 hyperslide大区域影像规范
        4.1.1 大区域影像文件格式
        4.1.2 hyperslide文件结构
        4.1.3 基于启发式方法的hyperslide与立方体阵列映射
    4.2 CSB图像拼接算法
        4.2.1 传统拼接算法与问题
        4.2.2 结合先验约束的显微高光谱图像拼接算法CSB
        4.2.3 图像合成策略
    4.3 本章小结
第五章 系统运行展示与CSB拼接算法实验分析
    5.1 高光谱图像系统运行展示
        5.1.1 基础服务组件
        5.1.2 高光谱数据管理应用
        5.1.3 高光谱图像处理应用
        5.1.4 高光谱大区域影像浏览应用
    5.2 CSB拼接算法实验
        5.2.1 特征点检测分析
        5.2.2 特征描述符建立耗时分析
        5.2.3 特征点匹配分析
        5.2.4 图像融合评价
        5.2.5 CSB算法准确性分析
    5.3 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读硕士学位期间科研成果
致谢

(5)基于激光雷达和摄像头融合的车辆检测方法研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 基于摄像头的检测技术
        1.2.2 基于激光雷达的检测技术
        1.2.3 基于激光雷达和摄像头融合的检测技术
    1.3 本文的主要研究内容
    1.4 本文的章节安排
第二章 传感器数据的获取与匹配
    2.1 传感器介绍
        2.1.1 激光雷达
        2.1.2 摄像头
    2.2 空间对齐融合
        2.2.1 激光雷达坐标系与世界坐标系之间的转换
        2.2.2 世界坐标系与摄像头坐标系之间的转换
        2.2.3 摄像头坐标系与图像坐标系之间的转换
        2.2.4 图像坐标系与像素坐标系之间的转换
        2.2.5 摄像头的畸变矫正
    2.3 深度补全
        2.3.1 算法分析
        2.3.2 联合双边滤波
        2.3.3 多适应深度补全方法
    2.4 本章小结
第三章 车辆检测算法
    3.1 卷积神经网络基础构成
        3.1.1 卷积层
        3.1.2 池化层
        3.1.3 激活层
        3.1.4 全连接层
    3.2 经典卷积神经网络结构
        3.2.1 ResNet网络结构
        3.2.2 FPN网络结构
    3.3 YOLO实时检测算法原理及发展
        3.3.1 YOLOv1检测算法
        3.3.2 YOLOv2检测算法
    3.4 实时车辆检测算法-YOLOv3
    3.5 本章小结
第四章 决策级融合方案
    4.1 传感器融合方法分析
        4.1.1 数据级融合
        4.1.2 特征级融合
        4.1.3 决策级融合
        4.1.4 融合方式对比
    4.2 边界框融合方案
    4.3 置信度融合方案
        4.3.1 基本定义
        4.3.2 合成规则
        4.3.3 局限性
        4.3.4 经典的改进方法
        4.3.5 基于证据距离的改进方法
        4.3.6 具体应用
    4.4 车辆距离的获取
    4.5 本章小结
第五章 实验验证与分析
    5.1 数据集和实验平台
        5.1.1 实验数据集的选择
        5.1.2 实验平台配置
    5.2 密集深度图的生成实验
        5.2.1 稀疏深度图的生成
        5.2.2 深度补全
    5.3 车辆检测及融合实验
        5.3.1 评价指标
        5.3.2 检测及融合结果分析
    5.4 本章小结
总结与展望
参考文献
攻读学位期间取得的研究成果
致谢

(6)基于深度学习的三维工件识别关键技术研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 课题背景和研究意义
    1.2 基于传统图像处理方法的二维物体检测研究现状
    1.3 基于深度学习方法的二维物体检测研究现状
    1.4 基于传统点云处理方法的三维物体识别研究现状
    1.5 基于深度学习方法的三维物体识别研究现状
    1.6 深度学习相关数据集
    1.7 存在的问题
    1.8 本文主要研究内容及创新点
第2章 三维工件识别系统软硬件总体架构
    2.1 制造业领域视觉感知需求分类
        2.1.1 制造业的不同领域
        2.1.2 对识别工件进行抽象的不同维度
        2.1.3 日常领域与工业领域中物体识别的区别
    2.2 铸件打磨机器人系统及视觉识别软件架构
        2.2.1 铸件打磨机器人系统硬件组成
        2.2.2 视觉识别软件架构
    2.3 视觉识别算法总体架构设计
    2.4 本章小结
第3章 工业工件深度学习数据集的自动化构建
    3.1 深度学习数据集的分类
        3.1.1 按照不同维度来区分
        3.1.2 按照应用领域来区分
    3.2 数据集的生成和标注方法
        3.2.1 现有的一些数据集生成和标注方法
        3.2.2 自动化构建数据集的意义及难点
    3.3 自动化构建二维工件深度学习数据集
        3.3.1 理论模型自动化生成理想图片
        3.3.2 真实工件图像数据集信息自动化提取
        3.3.3 数据集类型展示
        3.3.4 自动化生成二维数据标注文件算法
    3.4 自动化构建三维工件深度学习数据集
        3.4.1 从理论模型自动化生成理想点云
        3.4.2 三维点云数据增强
        3.4.3 自动化生成三维点云标注文件算法
    3.5 本章小结
第4章 基于PolishNet-2d的二维工件检测卷积神经网络
    4.1 PolishNet-2d网络结构组成
        4.1.1 骨干网络
        4.1.2 区域建议网络
        4.1.3 位姿变换网络X-Net
    4.2 训练网络时的网络超参数以及优化策略
        4.2.1 实验环境及默认网络初始参数
        4.2.2 训练策略
        4.2.3 评价标准
    4.3 不同网络超参数下的实验结果对比分析
        4.3.1 学习率
        4.3.2 批大小
    4.4 实验结果与分析
        4.4.1 数据集组成及合成方法介绍
        4.4.2 检测中间过程可视化
        4.4.3 训练及测试结果数据及分析
    4.5 本章小结
第5章 基于PolishNet-3d的三维点云识别卷积神经网络
    5.1 三维工件点云识别卷积神经网络Polish Net-3d
        5.1.1 骨干网络
        5.1.2 点云深度学习算法的不变性特征
        5.1.3 旋转参数学习子网络R-Net
        5.1.4 层次特征提取网络HFEN
    5.2 训练网络时的网络超参数以及优化策略
        5.2.1 网络超参数
        5.2.2 训练优化策略
    5.3 实验结果与分析
        5.3.1 加入HFEN和 R-Net后的测试结果
        5.3.2 不同的点云密度测试结果
        5.3.3 真实采集的点云数据测试结果
        5.3.4 本文工作与现有其它工作的对比
    5.4 本章小结
第6章 低纹理工件检测与识别
    6.1 低纹理边缘融合算法
        6.1.1 图像预处理
        6.1.2 彩色图像与深度图像进行边缘融合
    6.2 结合PolishNet-2d和PolishNet-3d
        6.2.1 基于PolishNet-2d的二维工件边缘图像检测
        6.2.2 基于PolishNet-3d的三维工件点云识别
        6.2.3 PolishNet-2d与PolishNet-3d的结合
    6.3 实验结果与分析
        6.3.1 二维低纹理工件检测实验结果与分析
        6.3.2 三维工件点云识别实验结果与分析
    6.4 本章小结
总结与展望
    1 论文主要工作及创新点
    2 研究展望
参考文献
攻读博士学位期间发表的论文和取得的科研成果
致谢

(7)玻璃喷墨打印的图像处理及软件设计(论文提纲范文)

致谢
摘要
Abstract
第1章 绪论
    1.1 课题背景及意义
    1.2 玻璃喷墨打印技术
        1.2.1 彩釉玻璃
        1.2.2 喷墨打印技术
        1.2.3 玻璃印刷技术
        1.2.4 玻璃喷墨打印的国内外现状
    1.3 玻璃喷墨打印控制系统
        1.3.1 总体框架
        1.3.2 硬件系统
        1.3.3 软件系统
    1.4 玻璃喷墨打印图像处理的关键技术
        1.4.1 图像编辑处理
        1.4.2 色彩管理技术
        1.4.3 彩色图像分色技术
    1.5 研究内容
        1.5.1 本文的组织结构
        1.5.2 具体内容
第2章 玻璃喷墨打印的图像编辑处理
    2.1 引言
    2.2 位图和矢量图
        2.2.1 位图简介
        2.2.2 矢量图简介
        2.2.3 图像格式
        2.2.4 编辑处理软件
    2.3 位矢编辑
        2.3.1 位图矢量化
        2.3.2 矢量编辑
        2.3.3 矢量图渲染
    2.4 图层管理技术
        2.4.1 图层技术
        2.4.2 图层的分类
        2.4.3 图层管理
    2.5 本章小结
第3章 玻璃喷墨打印的色彩一致性管理
    3.1 引言
    3.2 常见的色彩模型和颜色空间
        3.2.1 RGB和 CMYK色彩模型
        3.2.2 HSV颜色空间
        3.2.3 XYZ颜色空间
        3.2.4 Lab颜色空间
    3.3 色彩管理技术
        3.3.1 色彩管理简介
        3.3.2 ICC Profile
        3.3.3 渲染意图
    3.4 玻璃喷墨打印的色彩管理
        3.4.1 玻璃喷墨打印的图像转换
        3.4.2 显示器校准
        3.4.3 打印机ICC Profile制备
        3.4.4 正向和反向ICC处理
    3.5 本章小结
第4章 玻璃喷墨打印的多级灰度分色算法
    4.1 引言
    4.2 星光1024/M-C喷头及其驱动控制
        4.2.1 喷头简介
        4.2.2 喷头电子接口面板
        4.2.3 喷头的驱动控制
    4.3 数字加网技术
        4.3.1 加网技术
        4.3.2 调幅加网
        4.3.3 调频加网
    4.4 多级灰度分色算法设计
        4.4.1 准备基础色
        4.4.2 确定打印灰度等级
        4.4.3 像素点映射
        4.4.4 误差传递
        4.4.5 多级灰度分色算法流程图
    4.5 本章小结
第5章 软件的设计和应用
    5.1 引言
    5.2 玻璃喷墨打印图像处理软件简介
    5.3 图像处理软件主页
    5.4 分色处理模块
    5.5 色彩管理模块
    5.6 本章小结
第6章 总结与展望
    6.1 总结
    6.2 展望
参考文献
作者简历

(8)室内复杂场景三维视觉同步定位与建图技术研究(论文提纲范文)

符号使用说明
摘要
Abstract
第一章 绪论
    1.1 选题背景与研究意义
        1.1.1 选题背景
        1.1.2 研究意义
    1.2 视觉SLAM研究现状
        1.2.1 视觉SLAM基本框架
        1.2.2 视觉SLAM相关技术
        1.2.3 视觉SLAM系统概述与分析
    1.3 本文研究内容
    1.4 本文组织结构
第二章 视觉SLAM基础理论
    2.1 SLAM概率公式及图表示
    2.2 SLAM系统状态的最小二乘估计
        2.2.1 误差函数构造
        2.2.2 最小二乘估计
        2.2.3 稀疏最小二乘
    2.3 视觉SLAM的状态变量及LS估计
        2.3.1 三维空间刚体变换及表示
        2.3.2 视觉SLAM的观测模型
        2.3.3 状态变量在流行空间上的LS估计
    2.4 本章小结
第三章 融合稀疏直接法和特征点法的RGB-D SLAM
    3.1 引言
    3.2 基于深度直接法的位姿估计
        3.2.1 深度残差模型
        3.2.2 位姿的非线性优化求解
        3.2.3 深度直接法特征点选取
    3.3 基于混合残差约束的快速视觉里程计
        3.3.1 基于光度直接法的位姿估计
        3.3.2 联合深度和光度残差约束的位姿估计
        3.3.3 基于ORB特征点的视觉里程计实现
    3.4 基于特征点约束的SLAM后端优化
        3.4.1 基于特征点重投影残差的位姿估计
        3.4.2 局部和全局地图优化
    3.5 实验结果与分析
        3.5.1 准确性评估实验
        3.5.2 实时性评估实验
    3.6 本章小结
第四章 基于点面约束的弱纹理场景SLAM方法
    4.1 引言
    4.2 点面特征数学基础
        4.2.1 点面特征提取
        4.2.2 点面特征的欧式变换
        4.2.3 点面特征的距离度量
    4.3 基于点面约束的位姿估计和地图优化
        4.3.1 点面特征跟踪及位姿估计
        4.3.2 地图优化及闭环检测
        4.3.3 非线性优化求解
    4.4 基于“曼哈顿世界”约束的SLAM
        4.4.1 全局MW方向提取
        4.4.2 “零漂移”视觉罗盘
        4.4.3 全局MW约束下的目标函数优化
    4.5 实验结果与分析
        4.5.1 实验数据集及环境
        4.5.2 视觉罗盘性能评估实验
        4.5.3 点面SLAM方法量化评估实验
    4.6 本章小结
第五章 基于CNN和多视几何的动态场景SLAM方法
    5.1 引言
    5.2 基于CNN和多视几何约束的动目标像素分割
        5.2.1 基于Mask R-CNN和深度图像的动目标像素分割方法
        5.2.2 基于多视角几何约束的动目标像素分割方法
        5.2.3 单帧RGB-D图像中的地面特征自动提取
    5.3 基于静特征点和地面特征的SLAM方法
        5.3.1 特征匹配及位姿估计
        5.3.2 地图中路标点和地面路标优化
        5.3.3 基于多视几何约束的关键帧修复
    5.4 融合空间约束的KCF多动目标跟踪
        5.4.1 KCF目标跟踪
        5.4.2 空间约束下的多目标跟踪
    5.5 实验结果与分析
        5.5.1 实验数据集及环境
        5.5.2 动态环境下SLAM方法量化评估实验
        5.5.3 关键帧修复实验
        5.5.4 动目标跟踪及三维轨迹复现实验
    5.6 本章小结
第六章 基于多机器人协同的室内地图快速重建系统
    6.1 引言
    6.2 机器人终端三维地图生成
        6.2.1 机器人端SLAM系统概述
        6.2.2 多特征地图表示
    6.3 基于UDP协议的地图信息传输
    6.4 服务器终端三维地图配准
    6.5 本章小结
第七章 总结与展望
    7.1 工作总结
    7.2 工作展望
致谢
参考文献
作者在学期间取得的学术成果

(9)稀土上转换NaYF4水性聚氨酯荧光油墨的制备、性能调控及三线防伪应用(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 引言
    1.2 现代包装防伪技术
        1.2.1 现代防伪技术的表现形式
        1.2.2 包装防伪技术发展趋势
        1.2.3 三线防伪
    1.3 稀土上转换荧光材料的研究进展
        1.3.1 稀土上转换荧光材料概述
        1.3.2 上转换荧光材料的研究现状
        1.3.3 上转换荧光材料在防伪领域的应用
    1.4 水性聚氨酯荧光防伪油墨的研究进展
        1.4.1 水性聚氨酯及其改性
        1.4.2 上转换荧光油墨的研究进展
    1.5 本论文的研究目的、意义及内容
        1.5.1 研究目的和意义
        1.5.2 研究内容
第二章 三基色上转换NaYF_4 晶体的可控合成及性能表征
    2.1 引言
    2.2 实验部分
        2.2.1 离子掺杂上转换NaYF_4 晶体的制备
        2.2.2 正交试验优化设计
        2.2.3 测试与表征
    2.3 结果与讨论
        2.3.1 WPU预聚体对晶体结构及发光性能的影响
        2.3.2 反应条件对晶体结构及发光性能的影响
        2.3.3 离子掺杂调控上转换NaYF_4 晶体的荧光性能
        2.3.4 三基色上转换NaYF_4晶体的优化制备及性能
    2.4 本章小结
第三章 高性能水性聚氨酯及其上转换荧光油墨的制备
    3.1 引言
    3.2 实验部分
        3.2.1 ZIF-8及NH2-ZIF-8 的合成
        3.2.2 二羟基酮扩链剂的制备
        3.2.3 ZIF-8 改性室温自交联WPU分散液的制备
        3.2.4 NH2-ZIF-8 改性室温自交联WPU分散液的制备
        3.2.5 WPU分散液涂膜的制备
        3.2.6 三基色水性聚氨酯荧光油墨的制备及打样
        3.2.7 测试与表征
    3.3 结果与讨论
        3.3.1 ZIF-8及NH2-ZIF-8 的结构与性能
        3.3.2 改性WPU分散液的结构
        3.3.3 改性WPU涂膜的抗水性能
        3.3.4 改性WPU涂膜的热稳定性
        3.3.5 三基色水性聚氨酯荧光油墨的性能
    3.4 本章小结
第四章 三基色上转换荧光油墨的多色复制及其色彩控制
    4.1 引言
    4.2 实验部分
        4.2.1 网点叠印与网点并列
        4.2.2 测试文件设计
        4.2.3 三基色荧光油墨的凹版印刷
        4.2.4 测试与表征
    4.3 结果与讨论
        4.3.1 三基色荧光油墨的色彩特性
        4.3.2 上转换荧光加色法成像
        4.3.3 多色复制进程中的荧光调控
        4.3.4 基于Neugebauer方程的上转换荧光光谱预测
    4.4 本章小结
第五章 基于上转换荧光材料的三线防伪系统构建
    5.1 引言
    5.2 实验部分
        5.2.1 三线防伪系统的构建
        5.2.2 印前图文处理
        5.2.3 多色凹版印刷
        5.2.4 测试与表征
    5.3 结果与讨论
        5.3.1 一线防伪模块识别与分析
        5.3.2 二线防伪模块识别与分析
        5.3.3 三线防伪模块识别与分析
        5.3.4 基于层次分析法构建三线防伪系统评价模型
        5.3.5 三线防伪系统在高端包装上的应用
    5.4 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
参考文献
附录1 实验原料及设备
附录2 缩略语对照表
攻读博士学位期间研究成果
致谢

(10)基于深度图像的3D人体姿态估计研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题研究背景及意义
        1.1.1 课题研究背景
        1.1.2 课题研究意义
    1.2 国内外研究现状
        1.2.1 有模型人体姿态估计
        1.2.2 无模型人体姿态估计
    1.3 研究内容
    1.4 论文结构安排
第2章 基于深度图像的3D人体姿态估计相关技术
    2.1 引言
    2.2 基于深度图像的3D人体姿态估计概述
        2.2.1 基于随机森林的姿态估计方法
        2.2.2 基于深度学习的姿态估计方法
    2.3 技术原理概述
        2.3.1 随机森林
        2.3.2 深度学习
    2.4 本章小结
第3章 基于随机森林误分类处理的3D人体姿态估计
    3.1 引言
    3.2 算法流程
    3.3 基于随机森林误分类处理的3D姿态估计
        3.3.1 合成数据库
        3.3.2 身体部位识别
        3.3.3 误分类处理算法
        3.3.4 改进的PDA算法
    3.4 实验及结果分析
    3.5 本章小结
第4章 基于沙漏网络的深度图像3D人体姿态估计
    4.1 引言
    4.2 算法框架
    4.3 基于沙漏网络的深度图像3D人体姿态估计
        4.3.1 2D回归模块
        4.3.2 深度回归模块
    4.4 实验及结果分析
        4.4.1 数据库
        4.4.2 评价标准
        4.4.3 训练细节
        4.4.4 实验结果
    4.5 本章小结
第5章 基于多源图像弱监督学习的3D人体姿态估计
    5.1 引言
    5.2 算法流程
    5.3 基于多源图像弱监督学习的3D人体姿态估计
        5.3.1 改善残差模块
        5.3.2 多源图像训练2D回归模型
        5.3.3 彩色图像训练深度回归模型
    5.4 实验及结果分析
        5.4.1 数据库
        5.4.2 评价标准
        5.4.3 训练细节
        5.4.4 实验结果
    5.5 本章小结
结论
参考文献
攻读硕士期间科研成果及科研工作
致谢

四、基于层次结构的彩色图像合成系统的关键技术研究与实现(论文参考文献)

  • [1]面向远程环境目标感知的视觉跟踪与深度估计算法研究[D]. 郭承刚. 电子科技大学, 2020(03)
  • [2]民族服饰草图自动着色方法研究[D]. 刘波. 云南师范大学, 2020(01)
  • [3]基于特征保持的彩色图像增强研究[D]. 谢斌. 深圳大学, 2020(11)
  • [4]基于混合架构的高光谱图像多应用系统研究与实现[D]. 顾钦华. 华东师范大学, 2020(11)
  • [5]基于激光雷达和摄像头融合的车辆检测方法研究[D]. 陈毅. 长安大学, 2020(06)
  • [6]基于深度学习的三维工件识别关键技术研究[D]. 刘富强. 哈尔滨工程大学, 2020(04)
  • [7]玻璃喷墨打印的图像处理及软件设计[D]. 潘俊杰. 浙江大学, 2020(05)
  • [8]室内复杂场景三维视觉同步定位与建图技术研究[D]. 郭瑞斌. 国防科技大学, 2019(01)
  • [9]稀土上转换NaYF4水性聚氨酯荧光油墨的制备、性能调控及三线防伪应用[D]. 杨玲. 湖南工业大学, 2019(01)
  • [10]基于深度图像的3D人体姿态估计研究[D]. 王雪艳. 北京工业大学, 2019(03)

标签:;  ;  ;  ;  ;  

基于层次结构的彩色图像合成系统关键技术研究与实现
下载Doc文档

猜你喜欢