首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 93 毫秒
1.
蔡强  李晶  郝佳云 《计算机工程》2019,45(12):166-170
基于卷积神经网络的远程监督关系抽取方法提取的特征单一,且标准交叉熵损失函数未能较好处理数据集中正负样本比例不均衡的情况。为此,提出一种基于深度残差神经网络的远程监督关系抽取模型,通过改进交叉熵聚焦损失函数,提取句子中的深层语义特征,同时降低损失函数中负样本的权重,避免在NYT-Freebase标准数据集中引入NA关系类别的噪音。实验结果表明,该模型能增强深度残差神经网络对含噪音数据的表示学习能力,有效提高远程监督关系抽取任务的分类准确率。  相似文献   

2.
油田安防中行人目标检测是是当今前沿的一个热门研究课题,针对野外场景采集的图像视频分辨率低,背景复杂等问题,本文在单次多目标检测器(Single Shot MultiBox Detector,SSD)模型的基础上,提出了一种改进的行人检测算法,该算法首先利用聚合通道特征模型对图像或者视频序列进行进行预处理,获得疑似目标区域,大大降低单帧图像检测的时间;然后对SSD的基本网络VGG-16替换为Resnet-50,通过增加恒等映射解决网络层数加深但检测精度下降的问题;最后采用强大而灵活的双参数损失函数来优化训练深度网络,提高网路模型的泛化能力。定性定量实验结果表明本文所提检测算法的性能超过现有的检测算法,在保证行人检测准确率的同时提高检测效率。S  相似文献   

3.
目的 为了更准确地构建3维等距模型之间的对应关系,本文提出了一种基于热核签名与波核签名的融合特征描述符计算3维等距模型对应关系的方法。方法 首先计算3维模型Laplace算子获得模型的特征向量和特征值;然后将所得到特征值和特征向量作为基参数分别计算源模型与目标模型的热核签名和波核签名,并将热核签名与波核签名融合为一个新的特征描述符。融合特征描述符作为模型上随机均匀采样点的约束,通过最小值匹配算法得到源模型和目标模型之间的对应关系。结果 实验结果表明,利用融合特征描述符约束进行计算得到的对应关系正确匹配率比热核签名约束计算得到的对应关系匹配率平均提高19.429%,比波核签名约束计算得到的对应关系匹配率平均提高4.857%。结论 本文提出的融合特征描述符适用于计算3维等距模型或近似等距的3维模型之间的对应关系,与单一使用热核签名或波核签名特征描述符相比,可以得到更加准确的对应关系。  相似文献   

4.
描述了一种应用于视频序列的3维稠密重建方法,主要针对基于多深度图恢复3维物体时存在的多对一映射重复投影问题,提出基于误差云概念的3维定点优化方法.该方法首先通过深度矫正,增加视频序列深度图的一致性;其次利用投影过滤分类算法,把所有投影点按照多对一映射的关系,以3维空间中所有不同点为类型,进行投影点依次映射,将每一点划分在各自的误差云类中以求得投影点与3维点的对应关系;随后采用空间高斯分布求出每个误差云所恢复出来的点坐标.最后通过多边形技术对恢复的点云数据进行网格化,使其重建出精确的目标物体或场景的3维轮廓.从实验结果可以观察到,本文3维重建方法可以有效减少深度图融合多对一映射重复投影问题所带来的负面影响,使重建结果更加接近于真实物体,达到较好的效果.  相似文献   

5.
使用深度学习方法进行单目深度估计时,由于使用多级下采样会出现重建结果细节信息缺失、边缘轮廓模糊等问题.为此,提出一种基于高分辨率网络的自监督单目深度估计方法.首先,通过并行连接使得特征图在编码过程中始终保持高分辨率表示,以充分地保留细节信息;其次,为了提高编码器的学习能力,在编码部分引入注意力模块,对图像特征进行筛选和提炼;最后,针对深度估计的多义性问题,利用非相邻帧图像之间的一致性,设计了一种有效的损失函数,并使用可靠性掩膜来消除动点和遮挡点的干扰.在TensorFlow框架下采用KITTI和Cityscapes数据集进行实验,实验结果表明,与已有深度估计方法相比,该方法不仅能够保留预测深度的边缘信息,而且能够提高预测深度的准确性,可达到0.119的平均相对误差.  相似文献   

6.
7.
关系抽取是信息抽取的主要任务之一,远程监督作为关系抽取中的一种有效的方法,已成功地应用于包含上千关系的大型语料库.然而,远程监督造成的错误标注会影响关系抽取的性能.为了缓解这一问题,现有的远程监督关系抽取方法选择每个实体对中一个最好的句子或通过注意力机制赋予每个句子不同的权重.但这些方法并不能完全解决错误标注的问题.本...  相似文献   

8.
非刚性变换的三维等距模型的对应关系研究   总被引:1,自引:0,他引:1  
针对非刚性变换后两个三维等距模型间的对应关系问题,提出了基于极点谱植入初始化的贪婪优化算法。首先运用基于高斯曲率的最远点采样算法,获得一组数目相同和位置相对一致的采样点;其次改进初始谱植入匹配算法建立两模型采样点集间的初始对应关系;最后使用基于全局度量(测地距离)的贪婪优化算法进行迭代优化,从而得到三维模型间的稀疏对应关系。实验结果表明,改进的非刚性匹配算法能够获得强健的稀疏对应关系,并在一定程度上提高了匹配算法的效率。  相似文献   

9.
针对人脑网络状态观测矩阵高维无特征的特点,给出了一种基于深度自动编码器(DAE)的降维算法.利用深度学习网络,将高维的人脑网络空间表达映射到低维的本质特征空间中,为进一步提炼脑网络的动态性能提供了基础.实验结果证明:应用该方法可以达到有效的降维效果,且降维后脑网络状态通过自组织特征映射聚类具有一定的规律性,从而为脑网络的动态特性研究提供了基础.  相似文献   

10.
针对非等距三维模型对应关系计算准确率低且难以自动化的问题,提出一种基于局部流形调和基与内外积空间对齐的三维模型对应关系计算算法.首先利用局部流形调和基作为模型本征信息,并结合笛卡儿坐标等外部信息嵌入内外积空间,实现本征信息和外部信息对齐;其次将计算对齐的目标函数与一致性点偏移算法融合,提高结果的稳定性和准确性;最后利用基于交替方向乘子法的交替优化算法来求解目标函数,构建最终的对应关系结果.与已有算法的对比实验结果表明,所提算法在SMAL,SHERC’19,TOSCA和SHERC’16 Topology数据集上构建的对应关系测地误差最小,全局对应关系准确率最高,同时能够处理拓扑噪声和模型自身对称性影响对应关系计算的问题.  相似文献   

11.
近年来基于锚点的三维手部姿态估计方法比较流行,A2J(Anchor-to-Joint)是比较有代表性的方法之一.A2J在深度图上密集地设置锚点,利用神经网络预测锚点到关键点的偏差以及每个锚点的权重.A2J使用预测的偏差和权重,以加权求和的方式计算关键点的坐标,降低了网络回归结果中的噪声.虽然A2J简单高效,但是不恰当的...  相似文献   

12.
13.
二维人脸识别受光照、遮挡和姿态的影响较大.为了克服二维人脸识别的缺点,本文提出了一种基于深度学习的多模态融合三维人脸识别算法.该方法首先使用卷积自编码器将彩色图像和深度图进行融合,将融合后的图像作为网络的输入进行预训练,并且设计了一种新的损失函数cluster loss,结合Softmax损失,预训练了一个精度非常高的模型.之后使用迁移学习将预训练的模型进行微调,得到了一个轻量级神经网络模型.将原始数据集进行一系列处理,使用处理之后的数据集作为测试集,测试的识别准确率为96.37%.实验证明,该方法弥补了二维人脸识别的一些缺点,受光照和遮挡的影响非常小,并且相对于使用高精度三维人脸图像的三维人脸识别,本文提出的算法速度快,并且鲁棒性高.  相似文献   

14.
马昊 《计算机应用研究》2020,37(6):1867-1870
为了提高三维人体骨骼模型的建模效率并简化交互规则,提出了一种基于深度学习的手绘人体动作草图到三维骨骼模型的重建方法。首先将三维骨骼模型渲染为二维图像来建立维度映射关系,进而使用图像分类方法识别手绘草图动作并根据维度映射实现三维骨骼模型重建。在实验中使用基于深度卷积神经网络对图像分类模型进行构建,使用浅层卷积网络作为训练单元,并使用逐级分类与分块训练策略加速网络收敛速度来提高训练效率。最后实验结果验证了该方法的可行性与有效性。  相似文献   

15.
目的 植物叶片形态复杂,在虚拟场景中很难真实表现。为了从信息量有限的单幅图像中恢复植物叶片的3维形状,本文基于从明暗恢复形状(shape from shading,SFS)的方法,利用亮度统计规律和植物形态特征恢复叶片的3维形状。方法 在SFS的基础上,设计基于图像骨架的距离场偏置加强表面细节;针对SFS对恢复宏观几何形状的不足,提出根据图像亮度统计分布选取控制点控制表面宏观形状变化,并利用叶片中轴的距离场约束恢复宏观几何形状,每种方法对于表面宏观几何形状恢复的权重基于恢复的反射图和输入图像间的相似度设定;将表面细节添加到宏观几何形状上得到目标对象的3维形状。结果 选取植物叶片图像进行实验,并与其他方法进行比较,实验结果表明本文方法增强了表面细节显示,并有明显的宏观几何形状变化。同时为了验证本文方法对其他物体表面细节恢复的适用性,分别对硬币和恐龙恢复表面细节,实验结果表明提出的增强表面细节的方法同样适用于其他物体。结论 针对单幅植物叶片图像的3维重建,在SFS的基础上提出了根据骨架特征加强表面细节,根据图像亮度统计分布和叶片中轴距离场约束共同恢复表面宏观几何形状的算法,实验结果验证了本文方法的可行性。  相似文献   

16.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号