首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 265 毫秒
1.
通过实验筛选研发新药的过程非常缓慢且需耗费大量的人力物力,而利用计算机辅助预测药物的分子性质可极大地节省药物研发时间和成本.因此,为了能够使抗乳腺癌候选药物对抑制ERα具有良好的生物活性和ADMET性质,针对收集到的1 974种化合物,首先利用随机森林分类器筛选出前20个对生物活性最具显著影响的分子描述符,并以此和pIC50值作为特征数据建立QSAR模型.其次,基于PSO优化BP神经网络对50个新化合物的生物活性值进行预测,模型拟合度为0.833 7,根均方误差为0.731 5,比优化前的BP神经网络预测值更贴合实际.随后为提高药物研发的成功率,依据已有的ADMET性质数据利用PSO优化SVM构建ADMET分类预测模型,算法交叉验证CV准确率达到94.076 7%,5个指标模型的预测准确率均在79%以上.结果表明,所建立的模型比基准模型的预测性能更好,采用的预测策略是有效的,可为抗乳腺癌药物的研发提供借鉴.  相似文献   

2.
针对以往剩余使用寿命(RUL)预测方法对轴承退化信息挖掘不充分、忽视不同特征贡献度差异,影响预测准确性的问题,提出基于多尺度特征与注意力机制的轴承RUL预测方法. 在多个尺度下计算轴承原始振动信号的若干时域和频域特征,作为输入特征集. 将多尺度特征集输入到网络中,以注意力模块为不同特征自适应地分配最佳权重,以卷积神经网络(CNN)模块进行深层特征提取与多尺度特征融合,通过前馈神经网络(FNN)模块映射得到RUL预测值. 通过公开的轴承数据集进行实验验证,与其他RUL预测方法相比,所提方法的预测性能更优越.  相似文献   

3.
雨纹分布和形状具有多样性,现有去雨算法在去雨的同时会产生图像背景模糊、泛化性能差等问题.因此,本文提出一种基于注意力机制的多尺度特征融合图像去雨方法.特征提取阶段由多个包含两个多尺度注意力残差块的残差组构成,多尺度注意力残差块利用多尺度特征提取模块提取及聚合不同尺度的特征信息,并通过坐标注意力进一步提高网络的特征提取能力.在组内进行局部特征融合,组间利用全局特征融合注意力模块更好地融合不同层次的特征,通过像素注意力使网络重点关注于雨纹区域.在仿真和真实雨像数据集上与其他现有图像去雨算法相比,本文方法的定量指标有着明显提高,去雨后的图像视觉效果较好且具有良好的泛化性.  相似文献   

4.
氨基酸变异常常会影响蛋白质的结构和功能,进而导致疾病。当前,研究者们已经提出了一些基于计算的方法来预测氨基酸变异致病性。该文构建了一个新型融合模型,旨在提高预测性能和泛化性。首先,提取影响致病性的各类生物特征并用递归特征消除RFE方法筛选最优特征子集。然后,建立包含卷积神经网络和双向长短期记忆神经网络的深度学习模型提取特征,并以拼接的方式融合这两类特征作为模型输入。最后,构建一个基于XGBoost、CatBoost、LightGBM和随机森林的融合模型,用以预测氨基酸变异致病性。该融合模型的10重交叉验证准确性为92.8%,盲测准确性为93.1%,取得了当前最高的预测准确性和泛化性。该工具可用于辅助临床诊断和药物设计,降低研发成本。  相似文献   

5.
针对现有城市道路交通流预测研究中,上下游交通流时滞特性与空间流动特性挖掘不足、车道级交通流时空特性考虑不充分的问题,提出一种融合纵横时空特征的交通流预测方法。首先,通过计算延迟时间量化并消除上下游交通流断面间的空间时滞影响,增强上下游交通流序列的时空相关性。其次,将消除空间时滞的交通流通过向量拆分数据输入方式传入双向长短时记忆网络,用以捕捉上下游交通流纵向的传递与回溯双向时空关系,同时利用多尺度卷积群挖掘待预测断面内部各车道交通流间多时间步横向时空关系。最后,采用注意力机制动态融合纵横时空特征得到预测输出值。实验结果表明,相较于常规时间序列预测模型,所提方法在单步预测实验中,平均绝对误差、均方根误差分别下降了约15.26%、13.83%,决定系数提升了约1.25%。在中长时多步预测实验中,进一步证明了所提方法可有效挖掘纵横向交通流的细粒化时空特征,并具有一定的稳定性和普适性。  相似文献   

6.
短期负荷预测对于电力系统的经济调度和稳定运行具有重要意义.为了提升短期负荷预测的精度,提出基于K-折交叉验证和Stacking融合的短期负荷预测方法.首先,基于皮尔逊相关系数对影响短期负荷的多个特征进行筛选,剔除冗余特征.其次,利用K-折交叉验证法训练第一层的各个子模型,并将各个子模型的预测结果作为新特征用于训练第二层...  相似文献   

7.
针对现有基于深度学习的方法存在的难以识别相交特征、无法精确确定加工特征面的问题,提出基于图神经网络的加工特征识别方法.通过压缩激励模块提取节点与邻接边的特征,构建节点级与邻接边级的双层注意力网络,分割每个节点对应的加工特征.该方法充分利用了零件模型的面特征与边特征,结合零件模型的拓扑结构,基于注意力机制对特征信息进行深度学习,可以有效地解决非面合并相交特征的识别问题.在多加工特征零件数据集上,将该方法与其他3种特征识别方法进行实验对比,在准确率、平均类准确率和交并比3项指标上均取得最优结果,识别准确率高于95%.  相似文献   

8.
传统基于先验知识与基于学习的图像去雾算法依赖大气散射模型,容易出现颜色失真和去雾不彻底的现象。针对上述问题,提出一种端到端的基于残差注意力机制的图像去雾算法,该算法网络包括编码、多尺度特征提取、特征融合和解码4个模块。编码模块将输入的雾图编码为特征图像,便于后续特征提取并减少内存占用;多尺度特征提取模块包括残差平滑空洞卷积模块、残差块和高效通道注意力机制,能够扩大感受野并通过加权筛选提取的不同尺度特征以便融合;特征融合模块利用高效通道注意力机制,动态调整不同尺度特征的通道权重,学习丰富的上下文信息并抑制冗余信息,增强网络提取雾霾密度图像的能力从而使去雾更加彻底;解码模块对融合后的特征进行非线性映射得到雾霾密度图像,进而恢复无雾图像。通过在SOTS测试集和自然有雾图像上进行定量和定性的测试,所提方法取得了较好的客观和主观评价结果,并有效改善了颜色失真和去雾不彻底的现象。  相似文献   

9.
为充分挖掘质量特征以提高手指静脉图像质量评价的性能,提出一种基于注意力特征融合的深度可分离卷积网络,将其用于手指静脉图像质量评价。该方法主要包括静脉纹路提取、深度质量特征提取、注意力特征融合和图像质量类别预测等四个步骤。使用深度可分离卷积代替传统卷积,减少网络参数,使网络轻量化。使用注意力特征融合代替特征串联融合,从手指静脉灰度图像和手指静脉纹路图像中挖掘更具区分性的质量特征。考虑到目前没有公开手指静脉图像质量数据库,手工标注山东大学手指静脉公开库中图像的质量标记。试验结果表明,本研究提出的方法在手工标注数据库上的图像质量分类正确率为89.67%,图像质量评价性能优于现有手指静脉图像质量评价方法。  相似文献   

10.
深度估计网络通常具有较多的网络层数,图像特征在网络编码和解码过程中会丢失大量信息,因此预测的深度图缺乏对象结构细节且边缘轮廓不清晰。本文提出了一种基于多尺度深度图自适应融合的单目深度估计方法,可有效保留对象的细节和几何轮廓。首先,引入压缩与激励残差网络(SE-ResNet),利用注意力机制对不同通道的特征进行编码,从而保留远距离平面深度图的更多细节信息。然后,利用多尺度特征融合网络,融合不同尺度的特征图,得到具有丰富几何特征和语义信息的特征图。最后,利用多尺度自适应深度融合网络为不同尺度特征图生成的深度图添加可学习的权重参数,对不同尺度的深度图进行自适应融合,增加了预测深度图中的目标信息。本文方法在NYU Depth V2数据集上预测的深度图具有更高的准确度和丰富的物体信息,绝对相对误差为0.115,均方根误差为0.525,精确度最高达到99.3%。  相似文献   

11.
特征融合方法是模式识别领域的一种重要方法.计算机视觉领域的图像识别问题作为一种特殊的模式分类问题,仍然存在很多挑战.特征融合方法能够综合利用多种图像特征,实现多特征的优势互补,获得更加鲁棒和准确的识别结果.笔者基于信息融合理论分析了特征融合方法的原理,介绍了特征融合方法的研究现状,讨论了特征融合与3类主流基础理论相结合的方法,其中基于贝叶斯理论的特征融合算法可以实现多特征的融合决策,基于稀疏表示理论的特征融合算法能够得到多特征的联合稀疏表示,基于深度学习理论的特征融合算法能够强化深度神经网络模型的特征学习过程.  相似文献   

12.
基于多特征融合的运动物体识别方法研究   总被引:1,自引:0,他引:1  
为了实现运动目标的实时检测,本文基于多特征融合,提出了一种运动物体分级识别方法.首先通过对运动目标的分割,分析得到各个物体的形状矩特征、面积大小及运动速度.对上述特征,采用支持向量机方法对其矩特征进行快速的一级分类,然后对一级分类结果及各物体的面积、速度等信源根据其对分类的重要程度,采用模糊积分技术进行多特征融合分类.实验表明,本方法具有较强的学习能力及较高的识别精度,可有效地应用于道路监控等系统.  相似文献   

13.
针对架空输电线可见光图像中环境背景复杂、电力线像素占比小,导致电力线检测精度低、断点率高的问题,提出具有强化线型特征提取和减少断点能力的多线型特征增强网络(MLED). 利用双路残差框架提取线型电力线目标的主干和边缘特征,通过多特征融合模块,在不同尺度的层次上实现主干、边缘和高层特征的深度整合,输出检测结果. 在多特征融合模块中嵌入残差、反卷积、多尺度结合等多路运算. 实验结果表明,MLED的检测能力较PSPNet、FCRN、UNet 有明显提高,多特征融合模块优于传统的残差连接块,可视化结果的 F 检验(F-Measure)、IoU 平均值(Mean IoU)分别为78.4%、77.8%,断点率为30.8%.  相似文献   

14.
针对不同流速类类间差异小而造成的分类困难问题,提出条件边界平衡生成对抗网络和多特征融合的卷积分类网络,分别进行流速图像的生成和分类. 为了达到数据增强效果,引入标签机制和验证模块实现相应类别图像数据的拟合与生成;为了加强图像不同纹理特征信息对流速估测的影响,引入多特征融合机制对所有真实样本和生成伪样本进行特征提取和流速识别,实现对差异性较小的图像的分类. 将该方法应用于实际的河流表面流速估测,结果表明,在图像生成模块中,引入的标签信息和验证机制在一定程度上能强制引导模型的数据生成方向;在图像识别模块中,引入的多特征融合机制使所提出方法相较于其他方法,在差异性较小的水流图像的识别上更具鲁棒性.  相似文献   

15.
针对智能会议环境下基于单模特征的人脸识别的识别率低、鲁棒性差的问题,提出了一种在智能会议室环境下基于核相关权重鉴别分析(KRWDA)算法的融合全局和局部特征的多特征融合人脸识别方法。基于相关权重鉴别分析算法并结合核方法,提出了一种核相关权重鉴别分析算法,有效解决了小样本问题。利用全局特征和局部特征在识别时所描述的内容和作用的互补性在特征层融合两种特征,全局信息和局部信息分别采用离散余弦变换和Ga-bor小波变换提取。在AMIES2016数据库上的仿真实验表明,本文所提出的方法可以有效地提高系统身份识别的正确率。  相似文献   

16.
基于多特征融合的高精度视频火焰检测算法   总被引:1,自引:0,他引:1  
针对目前视频火焰检测算法无法达到高检测率、低误检率的工程应用需要,提出了一种使用Choquet积分进行火焰多特征融合的检测算法。首先通过优化运行期均值法进行背景建模,然后对疑似区域进行边缘分形维数检测、角点形心运动轨迹检测和图像相关性检测,最后对模糊化的特征检测结果计算Choquet积分,并以此判断火焰是否存在。试验表明,本文提出的检测算法高效、快速,具有较好的应用前景。  相似文献   

17.
针对传统服饰图像分割中标签易混淆和小目标易丢失带来的目标边缘细节难以保留等问题,提出了一种基于卷积注意力特征的残差期望最大化注意力语义分割网络模型。该模型首先以ResNeXt-50作为共享特征的主干网络,并通过在特征提取阶段引入一组平行的卷积注意力模块,可以有效地抑制无效特征,使目标区域的特征更加显著。然后利用残差思想对期望最大化注意力(EMA)单元进行优化,以解决迭代过程中梯度爆炸或者消失的问题,从而更好地建立特征图中位置间的关联,最终实现基于显著性融合学习的语义分割模型。最后在传统民族服饰数据集上通过定性与定量的实验验证了所提模型的有效性,其中平均交并比分割指标达到83.91%,取得了同类算法中最优效果。  相似文献   

18.
为了提高图像的视觉效果,提出了一种改进的基于Curvelet变换的图像融合方法.首先对全色图像进行增强,使图像的细节信息得到加强,再采用Curvelet变换与IHS变换结合的方法对增强后的图像进行融合。该算法既有效的保留了空间信息又抑制了光谱扭曲.结果表明,和常用的小波融合算法相比,笔者提出的融合方法在光谱信息的保持与空间细节信息的增强两个方面的综合性能得到提高,具有更好的效果.  相似文献   

19.
为提高低信噪比条件下雷达目标高分辨一维距离像的识别性能,提出一种采用多特征联合学习的噪声稳健目标识别方法.该方法利用核函数实现对稀疏与低秩的联合表示,用来提取目标高分辨一维距离像的局部特征与全局特征.在训练阶段,利用联合可分性分析多分类器综合结构字典学习方法对特征提取字典进行优化,从而提高特征向量的可分性;在测试阶段,利用对消原理对噪声进行自适应抑制,实现噪声干扰下的稳健识别.利用实测数据进行实验,结果表明该方法可有效地对被噪声污染的目标高分辨一维距离像进行恢复,并提高低信噪比下的目标识别准确率,且满足实际应用中的实时性要求.由此可见,该方法可以有效地提高高分辨一维距离像目标识别系统在低信噪比下的总体性能.  相似文献   

20.
针对视觉跟踪算法光照自适应能力差的问题,提出了一种对光照变化鲁棒的多特征动态提取跟踪算法。该算法采用高效克服光照影响的特征提取方法,颜色子模型采用模糊直方图方法获取,在同态滤波基础上建立边缘子模型,运动子模型采用改进的三帧差分法提取。该算法还定义了一个新的特征融合模型,把多种互补的观测子模型动态融合,增强了观测模型的准确性,合理量化特征的可靠性使跟踪更稳定。同时采用改进的粒子重采样方法提高了跟踪准确度。实验结果表明,该算法能有效地避免光照变化对跟踪的影响,具有较好的鲁棒性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号