共查询到18条相似文献,搜索用时 62 毫秒
1.
2.
在针对视频的人体活动定位和识别领域中,现有的时序行为提名方法无法很好地解决行为特征长期依赖性而导致提名召回率较低.针对此问题,提出了一种上下文信息融合的时序行为提名方法.该方法首先采用三维卷积网络提取视频单元的时空特征,然后采用双向门控循环网络构建上下文关系预测出时序行为区间.针对门控循环单元(GRU)存在参数较多和梯... 相似文献
3.
4.
正电子发射断层成像(Positron emission tomography, PET)是一种强大的核医学功能成像模式, 广泛应用于临床诊断, 但PET图像的空间分辨率低且含有噪声, 有必要对PET图像进行去噪以提升PET图像的质量. 随着PET/MR (Magnetic resonance)等一体化成像设备的出现, 磁共振成像(Magnetic resonance imaging, MRI)的先验信息可用于PET图像去噪, 提高PET图像质量. 针对动态PET图像, 提出了一种融合MRI先验信息的PET图像图小波去噪新方法. 首先构建PET合成图像; 再将PET合成图像与MRI信息通过硬阈值方法进行融合; 接着在融合图像上构造图拉普拉斯矩阵; 最后通过图小波变换(Graph wavelet transfrom, GWT)对动态PET图像去噪. 仿真实验结果表明, 与单独的图滤波、图小波去噪方法以及其他结合MRI的PET图像去噪方法相比, 本文方法有更高的信噪比(Signal-to-noise ratio, SNR), 更好地保留了病灶信息; 本文方法的去噪性能与VGG (Visual Geometry Group)深度神经网络等基于学习的方法相当, 但不需要大量数据的训练, 计算复杂度低. 相似文献
6.
临床心电信号工频干扰小波去噪方法对比分析 总被引:1,自引:0,他引:1
针对临床心电信号存在的工频干扰,基于小波变换方法,从实用性角度对比分析了三种去噪方法;频域强制去噪法:先对小波系数进行傅立叶分解,将受噪声干扰严重的系数置零,再进行小波重构;此法得到的信号较光滑,但有可能丢失有用信息;能量阈值去噪法:根据提前设定的能量恢复指数,得到预定阈值作为门限,保留一定的细节系数和全部近似系数重构小波;此法简化并优化了传统阈值的选取,较好保留了信号中的突变部分;默认阈值去噪法:其可信度较低,但仍可满足非高精度数据处理的要求;在实际临床应用中,可根据实际情况和处理精度选取合适的去噪方法,为进一步研究临床心电信号预处理奠定基础。 相似文献
8.
针对以往流行度预测方法未利用演化模式之间的差异和忽略预测时效性的问题,提出了一种基于演化模式的推特话题流行度预测方法。首先,基于K?SC算法对大量历史话题的流行度序列进行聚类,并得到6类演化模式;然后,使用各类演化模式下的历史话题数据分别训练全连接网络(FCN)作为预测模型;最后,为选择待预测话题的预测模型,提出幅度对齐的动态时间规整(AADTW)算法来计算待预测话题的已知流行度序列与各演化模式的相似度,并选取相似度最高的演化模式的预测模型进行流行度预测。在根据已知前20 h的流行度预测后5 h的流行度的任务中,与差分整合移动平均自回归(ARIMA)方法以及使用单一的全连接网络进行预测的方法相比,所提方法的预测结果的平均绝对百分比误差(MAPE)分别降低了58.2%和31.0%。实验结果表明,基于演化模式得到的模型群相较于单一模型能更加准确地预测推特话题流行度。 相似文献
9.
10.
木马作为网络所面临的一种重要威胁。其控制主机的规模对网络安全态势有重大影响。对进行有效预测可为网络安全预警和防御提供决策支持。在大规模网络中检测到的木马数据具有较大的规模和较强的数据独立性,难以进行关联分析,而用时序分析可以获取更多有价值的信息。本文介绍了在时序分析预测中广泛采用的ARMA预测技术、基于小波分析的预测技术和基于时序事件化的预测技术,针对大规模网络中监测到的真实木马数据集的数据特点,在短、中期时间上对三种时序预测技术进行比较讨论。实验表明,基于时序事件化的预测技术具有最优的准确性。 相似文献
11.
时序多文档文摘是针对新闻领域跨时段的相关文档集,即系列新闻报道进行问题无关的、抽取式文摘.根据系列新闻报道不同细节层次的时序特性.提出一种基于宏微观重要性判别模型的内容选择方法.从宏观和微观角度挖掘信息随着时间进化的时序特性,以指导时序多文档文摘的内容选择.首先通过宏观模型确定重要的时间点,然后通过微观模型在重要的时间点选择重要的句子,从而更有效地获取文摘.实验证明该方法是有效的. 相似文献
12.
13.
14.
从案件相关的话题评论中生成简短的话题描述对于快速了解案件舆情有着重要作用, 其可以看做是基于用户评论的多文档摘要任务. 然而用户评论中含有较多噪声且生成摘要所需的重要信息分散在不同的评论句中, 直接基于序列模型容易生成错误或不相关的摘要. 为了缓解上述问题, 提出一种基于主题交互图的案件话题摘要方法, 将嘈杂的用户评论组织为主题交互图, 利用图来表达不同用户评论之间的关联关系, 从而过滤重要的用户评论信息. 具体来说, 首先从评论句中抽取案件要素, 然后构造以案件要素为节点, 包含案件要素的句子为内容的主题交互图; 然后利用图Transformer网络生成图中节点的表征, 最后生成简短的话题描述. 在收集的案件话题摘要数据集上的实验结果表明, 所提方法是一种有效的数据选择方法, 能够生成连贯、事实正确的话题摘要. 相似文献
15.
对于许多在线电商,预测用户购买商品的可能性至关重要。由于用户与商品的交互通常是高维且稀疏的,所以深度因子分解机算法(DeepFM)将因子分解机算法(FM)与深度神经网络(DNN)结合在一起,用FM处理低阶特征组合,用DNN处理高阶特征组合,通过并行的方式组合这2种方法,很好地解决了高维稀疏的问题。但是,它忽略了用户购买商品的先后性问题,也就是时间上下文信息。针对这一缺陷,本文提出一种融合注意力(Attention)与DeepFM的时间上下文推荐模型(DeepAFM),更好地利用用户与商品交互的时间上下文信息,相比较于未加入时间上下文信息的DeepFM模型,AUC提升了1.84%。对比验证结果表明,DeepAFM模型具有更优越的性能。 相似文献
16.
针对抽取式方法、生成式方法在长文档摘要上的流畅性、准确性缺陷以及在文档编码前截断原始文档造成的重要信息缺失问题,提出一种两阶段长文档摘要模型SFExt-PGAbs,由次模函数抽取式摘要SFExt与指针生成器生成式摘要PGAbs组成。SFExt-PGAbs模拟人类对长文档进行摘要的过程,首先使用SFExt在长文档中抽取出重要句子,过滤不重要且冗余的句子形成过渡文档,然后PGAbs接收过渡文档作为输入以生成流畅且准确的摘要。为获取与原始文档中心思想更为接近的过渡文档,在传统SFExt中拓展出位置重要性、准确性两个子方面,同时设计新的贪心算法。为研究不同特征提取器对生成摘要质量的影响,在PGAbs中应用两种循环神经网络。实验结果显示,在CNNDM测试集上,SFExt-PGAbs相较于基线模型生成了更为流畅、准确的摘要,ROUGE指标有较大提升。同时,子方面拓展后的SFExt也能抽取得到更准确的摘要。 相似文献
17.
多文档文摘中基于时间信息的句子排序策略研究 总被引:1,自引:0,他引:1
文摘句排序是多文档自动文摘中的一个关键技术,直接影响到文摘的流畅程度和可读性。文本时间信息处理是影响排序算法质量的瓶颈技术,由于无法获得准确的时间信息,传统的句子排序策略均回避了这一问题,而且均无法获得稳定的高质量的排序效果。对此该文从文本时间信息处理入手,首先提出了中文文本时间信息抽取、语义计算以及时序推理算法,并在此算法基础上,借鉴传统的主成分排列的思想和句子相关度计算方法,提出了基于时间信息的句子排序算法。实验表明该算法的质量要明显好于传统的主成分排列算法和时序排列算法。 相似文献