首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 296 毫秒
1.
刘芬  郭躬德 《计算机应用》2013,33(1):192-198
基于关键点的符号化聚合近似(SAX)改进算法(KP_SAX)在SAX的基础上利用关键点对时间序列进行点距离度量,能更有效地计算时间序列的相似性,但对时间序列的模式信息体现不足,仍不能合理地度量时间序列的相似性。针对SAX与KP_SAX存在的缺陷,提出了一种基于SAX的时间序列相似性复合度量方法。综合了点距离和模式距离两种度量,先利用关键点将分段累积近似(PAA)法平均分段进一步细分成各个子分段;再用一个包含此两种距离信息的三元组表示每个子分段;最后利用定义的复合距离度量公式计算时间序列间的相似性,计算结果能更有效地反映时间序列间的差异。实验结果显示,改进方法的时间效率比KP_SAX算法仅降低了0.96%,而在时间序列区分度性能上优于KP_SAX算法和SAX算法。  相似文献   

2.
SAX(symbolic aggregate approximation)是一种符号化的时间序列相似性度量方法,该方法在对时间序列划分时,采用了PAA算法的均值划分,但均分点无法有效描述序列的形态变化,导致序列间对应分段均值相似的情况下,SAX无法有效区分序列之间的相似度.在SAX算法的基础上,提出了基于关键点的SAX改进算法(KP_SAX),该算法的相似性度量公式既可描述时间序列自身数值变化的统计规律,又可描述时间序列形态变化.实验结果表明:KP_SAX虽然部分提高了算法的复杂度,但可在SAX算法无法计算序列相似度的情况下,有效计算各序列间的相似度距离,达到了改进的目的.  相似文献   

3.
提出了一种基于DTW的符号化时间序列聚类算法,对降维后得到的不等长符号时间序列进行聚类。该算法首先对时间序列进行降维处理,提取时间序列的关键点,并对其进行符号化;其次利用DTW方法进行相似度计算;最后利用Normal矩阵和FCM方法进行聚类分析。实验结果表明,将DTW方法应用在关键点提取之后的符号化时间序列上,聚类结果的准确率有较好大提高。  相似文献   

4.
符号化聚集近似是一种有效的时间序列数据离散化降维方法,为了扩展非等维符号化时间序列相似性度量的解决方案,提出了一种新方法。首先将关键点提取技术应用在符号化算法中对时间序列进行降维处理,然后利用文中提出的方法对非等长的时间序列进行局部等维处理,再符号化;最后采用不同的方法进行相似度对比计算。实验结果表明,这种方法是简单而有效的,并且使非等长符号化时间序列的相似性度量及聚类方法得到了拓展。  相似文献   

5.
符号化表示是一种有效的时间序列降维技术,其相似性度量是诸多挖掘任务的基础。基于SAX(sym-bolic aggregate approximation)的距离MINDIST_PAA_iSAX不满足对称性,在时间序列挖掘中具有局限性,提出了对称的度量Sym_PAA_SAX,且下界于欧拉距离。在真实数据集和合成数据集上的实验说明下界紧密性较好,相似搜索错报率较低。  相似文献   

6.
时间序列异常检测   总被引:3,自引:0,他引:3  
在k-近邻局部异常检测算法的基础上,结合时间序列的分割方法,提出了一种高效的时间序列异常检测算法。该算法首先把序列重要点作为数据的分割点,对时间序列数据进行高比例压缩;其次利用局部异常检测方法检测出时间序列中的异常模式。通过心电图(ECG)数据实验验证了算法的有效性和合理性。  相似文献   

7.
周大镯  刘雷 《计算机工程》2009,35(16):45-47
在k-近邻局部异常检测算法的基础上,结合时间序列的分割方法,提出一种高效率的时间序列增量异常模式检测算法。将时间序列按序列重要点进行数据分割,利用局部异常检测方法检测出时间序列的异常模式。当插入一些新数据时,邻近分割模式发生变化,增量异常检测算法更新相应的最近邻模式。通过该算法可以高效率地发现时间序列的异常模式。  相似文献   

8.
聚类是数据挖掘研究中最常见的一种方法,可以作为规则发现、异常发现等其它数据挖掘操作的基础,一直以来都是数据挖掘的研究热点之一。股票数据是一种典型的时间序列数据,利用股票数据进行时间序列数据挖掘的研究既有一定的实际应用价值,也是国内外的热点问题之一。文章首次将一种新型符号化方法SAX[1]应用到标准普尔500指数的股票数据的聚类研究中,使用传统的欧氏距离和动态时间弯曲两种时间序列相似性度量方法进行实验。实验结果表明将SAX应用到股票数据聚类操作,可以得到更好的趋势聚类效果和更高的效率。  相似文献   

9.
基于改进符号化度量方法的机场噪声异常检测   总被引:1,自引:0,他引:1  
机场噪声中的异常情况拥有很大价值,利用它能够及时完善飞机和机场的设备。结合机场噪声数据的特点,对上述问题进行研究并提出一种基于改进的符号化聚集近似(Symbolic Aggregate Approximation,SAX)相似性度量的单监测点的时间序列异常检测方法。其运用相似性度量方法计算出度量结果,再运用k近邻异常检测方法进行异常发现,最后发现异常时间段。该方法在理论验证可行性之后在某机场的实测数据中进行应用,取得了良好的效果。  相似文献   

10.
新型时间序列相似性度量方法研究   总被引:1,自引:0,他引:1  
摘要:基于时间序列符号化后的特点,创造性地提出了一种新型相似性度量方法——符号化的统计向量空间法(SAX[1] Statistical Vector Space,SSVS)。将这种度量方法用于S&P500指数的股票数据聚类实验,并与经典相似性度量方法比较,结果表明这种新的方法能够高效地从整体趋势的角度度量时间序列的相似性,有很好的实际意义和应用前景。  相似文献   

11.
基于统计特征的时序数据符号化算法   总被引:9,自引:0,他引:9  
为克服SAX(符号聚合近似)算法对时序信息描述不完整的缺陷,提出基于统计特征的时序数据符号化算法,与SAX不同的是,该算法将时序符号看作矢量,而各时序子段的均值和方差则分别作为描述其平均值及发散程度的分量.由于该算法能够比SAX提供更多的描述信息,因而在时序数据挖掘应用中能够获得比SAX更精确的结果.大量的实验也证实了它的出色表现.  相似文献   

12.
符号聚合近似表示法是提取时间序列特征的重要方式。然而,传统的符号聚合近似表示法存在平均化分段数、同等对待划分区间,以及无法准确反映非平稳序列的突变信息等多项缺陷。鉴于此,通过引入局部均值分解和改进小波熵的分段算法,建立了一种新的时序SAX模型。该模型的基本原理是采用局部均值分解技术对原始序列进行去噪处理,利用滑动窗口阈值法获取分段数,并使用SAX表示法进行符号表示,利用KNN分类器实现分类性能测试。基于这一改进模型,进行了实证检验,实验结果表明,该模型能够有效提取序列的信息特征,具有较高的拟合度,达到了降维的目的,更重要的是,提高了KNN分类算法在SAX表示法中分类的准确率。  相似文献   

13.
陈然  戴齐 《微机发展》2011,(9):103-106
基于重要点探测技术的时间序列线性分段算法能较好地保留序列的全局特征和拟合高精确度。传统的基于重要点时间序列分段算法,只能通过误差阈值来控制分段,该方法不能预计分段数量,不能适应后期要求分段数量一定的应用。提出一种基于序列重要点的时间序列固定分段数的分段算法—PLR_FPIP,该方法借用二叉树层次遍历的思路,重新调整原方法的分段次序,使用重要点组成的直线段近似描述时间序列,该方法能够在分段数量一定的情况下对时间序列分段。实验证明,该分段算法能在固定分段数的情况下反映时间序列的主体特征,算法简单快速,整体拟合误差小。  相似文献   

14.
分类问题是数据挖掘中的基本问题之一,时间序列的特征表示及相似性度量是时间序列数据挖掘中分类、聚类及模式发现等任务的基础。SAX方法是一种典型的时间序列符号化表示方法,在采用该方法的基础上对时间序列进行分类,不仅可以有效地降维、降噪,而且具有简单、直观等特点,但是该方法有可能造成信息损失并影响到分类结果的准确性。为了弥补信息损失对分类结果的影响,采用了集成学习中大多数投票方法来弥补BOP表示后的信息损失,从而提高整个分类器的效率。针对一些样本在BOP表示中都损失了相似的重要信息,以至于大多数投票无法进一步提高分类效率的问题,进一步提出了结合集成学习中AdaBoost算法,通过对训练样本权重的调整,从而达到以提高分类器性能来弥补信息损失的效果。实验结果表明,将BOP方法与集成学习相结合的方法框架,不仅能很好地处理SAX符号化表示中的信息损失问题,而且与已有方法相比,在分类准确度方面也有显著的提高。  相似文献   

15.
为解决符号聚合近似方法(SAX)表示时间序列时忽略序列局部趋势的问题,提出一种融合形态趋势信息的时间序列符号聚合近似方法。该方法以子序列段中的最大值和最小值以及它们两者之间的相对位置为依据,定义一种新的趋势指标来描述子序列段的趋势,并使用融合趋势指标的符号矢量来近似表示时间序列。针对所提表示方法,给出一种新的距离度量方法,并在UCR数据集和电机转矩数据集上进行分类实验,实验结果表明,所提方法在绝大多数数据集上获得了较SAX方法更高的分类准确率,能够有效弥补SAX方法表示时间序列时忽略局部趋势的不足。  相似文献   

16.
提出了一种交互式分割传统CT图像肝脏肿瘤的方法。首先对CT切片进行预处理,包括肝脏薄壁组织分割及其对比增强处理,通过分水岭转换后肝脏体积被分成许多集水盆地。然后,在用户选择种子点上训练支持向量机分类来抽取肝脏肿瘤,而在分水岭转换后产生的每个小区域基础上,计算对应的用于训练和预测的特征向量。最后,在整个分割二级制体数据中执行一些形态学操作,重新定义支持向量机分类的粗糙分割结果。实验结果表明:改进方法提高了诊疗的准确性、有效性,以及在临床应用中的可行性。  相似文献   

17.
针对海量CT图像分割中特征提取的难题,提出一种非下采样轮廓变换(NSCT)和灰度共生矩阵(GLCM)相融合的CT图像特征提取算法。首先采用NSCT对CT图像进行多尺度、多方向分解,并采用GLCM提取子带图像的共生特征量,然后对共生特征量进行主成分分析,消除冗余特征量,构成多特征矢量,最后利用支持向量机完成多特征矢量空间的划分,实现CT图像分割。实验结果表明,NSCT-GLCM能够较好地提取CT图像特征,提高了CT图像分割准确率,可以为医生诊断提供辅助信息。  相似文献   

18.
文凯  唐伟伟  熊俊臣 《计算机应用》2022,42(9):2659-2666
针对现阶段实时语义分割算法计算成本高和内存占用大而无法满足实际场景需求的问题,提出一种新型的浅层的轻量级实时语义分割算法——基于注意力机制和有效分解卷积的实时分割算法(AEFNet)。首先,利用一维非瓶颈结构(Non-bottleneck-1D)构建轻量级分解卷积模块以提取丰富的上下文信息并减少运算量,同时以一种简单的方式增强算法学习能力并利于提取细节信息;然后,结合池化操作和注意力细化模块(ARM)构建全局上下文注意力模块以捕捉全局信息并细化算法的每个阶段,从而优化分割效果。算法在公共数据集cityscapes和camvid上进行验证,并在cityscapes测试集上获得精度为74.0%和推理速度为118.9帧速率(FPS),相比深度非对称瓶颈网络(DABNet),所提算法在精度上提高了约4个百分点,推理速度提升了14.7 FPS,与最近高效的增强非对称卷积网络(EACNet)相比,所提算法精度略低0.2个百分点,然而推理速度提高了6.9 FPS。实验结果表明:所提算法能够较为准确地识别场景信息,并能满足实时性要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号