首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
现有简缩极化(Compact Polarimetry)SAR图像H/α经验特征空间存在两个问题:一是没有考虑简缩极化模式下的散射熵普遍高于全极化模式;二是在散射机制重叠区域,简缩极化H/α空间的分类能力较弱,尤其是多次散射。针对以上问题首先定量分析了DCP模式简缩极化SAR的散射角与全极化SAR数据散射角之间的关系,且在对7组不同传感器的SAR数据分析的基础上,提出了散射熵的替代参数ED,基于Monte Carlo模拟实验得到了H/α分解的各参数(熵H、平均散射角α和替代参数ED)分解的稳态条件;然后通过统计各散射机制在ED/α分布的密度空间,提出了一种新的简缩极化SAR图像ED/α特征空间。实验结果表明:替代参数ED与全极化熵具有良好相关性,而且ED/α特征空间提高了散射机制分类的精度。  相似文献   

2.
在分析特征值分解结果,全部散射机制组合和极化特征谱性质的基础上,提出基于3个特征谱参数的假彩色合成方法,可以更加有效直观地反映地物散射特征,再对散射熵、散射角、反熵和4个极化特征谱参数进行特征选择分析,给出最佳的多维特征向量选择方案,从而实现传统遥感图像分类器如同ISODATA算法对极化SAR图像的分类。实验选择了一景Radarsat\|2标准全极化SAR数据,包含典型的城市、植被和水体三大类地物,实验结果表明:极化特征谱假彩色合成充分反映了各地物散射特征,特征谱和散射角组成了最佳特征向量,非监督分类结果表明:该方法克服了城市与植被在H\|Alpha平面上分布界限模糊的问题,分类精度高于H\|Alpha平面非监督分类,与Wishart-H-Alpha-A分类方法相当。  相似文献   

3.
基于特征向量分解和基于散射模型的极化目标分解是全极化SAR非相干分解中的典型算法。本文对比研究了两种算法的特点及分解结果在地物识别分类方面的优势,在基于特征向量分解得到的H-Alpha特征平面的基础之上,引入散射机制判别指数来刻画地物的类别差异,从而能约束H-Alpha平面分割的界限以提高分类的精度,而且利用散射机制占优性强弱可辅助分类结果的解译。实验选取了鄱阳湖地区一景Radarsat-2标准全极化数据,实验结果对比表明一种散射机制占主导的地物,分类精度得到改善,特别是水域、形成二面角的目标区和成片分布的植被区域可以显著地提取出来。  相似文献   

4.
基于SVM的POL-SAR图像分类研究   总被引:2,自引:1,他引:1  
提出了一种将物理散射机理、纹理信息和SVM结合起来用于POL-SAR图像分类的方法。实验数据选取德国Oberpfaffenhofen实验区域(DE)的DLR ESAR L波段全极化数据,实验区域包括自然植被,如森林、田地和人造目标如建筑、机场跑道等。首先利用OEC分解得到了散射特征,然后提取HH和HV通道图像的纹理特征,并用SVM进行特征选择及分类。然后在上述特征中加入Freeman分解的散射特征重复试验,取得了较好的结果。试验证明了将散射特征和纹理特征结合起来对地物进行分类是有效的,同时也证明了用SVM进行特征选择的有效性。  相似文献   

5.
由于全极化合成孔径雷达(synthetic aperture radar)能够测量每一观测目标的全散射矩阵,即可合成包括线性极化、圆极化及椭圆极化在内的多种极化图像,因此与常规的单极化和多极化SAR相比,在雷达目标探测、识别,纹理特征和几何参数的提取等方面,全极化SAR均具有很多优点,但是由于地物分布的复杂性往往造成不同地物具有相似的后向散射信号特征,因而加大了地物信息提取的难度。同时由于这些极化合成图像具有较高的相关性,从而导致了图像分类精度的降低。为了提高全极化SAR图像的分类精度,基于新疆和田地区的SIR-CL波段全极化雷达数据,利用目标分解理论首先将地物回波的复杂散射过程分解为几种互不相关的单一的散射分量。由于这些单一的散射分量都对应于具有不同物理和几何特征以及分布特征的地物,从而提供了更加丰富的地表覆盖信息,这样就很大程度地改善了地物信息的分类精度;然后利用分解后单一散射分量数据结合传统的极化合成数据,可以得到更多的互不相关的数据源,再使用神经网络分类法对这些数据进行分类。分类结果表明,这种方法大幅度提高了全极化SAR数据用于实验区土地覆盖分类的精度。这种分类方法也可以广泛地用于SAR数据地表覆盖和土地利用动态监测和地表参数的提取。  相似文献   

6.
近些年,利用计算机对极化SAR图像进行分类逐渐成为遥感领域的一个研究热点.本文采用全极化SAR数据,利用不同的特征提取算法提取特征,并基于随机森林模型最终实现对江苏沿海滩涂的分类.首先采用H/α和Freeman两种分解算法提取极化特征参数,采用灰度共生矩阵提取纹理特征参数;然后将提取的所有特征进行不同的组合,构成不同的特征集;最后采用随机森林模型对不同特征集合进行分类和精度评估.结果表明仅用纹理特征对沿海滩涂进行分类时效果较差;利用极化分解提取出的散射特征进行分类的结果要优于矩阵元素特征的分类结果;综合了极化散射特征和纹理特征的组合方式在沿海滩涂的分类中可以取得最优的分类结果,总体精度和Kappa系数可以达到94.44%和0.9305,表明极化SAR图像中蕴含的不同方面的特征在分类中具有一定的互补性.  相似文献   

7.
基于RadarSat-2全极化数据的水稻识别   总被引:5,自引:0,他引:5  
极化信息是雷达数据的独特优势,为雷达遥感应用研究开辟了新的途径。极化分解是一种新型的极化数据处理方法,它从数学物理的角度分析目标的散射机制。基于RadarSat\|2全极化数据,以贵州高原丘陵为试验区,研究水稻的极化响应特征及其时域变化规律,根据极化分解理论分析水稻及典型地物的散射机制及其差异,并根据水稻散射机制的特点提取水稻信息。  相似文献   

8.
李雪薇  郭艺友  方涛 《计算机应用》2014,34(5):1473-1476
面向对象方法已成为全极化合成孔径雷达(SAR)影像处理的常用方法,但是极化分解仍以组成对象的像素为计算单元,针对以像素为单位的极化分解效率低的问题,提出一种面向对象的极化分解方法。通过散射相似性系数加权迭代,获得对象的极化表征矩阵并对其收敛性进行了分析,以对象极化表征矩阵的极化分解代替对象区域内所有像素的分解,提高极化特征获取效率。在此基础上,综合影像对象空间特征,并通过特征选择与支持向量机(SVM)分类进行分析和评价。通过AIRSAR Flevoland影像数据实验表明,面向对象的分解方法能够减少对象极化特征提取的时间,同时提高地物目标的分类精度。相对于监督Wishart方法,提出方法的总体精度和Kappa值分别提高了17%和20%。  相似文献   

9.
基于Krogager分解和SVM的极化SAR图像分类   总被引:1,自引:0,他引:1       下载免费PDF全文
目标分解包括基于Sinclair矩阵的相干目标分解和基于Mueller矩阵的部分相干目标分解,Krogager分解即属于相干目标分解,它可以将任一对称Sinclair矩阵分解为球散射体、二面角散射体和螺旋体3个分量,这是极化合成孔径雷达(Synthetic Aperture Radar,SAR)图像特征提取的有效途径。把3个分量的分解系数作为极化散射特征,由其组成样本向量,运用基于统计学习理论的支持向量机(Support Vector Machines,SVM)设计多类分类器,提出了一种极化SAR图像分类算法,并对实测极化SAR数据进行分类实验。结果表明,将Krogager分解和SVM分类器结合起来,对极化SAR图像进行分类是可行和有效的,并且选择不同的参数得到的分类结果差别很大,验证了参数选择在SVM分类器中的重要作用。  相似文献   

10.
针对传统的极化SAR滤波方法图像中城镇区域和植被区域地物在滤波中易被混淆, 导致滤波后图像中地物边缘保持效果下降的问题, 提出了一种增强的保持极化散射特性的滤波算法。利用一种增强的四分量极化分解方法获取更加精确的地物散射机制, 并将散射机制信息引入滤波方法中, 使滤波算法中像素的散射机制更精确。增强的四分量极化分解方法引入了极化SAR数据的定向角补偿技术、一种新的体散射模型以及两种散射功率限制条件, 来改进Freeman-Durden分解的结果。理论分析和实验结果表明, 改进后的方法获取了比传统的极化SAR图像滤波算法更加理想的计算结果。  相似文献   

11.
初始聚类中心的随机选择,根据主观经验确定类簇数等问题时常伴随着原始K-means算法。为了攻克以上问题,改进算法采用峰值法以及融合了K近邻算法的密度峰值算法逐一调整。通过在UCI数据集上测试及与原始K-means算法、最大最小距离距离算法在准确率、稳定性和处理数据速率方面的比较,其中最为突出的是,改进算法的准确率达到了96%以上。  相似文献   

12.
飞机交流发电机是飞机关键部件之一,监测其健康状况具有重要意义。通过设计实验数据获取平台采集交流发电机在转速上升(从6000转/分到8500转/分)、平稳运行(7500转/分)及转速下降(8500转/分到6000转/分)三个阶段的振动信号,利用符号序列Shannon熵的计算方法以及符号化方法设定合适参数对振动信号进行了处理,得出了交流发电机在三个阶段的振动信号的Shannon熵;通过初步的分析表明,交流发电机在正常状态下三个阶段的Shannon熵都比较有规律的在一定范围内变化,一旦发生振动异常将会引起Shannon熵突变;经过分析讨论,Shannon熵的突变与否是可以用来反映交流发电机在机械方面是否存在故障隐患的。  相似文献   

13.
基于信息增益的特征词权重调整算法研究   总被引:7,自引:0,他引:7       下载免费PDF全文
传统权重公式TFIDF忽略了词语在集合中的分布比例,针对TFIDF的这个缺点,把信息增益公式引入文本集合中并提出IF*IDF*IG,取得了较好的效果。在分析中发现单纯把信息增益引入文本集合并不能完全解决词语分布对词语权重的影响。从文档类别层次上考虑,把信息论中信息增益应用到文本集合的类别层次上,提出了一种改进的权重公式tf*idf*IGc,用改进的权重公式来衡量词语在文本集合的各个类别中分布比例上的差异,进一步弥补传统公式的不足。实验对比了改进的公式tf*idf*IGc和IF*IDF*IG的实验效果,实验证明tf*idf*IGc权重公式在表现词语权重时更有效。  相似文献   

14.
针对传声器采集的运动声源信号存在多普勒畸变问题,提出一种基于自动搜峰和shannon熵的滚动轴承多普勒畸变故障声信号校正方法。首先对所采集的声音信号进行短时傅里叶(STFT)时频分析;然后利用自动搜峰方法进行瞬时频率估计,设置shannon熵来提高瞬时频率估计精度,并得到拟合的瞬时频率曲线,进而得到信号重采样时间点;最后对原信号进行时域重采样,从而使畸变信号得以矫正。通过仿真和动态滚动轴承内外圈故障声信号的实验验证了此种方法的可行性。  相似文献   

15.
复杂电磁环境仿真不确定性空间构建   总被引:2,自引:0,他引:2  
构造不确定性空间是在仿真中应用探索性分析方法的重要前提.分析了探索性分析的基本应用范式,结合Shannon概率熵给出了复杂电磁环境的不确定性空间分析;在此基础上,认为复杂电磁环境的不确定性主要是由于参数输入的不确定性造成的,构造参数不确定性可以反映电磁空间不确定性特征.  相似文献   

16.
图像压缩是数字图像处理的一项重要技术。本文研究基于统计特性的三种熵编码图像压缩编码方法—香农编码、香农-弗诺编码和哈夫曼编码。并以C#为工具,对三种编码方法进行实验及对比,并通过实验结果分析各算法的特点。实验表明,哈夫曼编码最节省存储空间,单位码长表达的信息量最为丰富;香农-弗诺编码所占的存储空间稍大于哈夫曼编码,单位码长表达的信息量比哈夫曼编码稍少一些;而香农编码所占存储空间最大,单位码长表达的信息量最少。  相似文献   

17.
关于混合熵的讨论   总被引:10,自引:0,他引:10  
分析讨论了其他作者提出的几种混合熵并给出混合熵应遵循的公理。我们还提出了一种新的混合熵形式。指出了混合熵可能的一些应用。  相似文献   

18.
纪滨 《微机发展》2008,(6):73-75
随着对粗糙集理论研究的的深入,基于信息论的信息熵陆续被引入到粗糙集研究中,陆续产生了一些如条件熵、联合熵、知识熵、决策熵、知识粗糙熵、粗集粗糙熵等新的概念,尽管丰富了粗糙集理论和应用,但使用中存在语义不统一的地方,甚至缺乏必要的说明和证明。对这些有价值的新概念作了系统的、严格的、规范的定义及阐述,给出了它们的公式表示,同时,通过相关熵的运算揭示彼此间的关系,最后指出这些熵的应用范畴,以便研究人员在清楚概念的基础上作进一步研究。  相似文献   

19.
李江  李晓玉 《控制工程》2015,22(1):164-169
提出了一种希尔伯特黄变换(HHT)与香农能量相结合的包络提取方法,使包络更加平滑,分段更加准确。针对希尔伯特包络不平滑的问题,提出一种希尔伯特黄变换(HHT)与香农能量相结合的包络提取方法,使得所得包络更加平滑;针对经验模态分解(EMD)时采用三次样条插值而造成的端点效应问题,采用镜像闭合端点延拓方法予以解决。实验表明使用提出的新方法可以得到更好的结果。最后对心音信号进行包括心率、S1/S2和D/S在内的医学指标的提取和分析,这为临床上评估心脏储备提供了便利。  相似文献   

20.
The electroencephalogram (EEG) is a representative signal containing information about the condition of the brain. The shape of the wave may contain useful information about the state of the brain. However, the human observer cannot directly monitor these subtle details. Besides, since bio-signals are highly subjective, the symptoms may appear at random in the time scale. Therefore, the EEG signal parameters, extracted and analyzed using computers, are highly useful in diagnostics. The aim of this work is to compare the different entropy estimators when applied to EEG data from normal and epileptic subjects. The results obtained indicate that entropy estimators can distinguish normal and epileptic EEG data with more than 95% confidence (using t-test). The classification ability of the entropy measures is tested using ANFIS classifier. The results are promising and a classification accuracy of about 90% is achieved.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号