排序方式: 共有17条查询结果,搜索用时 0 毫秒
1.
2.
3.
一种基于正向云变换的混合计算神经网络及其应用 总被引:2,自引:0,他引:2
针对数值信息与定性领域知识相互融合的计算问题,提出了一种基于云变换的混合计算神经网络模型。利用正向正态云发生器可实现定性概念到量化数值描述之间不确定关系的转换机制,建立基于云变换的混合信息计算逻辑和神经网络模型。将定性概念谓词通过云变换在概率意义下转换为数值变量,把计算规则表示为神经元,利用神经网络的学习性质来实现对定量与定性混合信息的自适应计算和推理。在算法设计中,将网络性质参数整合为一个粒子,利用粒子群算法对混合计算神经网络进行整体优化求解。以石油地质研究中的沉积微相自动识别为例,实验结果验证了模型和算法的有效性。 相似文献
4.
船舶数量与尺寸的不断增加导致其在限制水域船舶水动力干扰现象突出,限制水域内的船舶水动力干扰的快速准确预报,有助于船舶智能航行安全的发展.针对此问题,本文提出了一种基于Hess&Smith面元法的数值方法,实时计算浅水中两船平行干扰与会遇过程中的船-船水动力干扰问题.基于低弗劳德数假设,使用合模方法处理自由液面处的边界条... 相似文献
5.
6.
针对图像处理中的边缘检测问题,提出一种基于离散过程神经网络(DNPP)与混沌遗传算法(CGA)相融合的模型和算法。DNPP的输入可以直接为数据矩阵,实现二维图像关联信息网格化的整体输入和处理。以图像网格灰度值作为DPNN处理数据集合,利用Sobel算子检测的技术原理和DPNN的判别能力,实现图像边界线的自动辨识和追踪。文中给出基于混沌遗传搜索的DNPP求解算法,以油田地震数据体切片中砂体的识别和追踪为例,实际资料处理结果验证了检测模型和算法的有效性。 相似文献
7.
目的 研究表明,图像的恰可察觉失真(JND)阈值主要与视觉系统的亮度适应性、对比度掩模、模块掩模以及图像结构等因素有关。为了更好地研究图像结构对JND阈值的影响,提出一种基于稀疏表示的结构信息和非结构信息分离模型,并应用于自然图像的JND阈值估计,使JND阈值模型与人眼视觉系统具有更好的一致性。方法 首先通过K-均值奇异值分解算法(K-SVD)得到过完备视觉字典。然后利用该过完备字典对输入的自然图像进行稀疏表示和重建,得到该图像对应的结构层和非结构层。针对结构层和非结构层,进一步设计基于亮度适应性与对比度掩模的结构层JND估计模型和基于亮度对比度与信息不确定度的非结构层JND估计模型。最后利用一个能够刻画掩模效应的非线性可加模型对以上两个分量的JND估计模型进行融合。结果 本文提出的JND估计模型利用稀疏表示将自然图像的结构/非结构信息进行分离,然后采用符合各自分量特点的JND模型进行计算,与视觉感知机理高度一致。实验结果表明,本文JND模型能够有效地预测自然图像的JND阈值,受污染图的峰值信噪比(PSNR)值比其他3个JND对比模型值高出35 dB。结论 与现有模型相比,该模型与人眼主观视觉感知具有更好的一致性,更能有效地预测自然图像的JND阈值。 相似文献
9.
5G技术不仅在以蜂窝网络为代表的移动互联网中占据主要角色,还正在积极地为工业场景提供技术变革的契机.目前,国内外已经开展了大量和5G抗干扰技术相关的工作,但仍缺乏对5G在授权和非授权频谱下抗干扰技术的系统性综述.本文分析了5G无线干扰的主要来源,指出了抗干扰研究的技术难点,并以授权频段5G蜂窝网络干扰与非授权频段异构系统间干扰两个关键问题为例,对现有的无线抗干扰方案进行了具体分析和归纳对比,最后对5G技术在授权频段和非授权频段抗干扰技术的未来研究方向进行了展望. 相似文献
10.
目的 基于超高效液相色谱-四极杆飞行时间质谱法(ultraperformanceliquidchromatographyquadrupole time-of-flight mass spectrometry, UPLC-QTOF/MS)和脂质组学分析技术分析不同畜禽肉中脂肪酸和脂质组成差异。方法 样品经脂肪提取、皂化和萃取后采用C8柱分离,以水+甲醇(9:1, V:V)和乙腈+甲醇+异丙醇(2:3:5,V:V:V)为流动相进行梯度洗脱,经UPLC-QTOF/MS定性分析,总脂肪酸外标法定量,脂质面积百分比半定量,并结合主成分分析(principalcomponentanalysis,PCA)和偏最小二乘法判别(partialleastsquares discriminant analysis, PLS-DA)等统计学手段,实现脂质差异分析。结果 该方法可对38种脂肪酸进行准确定性与定量;检出限范围在0.050~1.000μg/g,定量限范围在0.125~2.500μg/g,线性相关系数(r2)均大于0.99;以亚油酸-13C18为模型进行准确性评价,加标回收率范围为93%~104%,相... 相似文献