排序方式: 共有10条查询结果,搜索用时 15 毫秒
1
1.
2.
WCDMA是3G通信主流技术之一,其网络优化的重要性是众所周知的。文章通过讨论容量和覆盖的关系,提出了改善相邻小区干扰的方法,结合图形的分析和仿真结果对所提出方法进行验证。 相似文献
3.
4.
为了实现对多视点图像的融合,提出了一种使用分块广义PCA(GPCA)的方法。分块可以将图像处理的过程细化,简化计算GPCA则考虑了二维数据的空间关联性,用于灰度图像降维时有较好的效果,两者的结合是文章的一个创新。由于需要考虑常规多视点图像的不同视点间存在位移差的事实,图像的预处理环节加入了必要的配准和投影变换操作。因此,整个方法主要包括图像匹配、投影变换、分块GPCA计算和融合等环节。为验证方法的可行性和准确性,文章引入了二维经验模态分解BEMD。结果表明,和BEMD相比,所提方法在图像融合的性能和计算复杂度上都表现出了优势,有一定的实用价值。 相似文献
5.
在注重导频功率配置的基础上,研究了用户业务功率、同步信道功率和寻呼信道功率的配置,建立了小区的用户容量和前反链路差模型。对该模型,利用多目标进化算法对WCDMA功率进行了优化配置,得出了系统较优配置的一系列功率值。根据用户的满意度,建立了确定导频功率和用户业务功率的准则模型,选出了最优功率配置值。 相似文献
6.
针对叶面病害对苹果单产水平的提升产生负面影响的问题,将斑点落叶病、花叶病、褐斑病、灰斑病和锈病等五种作为重点。主要研究内容及结果如下:在苹果叶面存在差异以及图像环境不一的影响下,对病害图像进行去噪操作后,通过对关注主体的图像增强及Ostu法进行彩色图像分割,得到病斑特征与背景灰度的强度比图像。记下分割后的二值化图像的像素灰度值为0的坐标,并使原图在对应位置的像素灰度值为0。通过对卷积神经网络的特征提取,得出颜色、形状、纹理三种病斑特征参数。运用数学方法提取病斑的H方差后,得到H-S直方图为区分病斑的主要参照,采用一定的权重对特征参数建立病叶特征判别函数。根据判别函数对苹果叶片病害进行有效的统计学归类,建立Swin Transformer识别模型,将图像从测试数据集精准分类到特定的叶面病害类型。对卷积神经网络模型进行改进后,训练获得AlexNet-F苹果病害识别模型。采用Python代码运行程序,使用Python语言的Django框架,将苹果叶面病害识别模型及知识图谱作为核心,融合前端、数据库技术来开发系统。结果表明,上述分类操作能够对重点的五种苹果叶面病害图高效识别,满足项目作为识别系... 相似文献
7.
为了从多视角轮廓图像估计出含空间位置信息的三维人体运动形态,该文提出高斯增量降维与流形Boltzmann优化(GIDRMBO)算法.该算法把表示三维人体运动形态的高维数据分成表示空间位置信息和姿态信息两段子向量后,用高斯增量降维模型(GIDRM)分别对其样本进行降维,建立相应的低维空间及映射关系,然后在相应的低维空间使用流形Boltzmann优化算法来对轮廓匹配目标函数进行优化,从而实现估计.其中,所提算法分别利用了两段子向量样本的低维数据作为先验信息,可较好的避免陷入局部最优区域进行搜索,最终生成与各视角原始运动图像匹配且含空间位置信息的三维人体运动形态.经仿真实验验证,所提算法与常用粒子滤波算法相比,其估计误差小,并且还能起到消除轮廓数据歧义和克服短时遮挡的作用. 相似文献
8.
为了准确有效的重构多视角图像中的三维人体姿态,该文提出一种基于多核稀疏编码的人体姿态估计算法.首先,针对连续帧姿态估计的歧义问题,该文设计了一种用于表达多视角图像的HA-SIFT描述子,其中,人体局部拓扑、肢体相对位置及外观信息被同时编码;然后,在多核学习框架下建立同时考虑特征空间内在流形结构与姿态空间几何信息的目标函数,并在希尔伯特空间优化目标函数以更新稀疏编码、过完备字典与多核权值;最后,利用姿态字典原子的线性组合来估计对应未知输入的三维人体姿态.实验结果表明,与核稀疏编码、Laplace稀疏编码及Bayesian稀疏编码相比,文本方法具有更高的估计精度. 相似文献
9.
基于双隐变量空间局部粒子搜索的人体运动形态估计 总被引:1,自引:0,他引:1
该文提出一种双隐变量空间局部粒子搜索(DLVSLPS)算法,可以从多视角图像序列的轮廓特征较准确地估计出3维人体运动形态序列。该算法用高斯过程动态模型(GPDM)降维建立双隐变量空间和低维隐变量数据到高维数据的映射关系后,然后对双隐变量空间使用近邻权重先验条件搜索(NWPCS),实现局部低维粒子搜索来生成较优高维数据,从而估计相应帧的3维人体运动形态,解决传统粒子滤波算法直接在高维数据空间采样较难获取有效正确数据进行估计的问题。经仿真实验验证,所提出的算法比传统粒子滤波算法在实现多视角非连续帧估计,克服轮廓图像数据歧义,减小估计误差有明显优势。 相似文献
10.
1