首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   33篇
  免费   12篇
  国内免费   12篇
电工技术   1篇
综合类   6篇
轻工业   4篇
无线电   2篇
一般工业技术   2篇
自动化技术   42篇
  2024年   1篇
  2023年   2篇
  2022年   3篇
  2021年   6篇
  2019年   3篇
  2018年   1篇
  2017年   1篇
  2016年   8篇
  2015年   8篇
  2014年   5篇
  2013年   1篇
  2012年   2篇
  2011年   6篇
  2010年   8篇
  2009年   1篇
  2005年   1篇
排序方式: 共有57条查询结果,搜索用时 0 毫秒
51.
高斯势概率假设密度滤波算法在低检测率条件下目标数目估计会出现偏差。针对该问题,提出了一种基于航迹—估计关联的GM-CPHD后处理算法。计算航迹和估计之间的距离矩阵,利用匈牙利指派算法进行航迹—估计关联。通过设定航迹的连续性阈值对短航迹进行裁剪,并以此消除虚假目标估计。利用拉格朗日插值对各条不连续的航迹进行插值,以弥补由于低检测率而造成的遗漏估计。仿真实验结果表明,该处理算法能够有效地提高目标数目的估计精度。  相似文献   
52.
针对滞后无序量测((OOSM)的单步滞后滤波问题,在现有算法的基础上,推导非线性单步滞后无序量测更新方程.提出用UT变换来计算其中涉及到的状态向量以及相关量测之间的协方差,从而有效解决了状态转移方程为线性而量测方程为非线性的非线性Gauss系统的单步滞后OOSM问题.然后,针对多传感器单步滞后OOSM情况,给出了基于U...  相似文献   
53.
白晓红  温静  赵雪  陈金广 《计算机应用》2016,36(11):2974-2978
针对照明变化、形状变化、外观变化和遮挡对目标跟踪的影响,提出一种基于加速鲁棒特征(SURF)和多示例学习(MIL)的目标跟踪算法。首先,提取目标及其周围图像的SURF特征;然后,将SURF描述子引入到MIL中作为正负包中的示例;其次,将提取到的所有SURF特征采用聚类算法实现聚类,建立视觉词汇表;再次,通过计算视觉字在多示例包的重要程度,建立“词-文档”矩阵,并且求出包的潜在语义特征通过潜在语义分析(LSA);最后,通过包的潜在语义特征训练支持向量机(SVM),使得MIL问题可以依照有监督学习问题进行解决,进而判断是否为感兴趣目标,最终实现视觉跟踪的目的。通过实验,明确了所提算法对于目标的尺度缩放以及短时局部遮挡的情况都有一定的鲁棒性。  相似文献   
54.
55.
量子隐形传态大多都使用最大化纠缠态作为量子信道,但最大化纠缠资源只存在于理想情况下。研究了非最大化纠缠信道的量子隐形传态,基于非最大化纠缠GHZ态提出了一个新型的概率控制隐形传态方案。通过引入多参数通用测量,可以根据量子信道参数调整测量基参数,进而实现最佳的成功概率。加入了量子控制者,使方案具有更高的灵活性。该方案可以被扩展到接收者没有足够量子能力的半量子通信情况,进一步扩大了概率隐形传态的应用范围。  相似文献   
56.
陈金广  李雪  邵景峰  马丽丽 《纺织学报》2022,43(10):155-160
为进一步降低基于深度学习的服装目标检测模型对计算资源的占用,提出一种改进的轻量级服装目标检测方法MV3L-YOLOv5。首先使用移动网络MobileNetV3_Large构造YOLOv5的主干网络;然后在训练阶段使用标签平滑策略,以增强模型泛化能力;最后使用数据增强技术弥补DeepFashion2数据集中不同服装类别图像数量不均衡问题。实验结果表明:MV3L-YOLOv5的模型体积为10.27 MB,浮点型计算量为10.2×109次,平均精度均值为76.6%。与YOLOv5系列最轻量的YOLOv5s网络相比,模型体积压缩了26.4%,浮点型计算量减少了39%,同时平均精度均值提高了1.3%。改进后的算法在服装图像的目标检测方面效果有所提升,且模型更加轻量,适合部署在资源有限的设备中。  相似文献   
57.
由于辐照企业各系统间数据孤岛问题严重且大量分散存储的数据尚未得到充分挖掘和利用,无法高效地完成全局分析和订单分配等工作.针对这一问题,采用基于Hadoop框架的分布式存储和数据仓库建模等技术,构建辐照企业多维信息化平台.在此平台基础上,提出一种基于匈牙利算法的订单任务分配策略,该策略以距离为约束条件完成最优订单任务分配...  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号