共查询到5条相似文献,搜索用时 0 毫秒
1.
用二维视觉搜索实验中的成功扫视幅度中值来量度视力角.通过对成功扫视幅度的计算和分析,研究了视力角与搜索场景对比度,及干扰物体密度的关系,并揭示了扫视眼动是由全局搜索策略和瞬间周边视觉信息的引导所共同控制.最后用正态分布模型来模拟视力角,通过选择适当参数,所给出的函数式能较好地拟合实验数据,并能反映出场景对比度和干扰物密度之间的互补关系. 相似文献
2.
针对分形图像压缩算法编码时间过长的问题,提出采用相关信息特征作为最近邻搜索特征的快速分形编码算法.通过深入分析图像子块的结构特性,提出相关信息特征的定义,证明并分析了采用该特征进行最近邻搜索操作的合理性.与传统特征相比,相关信息特征能够更好地反映子块的结构特性,所以基于相关信息特征的最近邻搜索能够更准确地确定后续局部匹配的范围.实验表明,在编码时间相同的情况下,本文算法较其他三种同类算法能够得到更好的解码图像质量. 相似文献
3.
提出基于多特征融合的异质信息搜索推荐算法。利用知识图谱技术提取异质信息特征,选取多视图机模型;利用协同注意力机制学习融合多特征异质信息的局部信息,通过softmax函数归一化处理融合得到信息的重要性向量;利用全部局部信息整合最终节点,获取分值函数;利用用户与商品间相应元路径交互获取多标签分类的全局信息推荐优化目标函数,结合分值函数与全局信息推荐优化目标函数实现异质信息的搜索推荐。算法测试结果表明,采用该算法可有效为用户推荐所需信息,推荐复杂度较低,搜索推荐异质信息的归一化折扣累计增益均高于0.35,具有较强的推荐性能,可应用于解决实际的信息过载问题。 相似文献
4.
3D多模态数据稀缺,使得传统方法进行监督训练时文本与视觉特征缺乏语义一致性。同时传统方法还易忽视局部关系与全局信息,从而导致性能不佳。针对上述问题,提出了一种基于语义一致性约束与局部-全局感知的多模态3D视觉定位方法。首先,该方法通过蒸馏2D预训练视觉语言模型知识,帮助3D模型提取到点云-文本语义一致性特征;其次设计了局部-全局感知模块,不断补充增强候选目标特征,以更精确匹配目标。在现有的3D视觉定位数据集ScanRefer上进行的实验表明,该方法在Acc@0.25 IoU和Acc@0.5 IoU两个指标上分别达到了50.53%和37.67%,超越了现有大多数3D视觉定位算法,证实了该方法的有效性。 相似文献
5.
针对现有底层特征识别扣件状态的算法存在描述能力差、错误率高等问题,提出一种基于扣件局部特征和语义信息的扣件检测模型。首先,在图像的非线性空间中计算扣件底层局部特征来表达扣件轮廓信息。然后,将图像分为4个子图,有效克服了由于扣件左右对称、上下相似造成的单词多义性问题。再根据扣件子图构造视觉单词,由底层特征整合得到语义信息向量。最后,以该向量训练分类器,判断待检扣件状态。对均衡的扣件样本进行测试,漏检率仅为0.67%。实验表明所提算法较现有方法,漏检率和误报率明显降低,检测能力增强。 相似文献