全文获取类型
收费全文 | 144篇 |
免费 | 25篇 |
国内免费 | 21篇 |
专业分类
综合类 | 6篇 |
化学工业 | 3篇 |
机械仪表 | 9篇 |
无线电 | 88篇 |
一般工业技术 | 20篇 |
自动化技术 | 64篇 |
出版年
2023年 | 5篇 |
2021年 | 2篇 |
2020年 | 5篇 |
2019年 | 8篇 |
2018年 | 8篇 |
2017年 | 6篇 |
2016年 | 3篇 |
2015年 | 10篇 |
2014年 | 21篇 |
2013年 | 11篇 |
2012年 | 9篇 |
2011年 | 6篇 |
2010年 | 1篇 |
2009年 | 8篇 |
2008年 | 8篇 |
2007年 | 7篇 |
2006年 | 15篇 |
2005年 | 8篇 |
2004年 | 8篇 |
2003年 | 10篇 |
2002年 | 8篇 |
2001年 | 5篇 |
2000年 | 6篇 |
1999年 | 5篇 |
1998年 | 2篇 |
1996年 | 3篇 |
1994年 | 2篇 |
排序方式: 共有190条查询结果,搜索用时 0 毫秒
1.
针对在3D视频(3DV)和自由视点视频(FVV)中传统的 图像质量评价方法不适用于深度图的问题,本文从人类视觉感知特性出发,提出一 种新的深度图 质量评估算法。首先进行交叉验证,得到待评价深度图的差值图;然后提取遮挡掩膜,去除 被遮挡的像素 点;再根据人类视觉特性,考虑背景亮度掩蔽、纹理掩蔽和边缘敏感性等因素,应用恰可察 觉失真(JND)模 型得到每个像素点的误差可视阈值;最后计算错误像素率作为度量指标评价深度图的质量 。实验结果表 明,本文提出的算法能够准确地检测错误像素,所提出的度量指标与全参考度量指标的相关 系数的平均值 为0.833,最高达到0.933,与合成虚拟视点均 方误差的相关系数的平均值为0.857,最高达 到0.928。 相似文献
2.
通过深度相机或者深度估计软件获取的深度视频准确性差,影响深度视频的编码压缩性能。因此,本文提出了一种面向HEVC的深度视频预处理算法。首先提取深度视频的边缘获取边缘掩膜;其次根据边缘掩膜对深度序列分类进行空域平滑;再次将彩色和空域平滑后的深度视频进行时空转换,并以转换后的彩色视频为辅助对转换后的深度视频进行时域平滑,以增强深度视频的时间相关性;最后对时域平滑处理完的深度视频进行逆时空转换,获取最终的预处理深度视频。实验结果表明,提出的处理方法既可以保证虚拟视点质量基本不变,又能够节省7.00%~23.78%的码率。 相似文献
3.
结构相似度的立体视频错误隐藏 总被引:1,自引:0,他引:1
针对立体视频传输中右视点整帧丢失,提出了一种基于结构相似度(Structural Similarity,SSIM)的立体视频右视点整帧丢失错误隐藏算法。首先,提出了时域SSIM和视间SSIM的概念。然后,根据视频序列的时域相关性,将前一时刻右视点图像宏块的预测方式作为丢失图像宏块的预测方式。接着,将前一时刻右视点图像以宏块为单位进行时域和视间匹配,求取其以像素为单位的时域SSIM映射图和视间SSIM映射图。最后,计算并比较前一时刻右视点图像每个宏块的时域SSIM和视间SSIM值,得到每个宏块的预测方式,将其预测方式作为丢失帧中宏块的预测方式,从而使用运动补偿预测或者视差补偿预测的方法进行恢复。实验结果表明,与传统的算法和Pang的算法相比,PSNR值分别提高了2.76 dB和3.43 dB,且本文算法主观效果较好。 相似文献
4.
5.
6.
天线与太赫兹检测器的匹配网络是集成天线与太赫兹检测器的核心。针对低阻抗太赫兹检测器,在650 GHz设计了输入阻抗为7 Ω的平面U型天线和接有λg/4匹配器的蝶形天线,以及输入阻抗为50 Ω的平面对数天线和平面对数正弦天线。检测器的直流偏置电路会使天线上的高频能量通过该偏置回路漏出,故在偏置线上应用带隙结构形成低通滤波器。仿真了该滤波器的相关参数及接入位置,使得高频下天线不受超导检测器偏置回路的影响。 相似文献
7.
超分辨率重建在视频的传输和显示中起着重要的 作用。为了既保证重建视频的清晰度,又面向用户 实时显示,提出了一种采用精简卷积神经网络的快速视频超分辨率重建方法。所提的精简卷 积神经网络体 现在以下三点:首先,考虑到输入的尺寸大小会直接影响网络的运算速度,所提网络省去传 统方法的预插 值过程,直接对多个低分辨率输入视频帧提取特征,并进行多维特征通道融合。接着,为了 避免网络中产 生零梯度而丢失视频的重要信息,采用参数线性纠正单元(Parametric Rectified Linear Unit,PReLU)作为激 活函数,并采用尺寸更小的滤波器调整网络结构以进行多层映射。最后,在网络末端添加反 卷积层上采样 得到重建视频。实验结果显示,所提方法相比有代表性的方法在PSNR和SSIM指 标上分别平均 提升了0.32dB和0.016,同时在 GPU下达到平均41帧/秒的重建速度。结果表明所提方法可快速重建质 量更优的视频。 相似文献
8.
先进的立体视频技术能给观众带来深度感和沉浸感,但也容易使人产生视觉疲劳,造成观看体验质量的下降,因此,如何对立体视频/图像的视觉舒适度进行有效评价是目前的研究难点。该文提出一种基于视觉重要区域的立体图像视觉舒适度客观评价模型,该模型主要包括3个部分:(1)利用图像显著图和视差图像得到立体图像视觉重要区域;(2)提取视觉重要区域的视差幅度特征、视差梯度边缘特征以及空间频率特征,作为反映立体图像视觉舒适度的感知特征信息;(3)通过支持向量回归建立特征信息与立体图像舒适度平均主观评分值的关系,预测得到立体图像视觉舒适度的客观评价值。实验结果表明,与现有的方法相比较,在相同的立体图像测试库上,采用该文提出的客观评价模型可以获得更好的评价性能。 相似文献
9.
基于中心凹恰可觉察失真模型的多视点深度视频编码方法 总被引:4,自引:4,他引:0
针对深度视频压缩中存在的大量视觉冗余,提出了一种基于中心凹恰可觉察失真(FJND)模型的深度视频编码方法。首先通过左右通道的彩色和深度视频绘制虚拟视点图像,并利用FJND模型得到虚拟视点图像的FJND,然后根据深度视频中几何偏移和深度值失真之间的关系确定深度视频左通道的可允许失真,将深度视频左通道分区域采用自适应量化参数进行编码,并对右通道的深度视频根据与左通道量化参数的关系进行编码。实验结果表明,本文方法在相同码率下,虚拟视点图像质量平均提高0.48dB;在相同虚拟视点图像的绘制质量下,深度视频编码码率平均减少26%。 相似文献
10.
一种基于最小可察觉失真的立体图像质量客观评价方法 总被引:11,自引:11,他引:0
立体图像质量是评价立体视频系统性能的有效途径,而如何利用人类视觉特性对立体图像质量进行有效的评价是目前的研究难点。本文通过分析最小可察觉失真(JND,just noticeable distortion)视觉感知模型,并结合反映图像结构信息的奇异值矢量,提出了一种基于JND的立体图像质量客观评价方法。评价方法由图像质量评价和深度感知评价两部分组成,首先提取反映图像质量和深度感知的特征信息作为立体图像特征信息,然后根据立体图像的不同失真类型情况对其特征进行融合,通过支持向量回归(SVR,support vector Regression)预测得出立体图像质量的客观评价值。实验结果表明,采用本文提出的客观评价方法对立体数据测试库进行评价,在不同失真类型或混合失真评价结果中,Pearson线性相关系数(CC)值均在0.94以上,Spearman等级相关系数(SROCC)值均在0.92以上,符合人眼视觉特性,能够很好地预测人眼对立体图像的主观感知。 相似文献