首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   154篇
  免费   26篇
  国内免费   21篇
电工技术   3篇
综合类   22篇
机械仪表   4篇
矿业工程   3篇
轻工业   2篇
石油天然气   1篇
无线电   56篇
一般工业技术   4篇
自动化技术   106篇
  2023年   4篇
  2022年   3篇
  2021年   7篇
  2020年   2篇
  2018年   2篇
  2017年   3篇
  2016年   4篇
  2015年   6篇
  2014年   4篇
  2013年   8篇
  2012年   7篇
  2011年   14篇
  2010年   12篇
  2009年   11篇
  2008年   15篇
  2007年   17篇
  2006年   9篇
  2005年   17篇
  2004年   13篇
  2003年   8篇
  2002年   6篇
  2001年   9篇
  2000年   4篇
  1999年   1篇
  1998年   2篇
  1997年   2篇
  1996年   1篇
  1995年   2篇
  1994年   2篇
  1993年   1篇
  1992年   2篇
  1991年   1篇
  1990年   2篇
排序方式: 共有201条查询结果,搜索用时 15 毫秒
1.
一、问题的提出微机关系数据库系统dBASE或FoxBASE+适合于对数值型、字符型等定长数据的处理,数据库结构一经建立,其字段宽度也就固定了。在设计数据库时,为了减少数据冗余,而又不使数据溢出,就要把字段宽度定义得不大不小,恰到好处。这种方法适用于数据宽度变化不大、稳定的场合。但是在很多情况下加试题库、科技文摘、人事档案中的个人简历等等,其信息长度变化很大。这样的问题在实际工作中大量存在。如果利用dBASE或FOXBASE十备注型字段(MENO陈处理,每个备注数据都存放在以52字节为块的文件中,磁盘空间仍不适合处理…  相似文献   
2.
目的 视觉检索需要准确、高效地从大型图像或者视频数据集中检索出最相关的视觉内容,但是由于数据集中图像数据量大、特征维度高的特点,现有方法很难同时保证快速的检索速度和较好的检索效果。方法 对于面向图像视频数据的高维数据视觉检索任务,提出加权语义局部敏感哈希算法(weighted semantic locality-sensitive hashing, WSLSH)。该算法利用两层视觉词典对参考特征空间进行二次空间划分,在每个子空间里使用加权语义局部敏感哈希对特征进行精确索引。其次,设计动态变长哈希码,在保证检索性能的基础上减少哈希表数量。此外,针对局部敏感哈希(locality sensitive hashing, LSH)的随机不稳定性,在LSH函数中加入反映参考特征空间语义的统计性数据,设计了一个简单投影语义哈希函数以确保算法检索性能的稳定性。结果 在Holidays、Oxford5k和DataSetB数据集上的实验表明,WSLSH在DataSetB上取得最短平均检索时间0.034 25 s;在编码长度为64位的情况下,WSLSH算法在3个数据集上的平均精确度均值(mean average precision,mAP)分别提高了1.2%32.6%、1.7%19.1%和2.6%28.6%,与几种较新的无监督哈希方法相比有一定的优势。结论 通过进行二次空间划分、对参考特征的哈希索引次数进行加权、动态使用变长哈希码以及提出简单投影语义哈希函数来对LSH算法进行改进。由此提出的加权语义局部敏感哈希(WSLSH)算法相比现有工作有更快的检索速度,同时,在长编码的情况下,取得了更为优异的性能。  相似文献   
3.
为提高集成电路测试效率,提出一种结合三态信号的改进游程编码压缩方法。先对原始测试集进行部分输入精简处理并填充测试集的无关位,再对经过预处理的测试集根据游程长度进行变长分段处理找出最优段长。按照游程长度的出现频率对最优段长下的参考位设置编码表进行编码压缩,使用三态信号编码标志位并将编码压缩后的测试集存入自动测试设备(ATE),最终通过设计解压电路对ATE中存储的压缩数据进行无损解压。实验结果表明,在硬件开销未明显增加的情况下,该方法的测试数据平均压缩率达到74.39%,优于同类压缩方法。  相似文献   
4.
基于对象的 OpenXML 复合文件去重方法研究   总被引:3,自引:0,他引:3  
现有的重复数据删除技术大部分是基于变长分块(content defined chunking ,CDC)算法的,不考虑不同文件类型的内容特征。这种方法以一种随机的方式确定分块边界并应用于所有文件类型,已经证明其非常适合于文本和简单内容,而不适合非结构化数据构成的复合文件。分析了 OpenXML 标准的复合文件属性,给出了对象提取的基本方法,并提出基于对象分布和对象结构的去重粒度确定算法。目的是对于非结构化数据构成的复合文件,有效地检测不同文件中和同一文件不同位置的相同对象,在文件物理布局改变时也能够有效去重。通过对典型的非结构化数据集合的模拟实验表明,在综合情况下,对象重复数据删除比 CDC 方法提高了10%左右的非结构化数据的去重率。  相似文献   
5.
为了实现银行实时业务数据加密提出的速度、安全性以及自动化管理的加密要求,本文提出以密钥和实时明文互结合的方式对明文进行多级变长异或加密,实现数据的实时加解密、数据完整性验证以及密钥的自动化管理。  相似文献   
6.
混合定变长码的测试数据压缩方案   总被引:6,自引:0,他引:6  
文章提出了一种混合定变长码的测试数据压缩方案,该方案可以有效压缩芯片测试数据量.此压缩方案将代码字拆分为固定长度的首部和可变长度的尾部两部分.首部固定使解压过程简单,硬件开销小,尾部可变使编码灵活.同时采用了将尾部最高位隐藏的方法来进一步提高压缩率,还使用了特殊的计数器来进一步简单化解压电路.对ISCAS 89部分标准电路的实验结果显示,文中提出的方案在压缩效率和解压结构方面都明显优于同类压缩方法,如Golomb码、FDR码、VIHC码、v9C码等.  相似文献   
7.
王保青  梁华国  詹文法 《计算机应用》2008,28(10):2701-2703
为了减少SoC芯片的测试数据,提出了一种基于组扩展编码的测试数据压缩方案。该方案采用变长到变长的编码方式对任意长度的0游程和1游程编码,代码字由标记位、前缀和尾部组成。组扩展码将每组的容量扩大了一倍,能有效压缩芯片测试数据量。理论分析和实验结果表明组扩展编码能取得很好的压缩效果,而且能够更好地适应于不同的测试电路。  相似文献   
8.
设计了一种H.264标准的CAVLC编码器,对原有软件流程进行部分改进,提出了并行处理各编码子模块的算法结构。重点对非零系数级(level)编码模块进行优化,采用并行处理和流水线相结合的结构,减少了cavlc编码的时钟周期,提供了稳定吞吐量。采用Xilinx公司VirtexⅡ系列的xc2v250 FPGA进行实现验证,最高时钟频率可达158.1 MHz,可满足实时编码H.264高清视频要求。  相似文献   
9.
云计算的资源调度一直以来都是研究的重点,引入布谷鸟算法来解决资源分配问题,首先描述云计算资源模型,其次针对该算法存在局部收敛速度快,容易造成局部最优值的问题,采用三个方面来改进,其一采用变长因子进行调整,减小探索求解质量之间的差别;其二使用差分变异策略更新鸟窝位置;其三使用基于Coelho的混沌全局搜素和局部搜索避免了Levy的随意扰动.通过测试函数说明表明本文算法的性能优于基本布谷鸟算法, Cloudsim仿真平台说明本文的算法在消耗时间,成本和用户满意度方面具有明显的优势.  相似文献   
10.
提高堆数据局部性的动态池分配技术   总被引:1,自引:0,他引:1  
动态内存分配在现代程序中被广泛使用.通用的内存分配器通常关注于降低运行时开销和内存利用率,而在发掘所分配对象之间的特性方面有所欠缺.文中展示了一个低开销的动态优化技术"动态池分配".它在运行时构造存储形状图,从中发掘动态分配对象之间的亲缘性,把具有亲缘性的对象聚集到一段内存区域(称为内存池)里,改善了它们的数据布局.作...  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号