首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   5篇
  免费   1篇
无线电   1篇
自动化技术   5篇
  2023年   3篇
  2012年   1篇
  2011年   2篇
排序方式: 共有6条查询结果,搜索用时 15 毫秒
1
1.
基于离散元胞蚂蚁算法的几何约束求解技术研究   总被引:3,自引:0,他引:3       下载免费PDF全文
曹春红  王利民  赵大哲 《电子学报》2011,39(5):1127-1130
 一个约束描述了一个应该被满足的关系,一旦用户已经定义了一系列的关系,那么在修改参数之后,系统会自动选择合适的状态来满足约束.在将几何约束问题的约束方程组转化为优化模型的时候,引入一种利用元胞演化规律和蚂蚁寻优特点的离散元胞蚂蚁算法.离散元胞蚂蚁算法是一种新型的仿生算法,它利用元胞在离散元胞空间的演化规律和蚂蚁寻优的特点,为解决实际问题提供了一种优化方法.实验表明,该方法可以比较有效的处理几何约束问题.  相似文献   
2.
基于Prüfer序列的RDF数据索引与查询   总被引:1,自引:0,他引:1  
刘翔宇  吴刚 《计算机学报》2011,34(10):1997-2008
语义Web作为数据之网不断汇集并组织Web信息,相关应用因此面临着对语义Web所含大规模RDF数据高效访问的挑战.建立有效的索引机制是提升RDF数据管理和查询性能的一种解决之道.序列式索引既能够支持存储空间压缩又便于采用成熟的序列匹配技术进行数据处理,具有较好的查询处理性能.文中扩展Prüfer序列以支持RDF数据上的...  相似文献   
3.
谷峪  于戈  吕雁飞  王义 《计算机学报》2012,35(5):937-950
随着无线射频识别等监控技术的发展,事件流上的复杂事件处理技术得到了广泛的关注.现有的事件流处理技术主要提供尽最大努力(Best-Effort)式的服务来减少平均响应时间,这种方式并不能在确定的时间延迟需求下输出更多的结果.针对监控应用中的确定性服务质量需求,讨论了常见的泊松监控流上的截止期敏感的复杂事件处理最优化资源分配问题.从系统服务角度对事件的到达和复杂事件处理进行了理论分析和建模,提出了复合事件的截止期满足率模型和多事件流处理乱序反馈修正模型,进而给出最优化资源分配模型.通过合理的分配处理资源,保证了在实时限制下产生更多的正确结果,兼顾了复杂事件处理的实时性和正确性.实验结果表明,提出的相关的理论估算模型和资源分配方案是正确和有效的,对于进一步完善复杂应用下的固实时限制复杂事件处理框架具有重要的启发意义和实用价值.  相似文献   
4.
随着机器人操作系统(robot operating system, ROS)的日益普及,系统也变得更加复杂,这类系统的计算平台正逐渐转变为多核心平台.在ROS中,任务执行的顺序取决于底层任务调度策略和分配给任务的优先级,而最大限度地缩短所有任务的执行时间是并行系统任务调度的一个重要目标.受强化学习在解决各种组合优化问题的最新研究成果的启发,在考虑ROS2多线程执行器的调度机制和执行约束的前提下,提出了一种基于强化学习的任务优先级分配方法,该方法提取了基于有向无环图形式表示的任务集的时间和结构特征,通过策略梯度和蒙特卡洛树搜索(Monte Carlo tree search, MCTS)方法有效地学习ROS2调度策略并给出合理的优先级设置方案,最终达到最小化并行任务的最大完工时间的目的.通过模拟平台环境下随机生成的任务图以评估所提方法,结果表明所提方法明显优于基准方法.作为一种离线分析方法,所提方法可以很容易地扩展到复杂的ROS中,在可接受的时间内找到接近最优的解决方案.  相似文献   
5.
深度强化学习算法在奖励稀疏的环境下,难以通过与环境的交互学习到最优策略,因此需要构建内在奖励指导策略进行探索更新。然而,这样仍存在一些问题:1)状态分类存在的统计失准问题会造成奖励值大小被误判,使智能体(agent)学习到错误行为;2)由于预测网络识别状态信息的能力较强,内在奖励产生状态的新鲜感下降,影响了最优策略的学习效果;3)由于随机状态转移,教师策略的信息未被有效利用,降低了智能体的环境探索能力。为了解决以上问题,提出一种融合随机生成网络预测误差与哈希离散化统计的奖励构建机制RGNP-HCE(Randomly Generated Network Prediction and Hash Count Exploration),并通过蒸馏(distillation)将多教师策略的知识迁移到学生策略中。RGNP-HCE机制采用好奇心分类思想构建融合奖励:一方面在多回合间以随机生成网络预测差构建全局好奇心奖励;另一方面在单回合内以哈希离散化统计构建局部好奇心奖励,从而保证内在奖励的合理性以及策略梯度更新的正确性。此外,将多个教师策略学习到的知识通过蒸馏迁移到学生策略中,有效提升学生策略的环...  相似文献   
6.
为构建透明可信的推荐机制,相关研究工作主要通过可解释推荐机制为个性化推荐提供合理解释,然而现有可解释推荐机制存在三大局限:1)利用相关关系只能提供合理化解释而非因果解释,而利用路径提供解释存在隐私泄露问题;2)忽略了用户反馈稀疏的问题,解释的保真度难以保证;3)解释粒度较粗,未考虑用户个性化偏好。为解决上述问题,提出基于协同知识图谱(CKG)与反事实推理的可解释推荐机制(ERCKCI)。首先,基于用户自身的行为序列,采用反事实推理思想利用因果关系实现高稀疏度因果去相关,并迭代推导出反事实解释;其次,为提升解释保真度,不仅在单时间片上利用CKG和图神经网络(GNN)的邻域传播机制学习用户和项目表征,还在多时间片上通过自注意力机制捕获用户长短期偏好以增强用户偏好表征;最后,基于反事实集的高阶连通子图捕获用户的多粒度个性化偏好,从而增强反事实解释。为验证ERCKCI机制的有效性,在公开数据集MovieLens(100k)、Book-crossing和MovieLens(1M)上进行了对比实验。所得结果表明,该机制在前两个数据集上相较于RCF(Relational Collaborative ...  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号