首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
基于改进SEM算法的基因调控网络构建方法*   总被引:1,自引:0,他引:1  
动态贝叶斯网络(DBN)是基因调控网络的一种有力建模工具。贝叶斯结构期望最大算法(SEM)能较好地处理构建基因调控网络中数据缺失的情况,但SEM算法学习的结果对初始参数设置依赖性强。针对此问题,提出一种改进的SEM算法,通过随机生成一些候选初始值,在经过一次迭代后得到的参数中选择一个最好的初始值作为模型的初始参数值,然后执行基本的SEM算法。利用啤酒酵母细胞周期微阵列表达数据,构建其基因调控网络并与现有文献比较,结果显示该算法进一步提高了调控网络构建的精度。  相似文献   

2.
为了进一步提高基因调控网络构建的精确度,提出一种基于多数据源融合的时延基因调控网络构建算法.该算法基于递归模糊神经网络模型,使用时序互信息估计基因间的转录时延,并限制每个基因的潜在调控基因,从而有效提高建网的效率.在网络结构学习阶段,使用离散多目标粒子群优化(discrete multi-objective particle swarm optimization,dMOPSO)算法实现从时序基因表达数据和CHIP-chip数据共同构建基因调控网络.人工模拟数据和酵母菌细胞周期表达数据的实验结果表明该算法能正确选出潜在的调控基因,从而更加精确地构建基因调控网络.  相似文献   

3.
随着大通量基因芯片数据的产生,基因调控机制的网络化研究需求日趋迫切。提出了基于复杂网络理论的基因调控网络的模拟方法,构建了基因调控网络模拟器GN-Simulator。通过分析真实基因调控网络的拓扑特性,提出了对应的矩阵模型,并充分考虑了网络的生物学鲁棒性和动力学稳定性,给出了人工基因网络的生成过程和计算模拟方法。计算实验表明,GN-Simulator能高效地模拟出与真实基因调控网络高度相似的大规模人工网络,并可为不同算法提供无偏验证的多样化人工模拟数据。  相似文献   

4.
在分析基因调控网络现状及优缺点的基础上,提出利用人工鱼群算法对阈值布尔网络模型构建下的基因调控网络进行研究。将阈值布尔网络模型应用于花发育形态模型,构建基于预定义吸引子和极限环的综合网络。比较人工鱼群算法与模拟退火算法在基因调控网络中的应用情况,分析网络节点更新机制变化时布尔网络保留吸引子的能力,发现在极限环长度为2和特定网络拓扑下网络才具有鲁棒性。实验结果表明,与模拟退火算法相比,人工鱼群算法在网络发现、鲁棒性方面具有更好的性能,因此利用人工鱼群算法学习布尔网络结构是有效可行的。  相似文献   

5.
石威  方滨兴  胡铭曾 《软件学报》1999,10(9):985-988
大规模并行计算是当前该领域研究的一大热点.由于大多数应用问题是数据并行问题,所以人们更多地采用数据并行计算方法来解决实际问题.在数据并行计算中,影响计算速度的一个重要因素是数据的划分状况.该文针对一种较为流行的面向对象数据并行语言——pC++的数据划分算法进行了分析,并指出了其不足之处,同时提出了一种改进的数据划分算法.实验表明,此算法与原有算法相比具有明显的优越性.  相似文献   

6.
对基因表达谱分块,使之符合GPU并行计算的线程结构特性,根据GPU线程结构特性设计双层并行模式,并利用纹理缓存实现访存高效;依据CPU二级缓存容量对基本块进一步细分成子块以提高缓存命中率,利用数据预取技术减少访存次数,利用线程绑定技术减少线程在核心之间的迁移;依据多核CPU和GPU的计算能力分配CPU和GPU的基因互信息计算任务以平衡CPU与GPU的计算负载;在设计新的阈值计算算法基础上,设计实现了访存高效的构建全局基因调控网络CPU/GPU并行算法.实验结果表明,与已有算法相比,本文算法加速更明显,并且能够构建更大规模的全局基因调控网络.  相似文献   

7.
网络演算作为一种确定性的排队理论,已经在网络性能分析领域取得了巨大的成功.作为网络性能分析自动化的重要基础,网络演算工具箱的性能和速度直接决定了网络演算理论能否应用于大规模网络的性能分析.尽管目前已经有一些面向分段线性伪周期函数的网络演算工具箱,但是这些工具箱在处理阶梯函数形式的到达曲线和服务曲线模型时效率较低.通过对网络演算数据计算算法的分析,该算法具有较高的并行性.提出一种网络演算数值计算库的并行计算方法,通过充分发掘算法的并行性以大幅度提高网络演算工具箱的并行计算效率,使得网络演算理论可以应用于大规模计算机网络的性能分析.  相似文献   

8.
针对基于多计算机机群构成的网格的大规模并行计算的需要,对多级分组通信模型的单一机群分组通信进行了研究。探讨了在单一机群内的主动节点、被动节点个数和各个计算节点的能力以及机群网络的带宽之间的形式化关系,优化了通信结构,描述了基于能力优化机制的通信模型。理论和试验表明,该模型充分利用了机群的计算节点能力、网络通信能力。该模型适合基于网格的并行计算。  相似文献   

9.
《计算机工程》2017,(10):160-166
为提高推荐算法性能,解决数据稀疏和冷启动因素造成的推荐精度不高的问题,提出一种改进的协同过滤推荐算法。基于三元组表示形式,利用标签集、用户集和项目资源集构建标签、用户以及项目之间的动态联系,并进行信任值评分矩阵的计算,使用信任评分矩阵融合协同推荐过程,构建概率矩阵分解模型,并基于期望最大法进行模型的求解。实验结果表明,与采用基于余弦、皮尔逊相关系数和启发式相似度模型的算法相比,该算法具有较低的绝对误差均值以及较高的覆盖率、精度与召回率。  相似文献   

10.
蒋炜  彭新一  周育人 《计算机工程》2009,35(20):181-183
提出一种基于改进粒子群优化算法的基因调控网络重构方法。该方法利用粒子群优化算法确定加权矩阵模型的最优结构及参数,从而推测出与实验数据相吻合的加权矩阵,实现利用重构的加权矩阵模型模拟基因调控网络的相互作用。实验结果表明,该方法能有效推理出复杂的基因调控网络结构。  相似文献   

11.
Parallel multi-swarm optimizer for gene selection in DNA microarrays   总被引:2,自引:2,他引:0  
The execution of many computational steps per time unit typical of parallel computers offers an important benefit in reducing the computing time in real world applications. In this work, a parallel Particle Swarm Optimization (PSO) is used for gene selection of high dimensional Microarray datasets. The proposed algorithm, called PMSO, consists of running a set of independent PSOs following an island model, where a migration policy exchanges solutions with a certain frequency. A feature selection mechanism is embedded in each subalgorithm for finding small samples of informative genes amongst thousands of them. PMSO has been experimentally assessed with different population structures on four well-known cancer datasets. The contributions are twofold: our parallel approach is able to improve sequential algorithms in terms of computational time/effort (Efficiency of 85%), as well as in terms of accuracy rate, identifying specific genes that our work suggests as significant ones for an accurate classification. Additional comparisons with several recent state the of art methods also show competitive results with improvements of over 100% in the classification rate and very few genes per subset.  相似文献   

12.
基于粒计算的K-medoids聚类算法   总被引:1,自引:0,他引:1  
马箐  谢娟英 《计算机应用》2012,32(7):1973-1977
传统K-medoids聚类算法的聚类结果随初始中心点不同而波动,且计算复杂度较高不适于处理大规模数据集;快速K-medoids聚类算法通过选择合适的初始聚类中心改进了传统K-medoids聚类算法,但是快速K-medoids聚类算法的初始聚类中心有可能位于同一类簇。为克服传统K-medoids聚类算法和快速K-medoids聚类算法的缺陷,提出一种基于粒计算的K-medoids聚类算法。算法引入粒度概念,定义新的样本相似度函数,基于等价关系产生粒子,根据粒子包含样本多少定义粒子密度,选择密度较大的前K个粒子的中心样本点作为K-medoids聚类算法的初始聚类中心,实现K-medoids聚类。UCI机器学习数据库数据集以及随机生成的人工模拟数据集实验测试,证明了基于粒计算的K-medoids聚类算法能得到更好的初始聚类中心,聚类准确率和聚类误差平方和优于传统K-medoids和快速K-medoids聚类算法,具有更稳定的聚类结果,且适用于大规模数据集。  相似文献   

13.
分析了传统分布式并行计算和网格基础上并行计算技术应用中存在的问题,将Log P并行计算模型拓展到网格上,给出双层Log P模型和设计策略,针对网格特点对CG并行算法进行了改进,取得了很好的效果.  相似文献   

14.
黄明吉  张倩 《计算机科学》2017,44(Z11):524-529
随着云应用对运行时间和性能水平要求的逐步提高,以及内存价格的持续走低,基于内存的分布式计算框架Spark获得了前所未有的关注。主要研究DBSCAN算法在Spark上并行化的设计与实现,通过整体分析找到算法并行化可能的性能瓶颈,并从Spark的角度设计了并行DBSCAN算法的DAG图,优化了算法的并行化策略,最大化地降低了shuffle频率和数据量。最后将并行DBSCAN算法与单机DBSCAN算法进行性能对比,并通过实验分析不同参数对聚类结果的影响。结果表明,与单机DBSCAN算法相比,基于Spark的并行DBSCAN算法在聚类精度没有明显损失的情况下,数据量在3百万行时运行效率提高了37.2%,且加速比达到1.6。  相似文献   

15.
根据MapReduce模型并行运行实现的特点,针对可扩展性差的传统Apriori的特点和传统Apriori算法,采用了"云"强大的廉价计算处理方式和关联规则挖掘算法,改进提高Apriori算法的运算效率。通过改进在云计算环境下MapReduce编程框架,并且结合验证MR-Apriori算法的实验为基础,这对传统意义上的Apriori算法在数据挖掘过程中所出现的客观问题进行处理,从而真正意义上的完成了本文研究的基于MapReduce并行的Apriori算法的扩展性提升的目标,并且表明了元计算技术结合关联规则挖掘算法的可能性。  相似文献   

16.
传统的遗传算法在数据量不足的单机情况下可能存在早熟的现象,遗传算法对搜索范围的依赖性很强,大搜索范围的遗传算法往往有更好的表现。为解决以上问题,可把Spark海量存储和并行计算的能力运用到遗传算法的求解上,实现一种粗粒度的并行遗传算法。利用Spark并行执行遗传算法的选择、交叉和变异等操作,可以大大提高遗传算法的搜索范围和执行速度。实验将改进后的遗传算法应用到物流配送问题中,结果表明,与单机和传统的并行模型相比,基于Spark的遗传算法在运行时间上明显减少,同时早熟的现象也得到了缓解。  相似文献   

17.
为了有效处理迅速增长的海量信息数据安全问题,在Hadoop云计算平台上,应用朴素贝叶斯算法和Logistic回归算法对入侵检测大数据进行并行计算分析。实验在伪分布模式和分布模式下进行计算,结果表明2种算法分类准确率均超过90%,Logistic回归算法比朴素贝叶斯算法运行时间更长;集群环境下运行的朴素贝叶斯算法可以有效降低运行时间。综合算法运行时间和分类准确率等因素,朴素贝叶斯算法比Logistic回归算法更能有效处理入侵检测大数据;并行计算下朴素贝叶斯算法可以有效分析入侵检测大数据。  相似文献   

18.
在应届高中生生源不断下降、高等院校招生规模不断扩大、招生方式多元化不断发展、各院校之间招生竞争日趋激烈的条件下,利用海量招生异构数据,准确定位生源对象,做好前期招生宣传是各高等院校需要考虑的重要问题。结合云计算技术,利用并行化计算模型MapReduce和内存并行化计算框架Spark对高校招生历史数据进行分析,提出采用并行化随机森林预测高校招生策略模型,缩短了模型的预测时间、提高了模型的预测精度、增强了模型对大数据的处理能力。实验结果表明,并行化随机森林算法在不同数据集上的多方面性能均优于常用的决策树预测方法。  相似文献   

19.
王建仁  马鑫  段刚龙  薛宏全 《计算机应用》2019,39(12):3548-3555
随着边缘智能的快速发展,现有手写数字识别卷积网络模型的发展已越来越不适应边缘部署、算力下降的要求,且存在小样本泛化能力较差和网络训练成本较高等问题。借鉴卷积神经网络(CNN)经典结构、Leaky_ReLU算法、dropout算法和遗传算法及自适应和混合池化思想构建了基于LeNet-DL改进网络的手写数字识别模型,分别在大样本数据集MNIST和小样本真实数据集REAL上与LeNet、LeNet+sigmoid、AlexNet等算法进行对比实验。改进网络的大样本识别精度可达99.34%,性能提升约0.83%;小样本识别精度可达78.89%,性能提升约8.34%。实验结果表明,LeNet-DL网络相较于传统CNN在大样本和小样本数据集上的训练成本更低、性能更优且模型泛化能力更强。  相似文献   

20.
传统的并行属性约简算法通过利用抽样技术获取小数据样本进行知识约简,但对于大数据集来说,样本数据不具有一般性且无法代表整个数据集.为了弥补传统并行属性约简算法只能用来计算最小属性约简、处理小数据集的缺陷,论文通过分析了先验知识在粒计算中的重要性,结合云计算技术处理海量数据的优势,以粗糙集理论为背景,从不同角度、层次出发建立层次粗糙集模型,提出基于云计算的层次粗糙集模型约简算法,讨论并实现了知识约简算法中的可并行化操作,利用Hadoop在普通计算机集群上进行试验,从运行时间、加速比、可扩展性三个方面对所提出基于正区域、信息熵、边界域算法的重要性进行评价.实验证明:基于云计算的层次粗糙集模型约简算法可以有效处理大数据集.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号