首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
分析了传统分布式并行计算和网格基础上并行计算技术应用中存在的问题。讨论了如何决定合适的任务粒度,提出任务粒度控制理论,描述了任务划分与粒度控制、节点的分布、任务粒度控制,任务的划分,并进行结果分析。  相似文献   

2.
程序并行化为了达到缩短程序运行时间的目的 ,需要关注两方面的问题 :1,任务之间并行性的挖掘 ;2 ,粒度控制 ;如何协调这两方面的关系以及如何自动的完成这个任务是现在工作的重点 .本文详细讨论了如何在 CDDG图上决定合适的任务粒度 ,提出基于关键路径的任务粒度控制理论 ;并描述了在 JAPS中实现的自动任务划分与粒度控制算法 .涉及的主要问题包括结点的分布 ,任务的粒度控制 ,任务的划分 ,并对它的实践结果进行分析  相似文献   

3.
谢广军  刘军  刘璟 《计算机科学》2006,33(3):267-270
在不同的任务粒度下,RAID5结构的 IP-SWAN 系统的请求数据流动有很大的不同。在详细分析了校验式IP-SWAN 系统在读任务、大数据写任务和小数据写任务下的数据流程的基础上,建立了 IP-SWAN 系统的闭合排队网络模型,研究了在不同任务类型和粒度下系统各个部件服务需求的计算方法,并采用 MVA 分析法在理论上对 IP-SWAN 系统的吞吐量进行了计算。实验测试结果表明,理论模型的数值计算结果与实验结果基本一致,能够反映实际系统性能的变化趋势。  相似文献   

4.
作为度量粒化程度的方式,在粒计算研究领域中,粒度受到了众多学者的广泛关注,其中一种重要且广为接受的模式是参数化粒度.利用这种参数化的粒度表现形式,在面向属性约简的求解问题时,往往需要计算每一个参数所对应的粒度下约简,直至找出所有参数下的约简结果.显然,这种方式会带来巨大的时间消耗.为解决这一问题,提出了一种连续参数意义下的多粒度属性约简策略:首先利用连续参数的区间及粗糙集中不确定性度量的单调性,构造了连续参数下属性约简的约束条件;其次设计了连续参数意义下约简求解的前向贪心搜索算法;最后选取了8组UCI数据集进行实验对比分析,结果表明,相较于多个离散参数下的单粒度属性约简,连续参数意义下的属性约简可以在使得约简中属性的分类性能不发生显著变化的情况下,极大地提升约简求解的时间性能.这一研究为从连续视角进行多粒度建模及相关属性选择工作提供了新的解决方案.  相似文献   

5.
采用光散射法和光纤型准光弹性散射颗粒粒度测试仪测量直流MIG焊烟尘粒度,探索了直流MIG焊烟尘的粒度分布规律,分析了焊接参数与熔滴过渡形式对烟尘粒度的影响。研究结果表明,直流MIG焊烟尘粒度遵循一定的分布规律,焊接工艺参数与熔滴过渡形式对焊接烟尘粒度大小有一定的影响。  相似文献   

6.
任务粒度是决定任务并行程序性能的关键因素,鉴于不同应用其最优的任务粒度可能不同,提出一种异构多核Cell处理器上支持OpenMP3.0的自适应任务粒度策略.该策略首先广度生成任务,直到所有的线程达到饱和,之后若某个线程执行完自身任务而处于空闲状态时,通过回溯到忙碌线程的任务树中最早可以派生任务的结点处生成新任务,以供空闲线程窃取执行.该策略不仅保证生成的任务粒度最大化,并且有效地解决了负载不均衡问题.实验在一个Cell处理器上进行,结果表明与顺序执行速度相比,自适应任务粒度策略达到了4.1到7.2的加速比,并且该策略优于现有的Tascell和AdaptiveTC方案,同时对于绝大部分应用表现出了良好的可扩展行.  相似文献   

7.
为实现可重构计算中软硬件任务的自动划分,提出一种基于层次任务图模型和采用遗传算法作为搜索算法的任务划分算法.首先设计了一个层次任务图模型,其不同于基于有向非循环图(DAG)的模型,可以在任务划分时动态改变任务颗粒度,进而得到不同任务粒度下的最优解;其次设计了一个考虑了时间、功耗、资源和通信代价的适应度函数,并根据任务数量不固定的特点对遗传算法进行了改进.对文中算法在FPGA上进行实验验证和分析的结果表明,该算法的结果优于基于DAG任务图模型的任务划分.  相似文献   

8.
多粒度粗糙集模型是一种有效的信息融合策略。利用该策略能从多个角度将多源信息进行融合,并转化成一致的信息表示。现有的大多数多粒度信息融合方法对每个知识粒度都采用相同的阈值,然而,众所周知,不同的信息源的来源和噪声都不尽相同,其对应的知识粒度的阈值也应不同。为此,首先在广义多粒度粗糙集中引入单参数决策理论粗糙集,提出了广义自适应多粒度粗糙集模型。然后,利用经典的融合策略设计了4种广义多粒度模型,所有模型都可以通过一个参数补偿系数$ \zeta $来自适应地获得知识粒度对应的阈值对,并讨论了这些模型的相关性质。最后,通过实验结果证明,所提模型在实际应用中灵活性更高,决策更为合理。  相似文献   

9.
函数型程序的并行计算模型及任务划分   总被引:2,自引:0,他引:2  
通过分析得出了函数型程序的并行计算模型——任务树,并应用该模型分析了任务划分中的任务粒度和并行度等主要因素对加速比的影响,提出了优化的任务划分算法,最后给出了在一个分布符号处理系统PARLisp中的实现结果.  相似文献   

10.
为从更多角度进一步分析多属性覆盖决策信息系统,提出了诱导覆盖关系下的加权多粒度粗糙集。分析了采用专家经验确定粒度权重的局限性,引入基于分类质量的粒度权重赋值方法,使决策结果更具客观性;将诱导覆盖关系引入加权多粒度粗糙集,给出完整的粗糙上下近似;讨论了几种度量参数之间的关系,并对相关性质和定理进行证明;通过实例分析验证了模型的有效性和实用性。  相似文献   

11.
针对钢铁烧结中混合料粒度分布无法在线测量、难以实现混合制粒过程优化控制的问题,提出基于 粒度分布评估函数(Evaluation model of granularity distribution, EMGD)的混合制粒优化控制算法. 首先,根据烧结生产历史数据和混合料筛分实验数据建立粒度分布BP神经网络(BP neural network, BPNN)评估模型; 然后,以该模型为目标函数,以制粒过程状态参数的边界为约束条件,采用粒子群算法(Particle swarms optimization, PSO)计算粒度分布优化值; 最后建立基于BPNN的制粒水分设定模型,根据粒度分布优化值和当前配重实现水分优化控制. 仿真实验和工业应用表明评估模型真实反映了粒度分布对料层透气性的影响; PSO-BP粒度分布优 化控制算法对改善透气性、减少燃料损耗、稳顺烧结生产具有重要意义.  相似文献   

12.
针对当前特定网络检测方法中没有对数据粒度进行过滤,数据粒度过于粗糙,检测过程的单一,致使检测效率低、检测正确性偏差等问题。提出一种基于多约束信息融合的特定网络检测方法,利用Windows中的Wpcap.dll获取特定网络中NIC相关信息,构建特定网络侦听,制定过滤条件实现特定网络数据的获取;根据Rough集理论对特定网络数据粒度进行过滤,减小数据粒度的粗糙程度;构建特定网络检测模型,结合D-S证据理论得到基本置信函数值并确定值的权重,代入D-S合成公式获得检测结果,引入群体信任法对检测结果再次过滤,实现网络异常数据的彻底检测和清除,解决检测方法的单一性。实验表明,该方法提高了网络检测的效率和正确性,有效解决了当前网络检测方法中存在的问题。  相似文献   

13.
最优粒度选择是自编码网络构造多粒度特征的关键环节。针对自编码网络粒度选择方法不合理导致特征提取效果差以及错误分类成本和测试成本高的问题,提出一种基于小批量梯度下降(mini-batch gradient descent, MBGD)的粒度层选取策略。该方法通过改变粒度选择方式重新构建多粒度空间,设计一个新的基于深度置信网络(deep belief network, DBN)的代价敏感多粒度三支决策模型。更优的粒度选择方法提升网络的特征提取能力,促使多粒度空间的构造朝着最快到达最细粒度空间的方向发展,降低图像重构误差以达到更小的错误分类代价和测试代价。实验结果表明,提供合理的粒度选取策略提高了代价敏感多粒度三支决策模型的决策准确性,并在给定代价情况下更快地获得总代价最小的最优粒层。  相似文献   

14.
A hybrid granularity model is proposed for general concurrent solution. It is applied to the triangular factorization of a dense matrix ranging in size from 4 to 1024. Concurrency is achieved at two levels: (1) with small (micro) task granularity and (2) with large (blocked) task granularity. Relevance to a many-processor CRAY X-MP is demonstrated by simulation.  相似文献   

15.
This paper explores the suitability of the emerging passive star-coupled optical interconnection using wavelength division multiplexing as the system interconnect to provide high bandwidth (Gbits/sec) communication demanded by heterogeneous systems. Several different communication strategies (combinations of communication topologies and protocols) are investigated under a representative master-slave computational model. The interplay between system speed, network speed, task granularity, and degree of parallelism is studied using both analytical modeling and simulations. It is shown that a hierarchical ALOHA-based communication strategy between the master and the slaves, implemented on top of the passive star-coupled network, leads to a considerable reduction in channel contention and provides 50–80% reduction in task completion time for applications with medium to high degrees of coarse grain parallelism. Comparable reduction in channel contention is also shown to be achieved by using tunable acoustooptic filters at master nodes.  相似文献   

16.
本文基于Multi-Transputer并行处理系统的结构特点,分析了Transputer网的通信通信及任务通信开销对作业运行效率的制约关系。结果表明:并行程序设计的作业分解方式、选取合理的任务粒度和Transputer网络拓扑是其影响通信开销和作业运行效率的主要原因。  相似文献   

17.
针对设备端口链路流量,提出两种基于长短期记忆网络的预测模型。第一种针对在大时间粒度下平稳变化的流量;第二种则针对在小时间粒度下波动剧烈的非平稳流量。通过选用不同的数据划分方式与模型训练方法,构建两种具有不同网络结构的流量预测模型。实验结果表明,前者在处理平稳变化的流量时能够达到极高的预测精度,后者在处理非平稳流量时具有明显优于SVR模型、BP神经网络模型的预测效果。在第二种预测模型的基础上,提出了参数可调的链路拥塞预警方案,实验证明该方案具有一定的可行性。  相似文献   

18.
In this study, we introduce and discuss a concept of knowledge transfer in system modeling. In a nutshell, knowledge transfer is about forming ways on how a source of knowledge (namely, an existing model) can be used in presence of new, very limited experimental evidence. In virtue of the nature of the problem at hand (a situation encountered quite commonly, e.g. in project cost estimation), new data could be very limited and this scarcity of data makes it insufficient to construct a new model. At the same time, the new data originate from a similar (but not the same) phenomenon (process) for which the original model has been constructed so the existing model, even though it could applied, has to be treated with a certain level of reservation. Such situations can be encountered, e.g. in software engineering where in spite existing similarities, each project, process, or product exhibits its own unique characteristics. Taking this into consideration, the existing model is generalized (abstracted) by forming its granular counterpart – granular model where its parameters are regarded as information granules rather than numeric entities, viz. their non-numeric (granular) version is formed based on the values of the numeric parameters present in the original model. The results produced by the granular model are also granular and in this manner they become reflective of the differences existing between the current phenomenon and the process for which the previous model has been formed.In the study on knowledge transfer and reusability, information granularity is viewed as an important design asset and as such it is subject to optimization. We formulate an optimal information granularity allocation problem: assuming a certain level of granularity, distribute it optimally among the parameters of the model (making them granular) so that a certain data coverage criterion is maximized. While the underlying concept is general and applicable to a variety of models, in this study, we discuss its use to fuzzy neural networks with intent to clearly visualize the advantages of the approach and emphasize various ways of forming granular versions of the weights (parameters) of the connections of the network. Several granularity allocation protocols (ranging from a uniform distribution of granularity, symmetric and asymmetric schemes of allocation) are discussed and the effectiveness of each of them is quantified. The use of Particle Swarm Optimization (PSO) as the underlying optimization tool to realize optimal granularity allocation is discussed.  相似文献   

19.
Computing diagnoses in domains with continuously changing data is difficult but essential aspect of solving many problems. To address this task, a dynamic influence diagram (ID) construction and updating system (DYNASTY) and its application to constructing a decision-theoretic model to diagnose acute abdominal pain, which is a domain in which the findings evolve during the diagnostic process, are described. For a system that evolves over time, DYNASTY constructs a parsimonious ID and then dynamically updates the ID, rather than constructing a new network from scratch for every time interval. In addition, DYNASTY contains algorithms that test the sensitivity of the constructed network's system parameters. The main contributions are: (1) presenting an efficient temporal influence diagram technique based on parsimonious model construction; and (2) formalizing the principles underlying a diagnostic tool for acute abdominal pain that explicitly models time-varying findings  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号