首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
CPU/GPU异构系统具有很大的发展潜力,深入研究CPU/GPU异构平台的并行优化,可实现系统整体计算能力的最大化。通过对CPU/GPU任务划分的优化来平衡CPU和GPU的负载,可提高计算资源的利用率,缩短计算任务的执行时间;通过对GPU线程划分的优化,可使GPU获得更高的速度。从而提高系统整体性能。  相似文献   

2.
此次主要研究了基于GPU的集群渲染系统平台设计;为了提高平台的工作效率、增强集群渲染系统平台的数据传输能力,提出了一种采用DCT变换的方法来加速图像渲染速度;该方法利用DCT变换算法加速图像的实时压缩,加入CPU监控器和任务分配器模块,让GPU和CPU共同承担了绘图和渲染的目的,这样有效地降低处理流程对CPU的占用,实现了三维绘图和特效渲染的加速;为了验证平台的有效性以及图像压缩处理的效果,做了相应的功能验证;对640×480的RCB图像使用上述压缩方法和JPEG标准库在不同压缩设置下进行实验;仿真实验结果表明所提方案具有更高的压缩效率。  相似文献   

3.
GPU通用计算在LBM方法中的应用   总被引:1,自引:0,他引:1  
提出了一种结合GPU通用计算与计算流体力学中的LBM算法来模拟二维流场的方法.根据GPU通用计算和LBM方法的基本原理,利用OpenGL的离屏渲染技术FBO和Cg语言,基于LBM方法中的D2Q9模型对二维方腔流进行数值模拟,并设计出基于OpenGL的GPU通用计算的二维流场数值计算框架.实验结果表明,利用GPU模拟与CPU模拟流场的数值结果相当吻合,特别地,利用GPU进行数值模拟实验的速度是利用CPU的4倍左右.  相似文献   

4.
GPU通用计算平台上的SPH流体模拟   总被引:2,自引:1,他引:2  
针对流体模拟需要大量计算资源从而很难达到实时模拟的问题,提出一种完全在GPU上实现的基于平滑粒子流体动力学的流体模拟方法.首先通过在GPU上构造基于哈希函数的空间均匀网格来实现任意大小场景的快速邻近粒子查找,并在GPU上并行求解SPH流体方程来实现流体模拟;渲染流体时,通过在顶点着色器中进行纹理采样,利用粒子坐标缓存数据直接更新流体粒子系统的顶点缓存,从而避免了CPU—GPU之间的数据传输,充分利用了GPU的并行性.实验对比表明,与纯CPU实现以及CPU和GPU混合实现的模拟结果相比,采用该方法能显著地减少单个时间片的计算时间,大幅度提高流体模拟和渲染的整体性能.  相似文献   

5.
在分析GPU并行计算特点的基础上,提出并实现了基于GPU编程的地形纹理快速渲染方法,其核心是用GPU编程对地形纹理图像进行快速解压.与传统渲染流程不同,该方法首先把压缩纹理图像传输到图形卡中,然后通过GPU编程实现对压缩图像解压的硬件加速,从而解决了海量纹理数据存储;传输带宽以及解压速度等一系列问题.实验结果表明基于GPU编程的地形纹理快速渲染方法在虚拟场景的渲染速度方面优势明显,并且随着地形纹理图像分辨率的增大这种优势体现得更加充分.  相似文献   

6.
基于大规模粒子系统的实时喷泉模拟   总被引:1,自引:0,他引:1  
本文实现了一种新的喷泉模拟方法,与传统的在CPU上实现算法不同的是,本文算法完全基于计算机图形硬件(GPU)来实现,利用图形硬件的大规模并行计算能力,显著的增加了模拟喷泉的粒子数量,提高了渲染速度,同时减轻了CPU的负载,使整个三维场景的绘制更加高效。  相似文献   

7.
基于CUDA的并行加速渲染算法   总被引:1,自引:1,他引:0       下载免费PDF全文
GPU可以快速有效的处理海量数据,因此在近些年成为图形图像数据处理领域的研究热点。针对现有GPU渲染中在处理含有大量相同或相似模型场景时存在资源利用率低下和带宽消耗过大的问题,在原有GPU渲染架构的基础上提出了一种基于CUDA的加速渲染方法。在该方法中,根据现有的GPU渲染模式构建对应的模型,通过模型找出其不足,从而引申出常量内存的概念;然后分析常量内存的特性以及对渲染产生的作用,从而引入基于常量内存控制的方法来实现渲染的加速,整个渲染过程可以通过渲染算法进行控制。实验结果表明,该方法对解决上述问题具有较好的效果,最终实现加速渲染。  相似文献   

8.
基于CPU-GPU混合加速的SPH流体仿真方法   总被引:1,自引:0,他引:1  
基于光滑粒子流体力学SPH的流体仿真是虚拟现实技术的重要研究内容,但SPH流体仿真需要大量的计算资源,采用一般计算方法难以实现流体仿真的实时性。流体仿真通常由物理计算、碰撞检测和渲染等部分组成,借助GPU并行加速粒子的物理属性计算和碰撞过程使SPH方法的实时流体仿真成为可能。为了满足流体仿真应用中的真实性和实时性需求,提出一种基于CPU GPU混合加速的SPH流体仿真方法,流体计算部分采用GPU并行加速,流体渲染部分采用基于CPU的OpenMP加速。实验结果表明,基于CPU GPU混合加速的SPH流体仿真方法与CPU实现相比,能显著地减少流体仿真单帧计算时间且能更快速地完成渲染任务。  相似文献   

9.
分析了目前基于光栅显示器模拟雷达余辉的方法。针对实现逼真余辉效果存在的主要瓶颈,通过采用CUDA技术可以解决模拟余辉时庞大的计算量的问题。主要采用CPU+GPU的编程模式模拟余辉,在GPU中为每一个像素点创建一个并行执行的线程来完成整个屏幕像素的数据处理,使得余辉效果逼真、画面流畅、扫描速度大幅提高。  相似文献   

10.
针对基于CPU的实时渲染全频阴影算法中内存使用效率低下、CPU运算能力消耗严重等问题,提出了基于GPU的改进算法.在预计算过程中使用基于小波变换的预计算辐射度传递(PRT)算法生成PRT矩阵,然后将其编码为易于被GPU使用的稀疏形式;在渲染过程中使用具有高度并行性的片断渲染器程序进行稀疏矩阵向量快速乘法计算,以求得最终渲染结果.相对于目前基于CPU的相应算法,算法充分利用了GPU的并行计算能力,平衡了CPU与GPU之间的负载,并同时降低了内存消耗.在一般情况下,算法可以获得超过一个数量级的性能提升.  相似文献   

11.
应用于高性能计算领域的通用GPU拥有强大的并行计算能力,以通用GPU作为主处理器的数据分析系统相较于传统数据库能够提供更好的性能。在大数据场景下,如何根据CPU和GPU的资源在处理器之间合理分配工作负载是亟待解决的问题。提出了一种CPU GPU异构数据分析系统上的负载均衡处理策略。该策略采用流水线模型将工作负载分解,基于流水线设计了负载均衡模型,将工作负载合理分配至异构处理器,减少系统总执行时间开销,实现了性能提升。实验结果表明,提出的基于流水线的负载均衡模型能适应不同查询请求下的不同数据量场景,具有良好的性能。  相似文献   

12.
The cluster system we consider for load sharing is a compute farm which is a pool of networked server nodes providing high-performance computing for CPU-intensive, memory-intensive, and I/O active jobs in a batch mode. Existing resource management systems mainly target at balancing the usage of CPU loads among server nodes. With the rapid advancement of CPU chips, memory and disk access speed improvements significantly lag behind advancement of CPU speed, increasing the penalty for data movement, such as page faults and I/O operations, relative to normal CPU operations. Aiming at reducing the memory resource contention caused by page faults and I/O activities, we have developed and examined load sharing policies by considering effective usage of global memory in addition to CPU load balancing in clusters. We study two types of application workloads: 1) Memory demands are known in advance or are predictable and 2) memory demands are unknown and dynamically changed during execution. Besides using workload traces with known memory demands, we have also made kernel instrumentation to collect different types of workload execution traces to capture dynamic memory access patterns. Conducting different groups of trace-driven simulations, we show that our proposed policies can effectively improve overall job execution performance by well utilizing both CPU and memory resources with known and unknown memory demands  相似文献   

13.
针对传统光线投射算法计算量大、速度慢、在没有硬件加速情况下难以实时重建的问题,提出了一种基于GPU编程的快速计算重采样点值的光线投射算法。首先,设计一个GPU程序确定投射光线的终点与方向;其次,采用加速度步长采样方法确定重采样点的位置并利用快速复合插值方法计算重采样点的颜色值;最后,采用不透明度提前截止法进一步加速重建过程。实验结果表明,该方法计算复杂度低、执行效率高。在保证重建图像质量的同时,与现有基于CPU的光线投射算法相比,重建速度提高6倍,与基于GPU的传统光线投射算法相比,速度提高2倍。  相似文献   

14.
云计算环境下,消息系统的客户端点部署方式对系统的性能和能耗有着重大的影响.不合理的部署会使消息系统内的路由节点承受较大的负载,增加系统的能耗.现有的部署方法往往只考虑负载均衡或者基于兴趣的部署,忽略了客户端点之间存在的复杂通信关联对系统造成的影响.文中提出一种基于社区聚集的部署方法,能根据客户端点之间的消息通信强度划分社区,并通过社区聚集的方法,提高系统性能,同时有效地降低路由节点CPU以及通信链路的能耗.实验证明该方法能有效提高消息系统的消息转发效率,并能降低路由节点的消息处理负载和通信链路中的消息量,减小系统能耗.这为绿色消息系统的研究提供了一个新思路.  相似文献   

15.
多分辨率体绘制是解决海量数据体绘制的一种有效方法。但对于数据散乱分布、同质区域较小的体绘制数据(比如物探领域的地震信号数据),传统的基于香农熵或均方差的多分辨率方式均难以有效实现降低数据量的效果。本文提出了一种基于目标特征的多分辨率体绘制方法。以数据体中的目标特征为指导,适当降低非目标区域的分辨率,在尽可能不丢失其目标区域信息的情况下,实现有效的多分辨率体绘制。本文方法能够在目标保证数据量的前提下,尽可能的通过丢弃非目标区域的信息量,进而保护数据体的关键信息,以得到较好的绘制效果。实验结果表明,本文方法能与传统方法相比能够更好的保证关键区域绘制效果,同时进一步的降低用于绘制的数据量。  相似文献   

16.
近几年随着GPU的可编程能力的增强,很多基于点的绘制算法都可以移植到GPU上来实现,这样既可以让CPU有时间来处理其他事,又可以通过GPU提高算法的运行速度。由于目前的GPU不支持epsilon-z-buffering算法,大部分基于GPU的绘制算法都是通过Multi-pass绘制来达到较高的绘制质量。然而,这些算法需要在第一和第二个pass中光栅化大量的可能可见的面圆,并在第二个pass的像素shader中对这些可能可见的面圆进行大量的计算。本文提出了一种基于GPU的改进Multi-pass绘制算法,与前面的Multi-pass算法相比,我们的算法只需在第一个pass中对大量可能可见的面圆进行光栅化和深度测试后,便可求出所有可见面圆,即离视点最近的面圆。然后在第二个pass中只对这些可见面圆进行光栅化和逐像素计算,从而避免了大量不必要的计算。  相似文献   

17.
图形处理器在分层聚类算法中的通用计算研究*   总被引:1,自引:0,他引:1  
ROCK是一种采用数据点间的公共链接数来衡量相似度的分层聚类方法,该方法对于高维、稀疏特征的分类数据具有高效的聚类效果。其邻接度矩阵计算是影响时间复杂度的关键步骤,将图形处理器(GPU)强大的浮点运算和超强的并行计算能力应用于此步骤,而其余步骤由CPU完成。基于GPU的ROCK算法的运算效率在AMD 643500+ CPU和NVIDIA GeForce 6800 GT显卡的硬件环境下经过实验测试,证明其运算速度比完全采用CPU计算速度要快。改进的分层聚类算法适合在数据流环境下对大量数据进行实时高效的聚类的  相似文献   

18.
为了充分利用图形处理器(GPU)的闲置资源,同时达到提高密码算法加密速度的目的,提出了一种在图形处理器上实现AES加密算法的方法,分别阐述了基于传统OpenGL的AES实现以及基于最新技术CUDA的AES实现,并对这两种方法的实现性能进行了分析,同时与传统CPU方法的实现性能进行了比较,基于CUDA的AES的实现速度达到了传统CPU上AES实现速度的19.6倍.  相似文献   

19.
提出一种基于图形处理器(GPU)加速的真实感毛发快速绘制方法.方法通过混合绘制多层次的半透明纹理层来表示物体表面的毛发效果,并在绘制过程充分运用了GPU的可编程功能.其中采用GPU的顶点绘制器来完成多层网格层顶点位置的计算;采用像素绘制器来实现毛发特殊光照效果的计算.实验表明,通过采用GPU可编程计算,毛发的绘制速度得到了明显提高.方法对中等规模的模型达到了实时的毛发绘制速度,并具有逼真的仿真效果.  相似文献   

20.
为加快TIP(Tour Into the Picture)的绘制速度,提出1种基于GPU(Graphics Processing Unit)的方法,充分利用GPU的运算能力,把背景纹理提取过程从CPU转移到GPU中进行,利用GPU固定管道进行TIP绘制,CPU负责前景模型的深度计算及纹理提取.因此,CPU与GPU可以并行运算,显著提高纹理映射速度从而缩短整个TIP绘制时间,满足用户在虚拟场景中漫游的实时性要求.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号