共查询到20条相似文献,搜索用时 15 毫秒
1.
《黑龙江科技信息》2017,(36)
CUDA是由NVIDIA开发的用于通用并行计算的开发平台,通过应用GPU(graphics processing unit)使得计算性能变得非常强大,尤其是密集型数据的并行计算,性能优化更加明显。随着数以百万计的可应用于CUDA的GPU的数量的增加,一些科学家、研究员以及软件开发者正在探寻CUDA的广泛应用,例如图像和视频处理,计算生物学和化学,流体动力学,CT图像重建,地震分析和光线跟踪等等。本文基于光线跟踪的DRR算法的可并行性,在CUDA上设计和实现了并行算法,经过CUDA优化后,可实现交互式数字重建影像,不同分辨率的图像用GPU和CPU分别重建,速度性能能够提升到大约7-40倍,而且图像效果良好。 相似文献
2.
针对扩频信号捕获中计算量大和运算速度慢的问题,提出基于图形处理器(GPU)加速的捕获方法,将基于循环相关的捕获算法转化为计算统一设备架构(CUDA)线程块执行过程,使扩频捕获过程完全在GPU中加速执行,在保持原有扩频信号捕获概率的同时,显著提高了算法的运算速度.实验结果表明,基于GPU的捕获方法有效地提高了系统的执行效率. 相似文献
3.
随着高性能计算需求的不断增长,人们开始将目光投向具有强大计算能力及高存储带宽的GPU设备.与擅长处理复杂性逻辑事务的CPU相比,GPGPU(general purpose graphic processing unit,通用图形处理器)更适合于大规模数据并行处理.CUDA(compute unified device architecture,统一计算架构)的出现更加速了GPGPU应用面的扩张.基于GPGPU和CUDA技术对AES算法的实现进行加速,得到整体吞吐量6~7Gbit/s的速度.如果不考虑数据加载时间,对于1MB以上的输入规模,吞吐量可以达到20Gbit/s. 相似文献
4.
5.
6.
7.
8.
9.
《科技通报》2016,(4)
针对高斯牛顿法地震全波形反演计算量大、计算速度慢的问题,采用图形处理器(GPU)对其加速。高斯牛顿法全波形反演耗时主要集中在波形正演模拟和矩阵乘法计算两个方面,而波形正演算法和矩阵乘法计算在算法特性上都满足并行性的要求。对于波形正演模拟的加速,研究并实现了基于CUDA平台的时域有限差分(FDTD)正演算法。对于矩阵乘法的加速,直接使用计算能力很强的CUB-LAS库来完成计算。在台式PC上对不同模型大小的反演区域做合成数据反演,所用显卡型号为GTX650ti,程序速度提升10~30倍,且随着模型增大,程序的加速比将进一步提高。二维Overthrust截取模型反演算例表明时间成本已经不再是影响高斯牛顿法全波形反演发展的主要问题。 相似文献
10.
11.
12.
13.
在MMORPG游戏中经常出现同屏显示成千上万的粒子特效,传统引擎虽然使用多线程来计算粒子的运动,但是也很难应付大规模的计算量(考虑到一般配置),更何况MMORPG中还空出许多CPU去处理逻辑。提出基于GPU进行粒子计算的粒子系统,利用GPU的并行计算多个对象,实现并行化高效的粒子系统。 相似文献
14.
16.
CPU-GPU异构平台临界阈值的精确确定是决定GPU并行程序运算性能的关键,传统的临界阈值确定方法采用Lyapunov指数算法,在系统相轨迹过零周期数变相时系统状态不稳,零极点出现漂移,导致临界阈值检测精度不高。提出一种改进的Lyapunov指数算法下的CPU-GPU异构平台临界阈值确定方法,实现对不同幅值递增步长下的系统相变阈值的计算。仿真实验表明,采用该改进算法求解CPU-GPU异构平台临界阈值,优化GPU并行驱动程序,算法复杂度更低,计算精度较高,能有效提高GPU平台并行运算加速比,高精度阈值能在短时间内被准确确定。 相似文献
17.
目前,计算机系统普遍使用GPGPU设备加速计算,但使用底层API进行加速计算繁琐而又缺乏效率,运用基于指令的高级抽象编程可以解决这个问题。运用均值模糊算法体验OPENACC的用法,OPENACC通过指令把c或c++中的计算紧密代码转移到GUP中。比较了分别使用CPU、OPENACC、CUDA实现均值模湖算法的性能表现,虽然CUDA有不错的性能,但相对于低下的开发效率和陡峭的学习曲线而言,OPENACC只用十几行代码就可以取得可观的加速比,而且随着编译器和硬件技术的发展,指令制导编译有越来越大的发展空间。 相似文献
18.
19.
传统的Kirsch边缘检测算法的优化和实现都是针对常用处理器提出的。根据Kirsch算法的可并行计算的特点,本文提出了一种基于图形处理器GPU的快速Kirsch算法。快速算法根据GPU的并行结构和硬件特点,采用了纹理存储技术、多点访问技术和对称计算技术三种加速技术,优化了数据存储结构,提高了数据访问效率,降低了算法复杂度。实验表明,采用基于GPU的算法可将对图像的处理速度提高到传统Kirsch边缘检测算法的10倍以上。 相似文献