草庐IT

cuda-streams

全部标签

c++ - 在 CUDA 内核中使用许多固定大小的矩阵

我希望处理大约4000个固定大小(3x3、4x4)的矩阵,进行矩阵求逆和特征分解等操作。在我看来,最好的并行化方法是让许多GPU线程中的每一个线程处理问题的单个实例。有没有合理的方法来做到这一点?我已阅读:http://www.culatools.com/blog/2011/12/09/batched-operations/但据我所知,这始终是“正在努力”但看不到解决方案的事情。三年后,我希望有一个好的解决方案。到目前为止,我看过:在CUDA内核中使用Eigen:http://eigen.tuxfamily.org/dox-devel/TopicCUDA.html.但这还处于起步阶段:

Ubuntu Server 20.04 系统安装(四):深度学习 GPU 环境配置(CUDA12.2驱动+CUDA Toolkit 12.2+cuDNN v8.9.7)

引言本文以Ubuntu20.04操作系统为例,演示如何配置深度学习GPU环境。一、NVIDIA显卡驱动的安装访问如下网址https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=Ubuntu&target_version=20.04&target_type=runfile_local下载推荐的cuda并安装复制箭头所指处的命令到命令行wgethttps://developer.download.nvidia.com/compute/cuda/12.2.0/local_i

c++ - SIMD 内部函数 : _mm_stream_load_si128 vs _mm_load_si128

什么时候应该使用流媒体版本以及什么时候使用SSE2与_mm_load_si128?什么是性能权衡? 最佳答案 流加载内在(mm_stream_load_si128)执行加载“使用非时间内存提示”(根据IntelIntrinsicsGuide)。这意味着加载的值不会导致从缓存中逐出任何内容。如果您将大量数据组合在一起,您将立即对其进行操作并且“很长”一段时间内不再查看,这将非常有用。最常见的情况是在流操作期间发生这种情况。当我知道我正在对一个大数据集执行一个简单的操作时,我就使用过它,我知道数据无论如何都会很快从缓存中被逐出。memc

c++ - CMake + 库达 : compile cpp files in Cuda-mode (--x=cu)

假设我有一个文件,我们称它为foo.cpp,我的目标是在cuda模式下用nvcc编译这个文件。在命令行中,这可以通过调用轻松完成:nvcc--x=cufoo.cpp我正在苦苦挣扎的是让CMake做同样的事情。事实证明,CMake命令cuda_add_executable(foofoo.cpp)将过滤*.cpp文件并使用c++编译器(而不是nvcc)。请注意,将所有文件重命名为*.cu不是一种选择,因为代码库还必须支持非cuda构建。 最佳答案 在FindCUDAsourcecode我找到了一个选项来为特定的非.cu文件激活CUDA编

c++ - CUDA 动态并行,性能差

我们在使用CUDA动态并行时遇到了性能问题。目前,CDP的执行速度至少比传统方法慢3倍。我们做了最简单的可重现代码来展示这个问题,就是把一个数组的所有元素的值都增加+1。即,a[0,0,0,0,0,0,0,.....,0]-->kernel+1-->a[1,1,1,1,1,1,1,1,1]这个简单示例的目的只是为了查看CDP是否可以像其他的一样执行,或者是否存在严重的开销。代码在这里:#include#include#defineBLOCKSIZE512__global__voidkernel_parent(int*a,intn,intN);__global__voidkernel_s

c++ - CUDA : NVCC gives controlling expression is constant warning on assert

我在这样的断言语句中收到警告controllingexpressionisconstant:assert(...&&"errormessage");为什么要对这个断言发出警告?我怎样才能抑制这个警告?NVCC是NVIDIA的cuda编译器,我觉得是基于LLVM的。为什么它会发出此警告,而GCC或VisualC++编译器可以正常编译? 最佳答案 可移植的替代方案(可能包含在宏中)类似于:{constboolerror_message=true;assert([...]&&error_message);}澄清我的意思:#definemy

c++ - 你如何计算 nvidia(支持 cuda)的 gpu 卡上的负载?

我想知道如何在向卡发送任务时显示显卡能力的百分比。就像Gnome的系统监视器。此外,如何获取设备参数以根据其硬件规范计算百分比nvidia-smi-a如何获得利用率?是否有CudaAPI可以向卡询问此信息? 最佳答案 ProcessHacker这样做(这仅适用于Windows),但它不是特定于CUDA的。我知道它使用了一些未记录的函数——看看theplugin'ssourcecode了解具体方法。 关于c++-你如何计算nvidia(支持cuda)的gpu卡上的负载?,我们在StackO

c++ - Opencv 错误 : no GPU support (library is compiled without CUDA support)

我正在尝试使用CUDA在GPU上使用opencv处理一些图像处理任务。我正在使用ubuntu。我毫无问题地设置了我的两个产品Opencv和Cuda,我确信这一点。但是,当我尝试在eclipse中运行sampleCOde时,出现错误:OpenCV错误:在mallocPitch中没有GPU支持(库在没有CUDA支持的情况下编译),文件/home/muad/Source/OpenCV-2.4.2/modules/core/src/gpumat.cpp,第749行我重做了我的opencv,但我还是明白了。 最佳答案 如文档中所述,您必须使用

c++ - C/C++ 中的 STL、iostream、new、delete for CUDA

我可以在C/C++中为CUDA使用STL、iostream、new、delete吗? 最佳答案 如果您有Fermi级GPU(因此计算能力>=2.0),并且正在使用CUDA4.0或更高版本,那么new和delete都可以使用在设备代码中。不支持STL容器和算法以及iostream。如果您想对CUDA使用“类似STL”的操作,您可能会对Thrust感兴趣模板库。它允许主机代码使用容器类型透明地与GPU交互,并实现许多非常有用的数据并行原语,如排序、缩减和扫描。请注意,这仍然是主机端设备,不能在您自己的内核代码中使用Thrust及其容器。

c++ - 使用 CUDA Thrust 确定每个矩阵列中的最小元素及其位置

我有一个相当简单的问题,但我想不出一个优雅的解决方案。我有一个Thrust代码,它生成包含值的相同大小的cvector。假设这些cvector中的每一个都有一个索引。我想为每个vector位置获取值最低的cvector的索引:例子:C0=(0,10,20,3,40)C1=(1,2,3,5,10)作为结果,我会得到一个vector,其中包含具有最低值的Cvector的索引:result=(0,1,1,0,1)我考虑过使用thrustzip迭代器来完成它,但遇到了一些问题:我可以压缩所有cvector并实现一个任意转换,它接受一个元组并返回其最低的索引值,但是:如何迭代元组的内容?据我所知