草庐IT

cuda_ndarray

全部标签

c++ - 在 CUDA 源文件上使用 clang-tidy

存在多种专为C/C++设计的静态分析工具,但它们对于测试CUDA源代码并不是特别有用。自clangversion6能够编译CUDA,我想使用clang-tidy检查我的选项,它似乎没有切换架构的选项。有没有办法让它工作?例如用于打开CUDA解析器的编译时开关、自定义检查形式的扩展,或者它可能是计划中的功能? 最佳答案 基于clang的工具的一个问题是它们不以与clang完全相同的方式解析文件。第一个问题是,与C/C++编译不同,CUDA编译对源码进行了多次编译。默认情况下,当您给它一个CUDA文件时,clang会创建多个编译作业,并

c++ - 非确定性输出的 CUDA 调试程序

我正在我的Ubuntu10.1064位系统上调试我的基于CUDA4.0/Thrust的图像重建代码,我一直在尝试找出如何调试我的输出图像出现的运行时错误一些随机的“噪音”。我的代码中没有随机数生成器输出,所以我希望输出在运行之间保持一致,即使它是错误的。然而,这不是……我只是想知道是否有人有调试此类CUDA运行时错误的通用程序。我没有在我的cuda内核中使用任何共享内存。我努力避免任何涉及全局内存的竞争条件,但我可能会遗漏一些东西。我试过使用gpuocelot,但它在识别我的一些CUDA和CUSPARSE函数调用时遇到了问题。此外,我的代码通常可以正常工作。就在我更改此设置时,我得到了

c++ - 使用cuda创建共现矩阵

//Thisismykernelfunction__global__voidcreateSCM(Pixel*pixelMat,//imageintimgRows,//imagedimensionsintimgCols,int*matrizSCM,//CoocurrencematrixintnumNiveles,//coocurrencematrixlevels=256intdelta_R,//value={-1,0or1}intdelta_C)//value={-1,0or1}{inti=blockIdx.y*blockDim.y+threadIdx.y;intj=blockIdx.x

c++ - CUDA 推力 : copy from device to device

我使用标准CUDAmalloc在CUDA中分配了一个内存数组,并将其传递给函数,如下所示:voidMyClass::run(uchar4*input_data)我还有一个类成员,它是一个推力device_ptr声明为:thrust::device_ptrdata=thrust::device_malloc这里的num_pts是数组中值的个数,input_data指针保证是num_pts长。现在,我想将输入数组复制到thrust_device_ptr中。我看过推力文档,其中很多都在谈论从设备复制到主机内存,反之亦然。我想知道在推力上执行此设备到设备复制的最佳性能最佳方式是什么,还是我应该

c++ - 为维数增加(点数)的点云分配 CUDA 设备内存

我正在编写一个程序,我需要:对图像的每个像素进行测试如果测试结果为真,我必须向点云中添加一个点如果测试结果为假,什么都不做我已经在CPU端C++上编写了一个工作代码。现在我需要使用CUDA加速它。我的想法是让一些block/线程(我猜是每个像素一个线程)并行执行测试,如果测试结果为真,则让线程向云中添加一个点。我的麻烦来了:如果我事先不知道要插入到点云中的点数,我如何在设备内存中为点云分配空间(使用cudaMalloc或类似工具)?我是否必须分配固定数量的内存,然后在每次点云达到限制维度时增加它?还是有一种“动态”分配内存的方法? 最佳答案

c++ - cuda-memcheck,如何从地址到源代码?

我成功地使用cuda-memcheck获取有关错误内存访问的错误。使用-g-G编译cuda代码给出了很好的源位置,如下所示:=========Error:processdidn'tterminatesuccessfully=========Invalid__global__readofsize1=========at0x00000710in/some/path/somefile.cu:117:some_function=========bythread(0,14,0)inblock(1,16,0)=========Address0x00abac20isoutofbounds现在我尝试使

c++ - 封装 CUDA 内核的最佳方式是什么?

我正在尝试使CUDA项目尽可能接近OO设计。目前,我找到的解决方案是使用Struct来封装数据,对于每个需要一些GPU处理的方法,需要实现3个函数:对象将调用的方法。一个__全局__函数,它将调用该结构的__设备__方法。__device__结构内的方法。我举个例子。假设我需要实现一种方法来初始化结构内的缓冲区。它看起来像这样:structFoo{float*buffer;short2buffer_resolution_;short2block_size_;__device__initBuffer(){intx=blockIdx.x*blockDim.x+threadIdx.x;int

c++ - 修正贝塞尔函数的精确计算 - 在 CUDA 中使用 netlib Fortran 例程?

我正在处理在CUDA中准确计算零阶I0的修正贝塞尔函数的问题。很长一段时间以来,我一直根据论文使用有理切比雪夫近似J.M.布莱尔,“修正贝塞尔函数I_0(x)和I_1(x)的有理切比雪夫近似”,数学。计算机,卷。28,名词。126,第581-583页,1974年4月。与Matlab提供的结果相比,给出了1e-29数量级的平均误差。不幸的是,对于我正在处理的新应用程序来说,这种看似很高的准确性已经不够用了。Matlab使用由D.E.开发的Fortran例程。阿摩司Amos,D.E.,“复杂参数和非负阶贝塞尔函数的子程序包”,桑迪亚国家实验室报告,SAND85-1018,1985年5月。A

c++ - C/CUDA程序输出

以下是一个CUDA编程示例,它基本上是C语言,但其中包含NVidiaCUDA函数。我一直在尝试解释这个代码示例并弄清楚它试图做什么。我的问题是这个程序编译得很好,但是它需要什么参数?例如,这个CUDA程序正在linux模拟器中运行,但是在运行./program时它返回:用法:./程序号段错误程序输入参数是什么。谢谢。#include#include//#defineN100000__host__voidsaxpy_host(intlength,floatalpha,float*x,float*y){for(inti=0;i>>(N,alpha,dxp,dyp);//bringbackd

c++ - 当数组大小大于 1,000,000 时,Cuda 未给出正确答案

我已经编写了一个简单的求和代码,在我将数组大小增加到100万之前它似乎工作得很好,这可能是问题所在。#defineBLOCK_SIZE128#defineARRAY_SIZE10000cudaError_taddWithCuda(constlong*input,long*output,inttotalBlocks,size_tsize);__global__voidsumKernel(constlong*input,long*output){inttid=threadIdx.x;intbid=blockDim.x*blockIdx.x;__shared__longdata[BLOCK_