草庐IT

libtorch_cuda_cu

全部标签

c++ - CUDA:内存限定符的非法组合

我有以下代码:主.cu:#include"class.h"intmain(){}类.h:classClass{__global__voidFunction(){};};当我使用命令nvcc-cmain.cu-omain.o编译此代码时,出现以下错误:class.h(3):warning:inlinequalifierignoredfor"global"functionclass.h(3):error:illegalcombinationofmemoryqualifiers我对这些错误中的每一个都有疑问。为什么它“忽略”函数的__global__限定符,为什么__global__内存限定

c++ - CUDA 内核 "Only a single pack parameter is allowed"解决方法?

关于可变全局函数模板的CUDA7标准指出"onlyasinglepackparameterisallowed."有没有优雅的解决方法?我希望能够做类似的事情:templatevoidRecursiveFunct(){}templatevoidRecursiveFunct(Tt,Args...args){t.templatecall();RecursiveFunct(args...);}我想我可以在传递它们之前将我的整数包包装成某种东西,但是否可以通过一种对该代码的调用者透明的方式来做到这一点? 最佳答案 不确定是否理解您的确切限制,

c++ - CUDA - memcpy2d - 音调错误

我刚开始CUDA编程,并试图执行下面显示的代码。这个想法是将二维数组复制到设备,计算所有元素的总和,然后检索总和(我知道这个算法不是并行化的。事实上,它正在做更多的工作,然后是必要的。然而,这只是为了作为memcopy的练习)。#include#include#include#include#defineheight50#definewidth50usingnamespacestd;//Devicecode__global__voidkernel(float*devPtr,intpitch,int*sum){inttempsum=0;for(intr=0;r>>(devPtr,pitc

c++ - 将 pthreads 与 CUDA 结合使用 - 设计问题

我正在编写一些需要一些磁盘I/O的代码,并调用我编写的库来执行一些计算和GPU工作,然后调用更多磁盘I/O将结果写回文件。我想将其创建为多线程代码,因为文件非常大。我希望能够读取文件的一部分,将其发送到GPU库,然后将一部分写回文件。涉及的磁盘I/O非常大(如10GB),并且在GPU上的计算速度相当快。我的问题更像是一个设计问题。我应该使用单独的线程来预加载进入GPU库的数据,并且只让主线程实际执行对GPU库的调用,然后将结果数据发送到其他线程以写回磁盘,或者我是否应该继续让所有单独的线程各自完成自己的工作-获取一大块数据,在GPU上执行,然后写入磁盘,然后获取下一block数据?我正

c++ - 在 CUDA 上乘以两个 float 变量

我有一个非常有趣的问题,但我花了3个小时才解决它,但我只是想不通发生了什么以及为什么它不起作用。我试过谷歌它,但没有结果。我正在CUDA上编写程序。我有一段非常简单的代码:__global__voidcalcErrorOutputLayer_kernel(*arguments...*){intidx=blockIdx.x*blockDim.x+threadIdx.x;floatgradient;floatderivation;derivation=pow((2/(pow(euler,neuron_device[startIndex+idx].outputValue)+pow(euler

c++ - CUB (CUDA UnBound) 相当于 thrust::gather

由于Thrust库存在一些性能问题(有关详细信息,请参阅thispage),我计划重构一个CUDA应用程序以使用CUB而不是Thrust。具体来说,就是替换thrust::sort_by_key和thrust::inclusive_scan调用)。在我的应用程序的特定点上,我需要按键对3个数组进行排序。这就是我用推力做到这一点的方式:thrust::sort_by_key(key_iter,key_iter+numKeys,indices);thrust::gather_wrapper(indices,indices+numKeys,thrust::make_zip_iterator(

c++ - 没有弃用功能的 CUDA + OpenGL Interop

我之前已经能够通过以下方式在CUDA中填充纹理以用于OpenGL:创建并初始化GL纹理(gl::GenTextures()等)创建GL像素缓冲区对象向CUDA注册PBO在更新/渲染循环中:cudaGraphicsMapResource()与PBO启动内核以更新PBOcudaGraphicsUnmapResource()来自CUDA的PBO加载GL程序,绑定(bind)纹理,正常渲染重复清洗、漂洗。但是,我想知道PBO是否仍然是从内核编写纹理的最佳方式。我看过类似thisone的文章(updatedforv5here)似乎根本没有使用PBO。我看到了一些对cudaTextureObjec

c++ - 在执行 CUDA 设备代码时在同一线程中运行主机代码

有没有办法在CUDA设备功能运行时运行主机代码?由于CUDA运行时必须等到设备功能完成,我想知道是否有可能在此期间调用提供的主机功能委托(delegate)。像这样:在>>之前启动线程call对我来说不一样[Overhead,...]。 最佳答案 CUDA内核调用是异步。这意味着在内核实际开始执行之前,控制权返回到进行内核调用的主机线程。因此,您只需将主机代码放在内核调用之后(以及任何其他CUDAAPI调用之前,例如cudaDeviceSynchronize()或cudaMemcpy())。放置在那里的主机代码将与内核同时运行,只要

c++ - CUDA 设备代码中的 constexpr 数组

你能告诉我,有什么方法可以在设备代码中使用constexpr数组吗?根据“CudaCprogrammingguide7.0”,我对constexpr标量没有任何问题,但数组似乎无法编译。下面是一些例子:templateclassLatticeArrangement{};templateclassLatticeArrangement{public:staticconstexprdoublec[19]={0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18};staticconstexprdoubled=19.0;__host____device__

c++ - 编译/添加 cuda 代码到现有项目 (CMake)

我正在尝试通过CUDA代码将现有项目的一部分移植到GPU。我知道cmake有选项(find_cuda...)来单独处理.cu文件,但我仍在尝试弄清楚如何在现有项目的上下文中使用这个生态系统。我的问题如下。假设我有一个带有cmake配置文件(CMakeLists)的现有C++项目。目前优雅地(如果可能)包含CUDA内核的做法是什么?CMakeLists能否以某种方式构造,.cu文件仅在GPU存在时才编译?我目前的想法是创建一个单独的文件夹,其中只存在CUDA相关代码,然后将其编译为静态库。是这样吗? 最佳答案 将CUDA文件放在单独的