草庐IT

CUDA_HOME

全部标签

c++ - 在 CUDA 内核中使用许多固定大小的矩阵

我希望处理大约4000个固定大小(3x3、4x4)的矩阵,进行矩阵求逆和特征分解等操作。在我看来,最好的并行化方法是让许多GPU线程中的每一个线程处理问题的单个实例。有没有合理的方法来做到这一点?我已阅读:http://www.culatools.com/blog/2011/12/09/batched-operations/但据我所知,这始终是“正在努力”但看不到解决方案的事情。三年后,我希望有一个好的解决方案。到目前为止,我看过:在CUDA内核中使用Eigen:http://eigen.tuxfamily.org/dox-devel/TopicCUDA.html.但这还处于起步阶段:

Dev Home — 免费开源的微软开发者工具

(adsbygoogle=window.adsbygoogle||[]).push({}); 项目名:DevHome--微软平台的一站式开发助手Github开源地址:https://github.com/microsoft/devhome官网地址:https://apps.microsoft.com/detail/9N8MHTPHNGVV?hl=zh-cn&gl=US官方说明文档:https://learn.microsoft.com/zh-cn/windows/dev-home/DevHome是微软为开发人员提供的可视化控制面板

Ubuntu Server 20.04 系统安装(四):深度学习 GPU 环境配置(CUDA12.2驱动+CUDA Toolkit 12.2+cuDNN v8.9.7)

引言本文以Ubuntu20.04操作系统为例,演示如何配置深度学习GPU环境。一、NVIDIA显卡驱动的安装访问如下网址https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=Ubuntu&target_version=20.04&target_type=runfile_local下载推荐的cuda并安装复制箭头所指处的命令到命令行wgethttps://developer.download.nvidia.com/compute/cuda/12.2.0/local_i

c++ - CMake + 库达 : compile cpp files in Cuda-mode (--x=cu)

假设我有一个文件,我们称它为foo.cpp,我的目标是在cuda模式下用nvcc编译这个文件。在命令行中,这可以通过调用轻松完成:nvcc--x=cufoo.cpp我正在苦苦挣扎的是让CMake做同样的事情。事实证明,CMake命令cuda_add_executable(foofoo.cpp)将过滤*.cpp文件并使用c++编译器(而不是nvcc)。请注意,将所有文件重命名为*.cu不是一种选择,因为代码库还必须支持非cuda构建。 最佳答案 在FindCUDAsourcecode我找到了一个选项来为特定的非.cu文件激活CUDA编

c++ - CUDA 动态并行,性能差

我们在使用CUDA动态并行时遇到了性能问题。目前,CDP的执行速度至少比传统方法慢3倍。我们做了最简单的可重现代码来展示这个问题,就是把一个数组的所有元素的值都增加+1。即,a[0,0,0,0,0,0,0,.....,0]-->kernel+1-->a[1,1,1,1,1,1,1,1,1]这个简单示例的目的只是为了查看CDP是否可以像其他的一样执行,或者是否存在严重的开销。代码在这里:#include#include#defineBLOCKSIZE512__global__voidkernel_parent(int*a,intn,intN);__global__voidkernel_s

c++ - CUDA : NVCC gives controlling expression is constant warning on assert

我在这样的断言语句中收到警告controllingexpressionisconstant:assert(...&&"errormessage");为什么要对这个断言发出警告?我怎样才能抑制这个警告?NVCC是NVIDIA的cuda编译器,我觉得是基于LLVM的。为什么它会发出此警告,而GCC或VisualC++编译器可以正常编译? 最佳答案 可移植的替代方案(可能包含在宏中)类似于:{constboolerror_message=true;assert([...]&&error_message);}澄清我的意思:#definemy

软链接到二进制始终使用HOME文件夹路径(而不是当前文件夹)

Kdevelop提供了这一点附属二进制:wget-OKDevelop.AppImagehttps://download.kde.org/stable/kdevelop/5.1.1/bin/linux/KDevelop-5.1.1-x86_64.AppImagechmod+xKDevelop.AppImage./KDevelop.AppImage它运行良好。所以我想建立一个称为的软链接kd到那个二进制/usr/bin,例如:/usr/bin/sudoln-sKDevelop-5.1.1-x86_64.AppImagekd现在如果我跑步kdfile1,我希望它会打开文件名file1在里面当前的文件

c++ - 你如何计算 nvidia(支持 cuda)的 gpu 卡上的负载?

我想知道如何在向卡发送任务时显示显卡能力的百分比。就像Gnome的系统监视器。此外,如何获取设备参数以根据其硬件规范计算百分比nvidia-smi-a如何获得利用率?是否有CudaAPI可以向卡询问此信息? 最佳答案 ProcessHacker这样做(这仅适用于Windows),但它不是特定于CUDA的。我知道它使用了一些未记录的函数——看看theplugin'ssourcecode了解具体方法。 关于c++-你如何计算nvidia(支持cuda)的gpu卡上的负载?,我们在StackO

c++ - Opencv 错误 : no GPU support (library is compiled without CUDA support)

我正在尝试使用CUDA在GPU上使用opencv处理一些图像处理任务。我正在使用ubuntu。我毫无问题地设置了我的两个产品Opencv和Cuda,我确信这一点。但是,当我尝试在eclipse中运行sampleCOde时,出现错误:OpenCV错误:在mallocPitch中没有GPU支持(库在没有CUDA支持的情况下编译),文件/home/muad/Source/OpenCV-2.4.2/modules/core/src/gpumat.cpp,第749行我重做了我的opencv,但我还是明白了。 最佳答案 如文档中所述,您必须使用

c++ - C/C++ 中的 STL、iostream、new、delete for CUDA

我可以在C/C++中为CUDA使用STL、iostream、new、delete吗? 最佳答案 如果您有Fermi级GPU(因此计算能力>=2.0),并且正在使用CUDA4.0或更高版本,那么new和delete都可以使用在设备代码中。不支持STL容器和算法以及iostream。如果您想对CUDA使用“类似STL”的操作,您可能会对Thrust感兴趣模板库。它允许主机代码使用容器类型透明地与GPU交互,并实现许多非常有用的数据并行原语,如排序、缩减和扫描。请注意,这仍然是主机端设备,不能在您自己的内核代码中使用Thrust及其容器。