草庐IT

pytorch-gpu-cuda

全部标签

linux - 如何在 Windows 上的 Visual Studio 中编写 CUDA 并将其部署到 Linux?

我正在协助一位教授为并行编程类(class)设置一个实验室。该过程如下:一名学生登录运行Windows7的虚拟机。这台机器没有可用的GPU。它安装了7.5版的CUDA工具包以及VisualStudio2013。学生应该使用VisualStudio编写他们的CUDA程序/项目。为了测试/运行这些项目,学生可以远程访问相当高端的机器。我没有物理访问它的权限,但从我使用命令行可以看出,它有四个NVIDIATeslaM40。学生可以通过SSH远程访问这台机器。但是,问题是这台机器运行的是Linux(Ubuntu14.04.5)。我正在尝试弄清楚如何将学生在Windows上的VisualStud

WIndows10系统 安装Anaconda、Pycharm以及Pytorch环境(NVIDIA GPU版本)

1.判断电脑是否具有GPU打开电脑任务管理器,进入性能选项,看是否有带有Nvidia的GPU的标识或者,在桌面点击鼠标右键,看见NVIDIA控制面板也是可以的2.安装Anaconda进入Anaconda的官方网站Anaconda官网网站会自动识别用户的系统,我的电脑是Windows系统,直接点击Download下载即可。下载完成后安装即可。👆安装路径建议使用全英文路径(所有软件的安装皆建议如此)安装完成👆检查是否安装成功👆,出现base标识代表基本虚拟环境已经安装完成。或者在AnacondaNAVIGATOR中的Environment看见base环境也是可以的👇3.创建虚拟环境3.1利用con

windows - Windows 上的 CUDA 安装

我在没有nvidia显卡的Windows7上安装了CUDAToolkit3.2、CUDASDK和MSVisualStudio2008(不一定按此顺序)。但是当我尝试运行我的CUDA代码时,无法识别CUDA关键字。我是初学者。请告诉我我在这里做错了什么。谢谢 最佳答案 您正在使用nvcc进行构建吗?否则,VisualC++将因特定于CUDA的语法而窒息。 关于windows-Windows上的CUDA安装,我们在StackOverflow上找到一个类似的问题:

c++ - 检查 CUDA 存在的程序需要 CUDA?

我编写了一个简单的应用程序来检查计算机上是否有NVIDIACUDA。如果找到支持CUDA的设备,它只会显示true。我将应用程序发送到第二台PC,但应用程序没有运行-出现一个对话框,提示未找到cudart.dll。我想检查CUDA是否存在,它需要CUDA来做:)我正在使用CUDA5.0、VS2012、VC++11、Windows7。我能否以所有CUDA库都在可执行文件中的方式编译应用程序?所以场景是:我的应用已编译并发送到计算机计算机可以:正在运行windows、linux(我的应用程序与系统兼容)是否有GPU有没有nvidiaGPU是否安装了CUDA只有当2.3和2.4为正时(GPU

Ubuntu更新显卡驱动与升级cuda版本“采坑“小记

1.写在前面这次记录下今天安装百度的自动驾驶框架Apollo的时候,在硬件环境上采的一些坑,花费了5个多小时的时间,才把Apollo框架装上且能正常使用GPU,通过今天的摸索,让我对Cuda升级和显卡驱动等有了一定的了解。关于Apollo框架的安装过程,可以直接见官网我直接按照这个步骤来的,一开始是直接按照官网上说的步骤来的,不过之前由于实验室服务器上都装好了cuda等,所以这步跳了过去。从docker这里开始。把前面的基础工作弄完之后,然后开始安装Apollo,这个也没费多大劲,装完。然后apollo项目主目录,通过命令./apollo.sh拉镜像建容器然后启动,本以为大功告成,结果到最后告

最新阿里云服务器和GPU服务器长期优惠活动价格表

阿里云服务器优惠活动是长期的,在12月优惠活动大促期间云服务器价格会有所调整,主机教程网现在给大家分享最新的阿里云服务器优惠活动价格表。现在阿里云双十一优惠活动刚刚结束,随之而来的就是双12优惠活动,关于阿里云服务器、对象存储OSS、无影云桌面、阿里云商标、域名注册等常见云产品阿里云官网均是有活动:阿里云双12优惠活动页面,活动页面的云服务器配置及价格是随着时间动态调整的,大家请以活动页面为准。 另外,大家可以点击领取阿里云专属的代金券,符合条件的订单可以抵扣,可以省不少钱!1、阿里云服务器优惠价格表如下:云服务器ECS规格CPU内存公网带宽系统盘优惠价格云服务器S61核1G1M带宽20~40

windows - cuda nvcc 交叉编译器

我想在Mac上编译CUDA代码,但使其在Windows上可执行。有没有办法设置nvccCUDA交叉编译器?问题是由于旅行,我的桌面窗口将有一段时间无法访问,但是我不想浪费时间等待我回来编译代码。如果我必须等待,那么调试代码并确保它编译正确等等都是浪费时间。不过,我的Mac没有配备支持cuda的硬件。 最佳答案 简短的回答是,不,这是不可能的。这是一个常见的误解,但nvcc实际上并不是一个编译器。它是一个编译器驱动程序,并且在很大程度上依赖于主机C++编译器来引导主机和设备代码的编译。要为Windows编译CUDA,您必须使用Micr

windows - 为什么带有 TensorFlow 的 Keras 没有使用所有 GPU 内存

我在Windows10中使用Keras2.0.8和TensorFlow1.3.0。你知道为什么不使用所有内存吗?或者至少接近它。当我开始运行一个进程时的输出:Founddevice0withproperties:name:GeForceGTX1060major:6minor:1memoryClockRate(GHz)1.6705pciBusID0000:01:00.0Totalmemory:6.00GiBFreememory:4.96GiB在此示例中(当它因OOM而崩溃时)显示限制为5GB而不是6GB。为什么?Limit:5016036966InUse:5008119296MaxInU

visual-studio-2013 - 如何在 Visual Studio 中将英特尔 C++ 编译器 icl 指定为 CUDA 项目的主机编译器

在visualstudio的CUDA项目的projectpropertiespage里,好像有自定义hostcompiler的选项。但是在我选择了intelC++编译器之后,-ccbin选项仍然指向cl.exe。selectingintelC++compilerastheplatformtoolsetthe-ccbinoptionstillpointstocl.exe据我所知,在windows环境下,CUDA项目的默认主机编译器是cl.exe,以下帖子证实cl.exe是windwos上的唯一选项。但这些都是很久以前的事了,我想再问一次,是否仍然如此,或者我们现在使用不同的主机编译器?I

python - 通过 WMI 确定正在运行的 GPU

我正在尝试编写一个python脚本来确定当前正在运行哪个GPU(专用或集成)。到目前为止,我已经设法通过运行dxdiag并解析每个gpu设备模式的输出使其工作,但这花费的时间太长了。有谁知道dxdiag如何获取此信息?有没有办法通过Windows管理工具获取信息?任何帮助表示赞赏。谢谢 最佳答案 DXDiag大多数可能从WMI表中获取数据。不过我需要确认一下。wmicPATHWin32_VideoControllerGETAdapterram将为您提供您正在寻找的信息。如果您想了解更多信息,请运行下面提到的命令。wmicPATHWi