TLDR; for the ones that wants to avoid reading the whole story: Is there a way to interface RcppArmadillo with NVBLAS to make use of the GPU, much more like you'd do to interface Armadillo with NVBLAS using pure c++ code without R?
我正在尝试利用 NVBLAS 库 ( http://docs.nvidia.com/cuda/nvblas/ ) 通过将一些计算转移到 GPU 来加速我项目中的线性代数部分(主要是计算统计、MCMC、粒子过滤器和所有这些好东西) .
我主要使用 C++ 代码,尤其是用于矩阵计算的 Armadillo 库,通过他们的常见问题解答,我了解到我可以通过以正确的方式链接 armadillo (http://arma.sourceforge.net/faq.html) 来使用 NVBLAS。
所以我设置了我的库安装并编写了以下虚拟程序:
#include <armadillo>
int main(){
arma::mat A = arma::randn<arma::mat>(3000,2000);
arma::mat B = cov(A);
arma::vec V = arma::randn(2000);
arma::mat C; arma::mat D;
for(int i = 0; i<20; ++i){ C = solve(V,B); D = inv(B); }
return 0;
}
编译它
g++ arma_try.cpp -o arma_try.so -larmadillo
并用
对其进行剖析nvprof ./arma_try.so
探查器输出显示:
==11798== Profiling application: ./arma_try.so
==11798== Profiling result:
Time(%) Time Calls Avg Min Max Name
72.15% 4.41253s 580 7.6078ms 1.0360ms 14.673ms void magma_lds128_dgemm_kernel<bool=0, bool=0, int=5, int=5, int=3, int=3, int=3>(int, int, int, double const *, int, double const *, int, double*, int, int, int, double const *, double const *, double, double, int)
20.75% 1.26902s 1983 639.95us 1.3440us 2.9929ms [CUDA memcpy HtoD]
4.06% 248.17ms 1 248.17ms 248.17ms 248.17ms void fermiDsyrk_v2_kernel_core<bool=1, bool=1, bool=0, bool=1>(double*, int, int, int, int, int, int, double const *, double const *, double, double, int)
1.81% 110.54ms 1 110.54ms 110.54ms 110.54ms void fermiDsyrk_v2_kernel_core<bool=0, bool=1, bool=0, bool=1>(double*, int, int, int, int, int, int, double const *, double const *, double, double, int)
1.05% 64.023ms 581 110.19us 82.913us 12.211ms [CUDA memcpy DtoH]
0.11% 6.9438ms 1 6.9438ms 6.9438ms 6.9438ms void gemm_kernel2x2_tile_multiple_core<double, bool=1, bool=0, bool=0, bool=1, bool=0>(double*, double const *, double const *, int, int, int, int, int, int, double*, double*, double, double, int)
0.06% 3.3712ms 1 3.3712ms 3.3712ms 3.3712ms void gemm_kernel2x2_core<double, bool=0, bool=0, bool=0, bool=1, bool=0>(double*, double const *, double const *, int, int, int, int, int, int, double*, double*, double, double, int)
0.02% 1.3192ms 1 1.3192ms 1.3192ms 1.3192ms void syherk_kernel_core<double, double, int=256, int=4, bool=1, bool=0, bool=0, bool=1, bool=0, bool=1>(cublasSyherkParams<double, double>)
0.00% 236.03us 1 236.03us 236.03us 236.03us void syherk_kernel_core<double, double, int=256, int=4, bool=0, bool=0, bool=0, bool=1, bool=0, bool=1>(cublasSyherkParams<double, double>)
我认出了 dgemm 和其他人……所以它在工作!太棒了。
现在我想运行相同的代码但与 R 接口(interface),因为我有时需要进行输入/输出并使用它进行绘图。 RcppArmadillo 一直为我创造奇迹,与 Rcpp 一起提供我需要的所有工具。我因此编写了 cpp:
#include <RcppArmadillo.h>
// [[Rcpp::depends(RcppArmadillo)]]
// [[Rcpp::export]]
int arma_call(){
arma::mat A = arma::randn<arma::mat>(3000,2000);
arma::mat B = cov(A);
arma::vec V = arma::randn(2000);
arma::mat C; arma::mat D;
for(int i = 0; i<20; ++i){ C = solve(V,B); D = inv(B); }
return 0;
}
和 R 脚本:
Rcpp::sourceCpp('arma_try_R.cpp')
arma_call()
并尝试通过在控制台上运行来执行它
nvprof R CMD BATCH arma_try_R.R
(编辑:注意使用 Rscript 而不是 R CMD BATCH 产生相同的结果)但是
[NVBLAS] Cannot open default config file 'nvblas.conf'
奇怪...也许 R 出于某种原因无法访问该文件,所以我将其复制到工作目录并重新运行代码:
==12662== NVPROF is profiling process 12662, command: /bin/sh /usr/bin/R CMD BATCH arma_try_R.R
==12662== Profiling application: /bin/sh /usr/bin/R CMD BATCH arma_try_R.R
==12662== Profiling result: No kernels were profiled.
我不知道是什么原因造成的。 不过,我在安装了 Bumblebee 的 Linux 系统上,所以作为最后的机会,我尝试了:
nvprof optirun R CMD BATCH arma_try_R.R
强制 R 使用 Nvidia 卡运行,这次输出是
==10900== Profiling application: optirun R CMD BATCH arma_try_R.R
==10900== Profiling result:
Time(%) Time Calls Avg Min Max Name
100.00% 1.3760us 1 1.3760us 1.3760us 1.3760us [CUDA memcpy HtoD]
所以根本没有调用 cuda 库,也没有任何计算委托(delegate)给 GPU,据我所知,使用分析器。 现在问题其实很多,不只是一个。
这是因为代码在 R 中编译的方式吗?详细模式显示
/usr/lib64/R/bin/R CMD SHLIB -o 'sourceCpp_27457.so' --preclean 'arma_try_R.cpp'
g++ -I/usr/include/R/-DNDEBUG -D_FORTIFY_SOURCE=2 -I"/home/marco/R/x86_64-unknown-linux-gnu-library/3.2/Rcpp/include"-I "/home/marco/R/x86_64-unknown-linux-gnu-library/3.2/RcppArmadillo/include"-I"/home/marco/prova_cuda"-fpic -march=x86-64 -mtune=generic -O2 -pipe -fstack-protector-strong --param=ssp-buffer-size=4 -c arma_try_R.cpp -o arma_try_R.o
g++ -shared -L/usr/lib64/R/lib -Wl,-O1,--sort-common,--as-needed,-z,relro -lblas -llapack -o sourceCpp_27457.so arma_try_R.o -llapack -lblas -lgfortran -lm -lquadmath -L/usr/lib64/R/lib -lR
即使我强制使用 -larmadillo 而不是 -lblas 标志(通过 PKG_LIBS 环境变量)也没有任何改变。
如果您需要更多输出,我可以提供所需的内容,无论如何感谢您阅读到这里!
编辑:
ldd /usr/lib/R/lib/libR.so
[NVBLAS] Using devices :0
linux-vdso.so.1 (0x00007ffdb5bd6000)
/opt/cuda/lib64/libnvblas.so (0x00007f4afaccd000)
libblas.so => /usr/lib/libblas.so (0x00007f4afa6ea000)
libm.so.6 => /usr/lib/libm.so.6 (0x00007f4afa3ec000)
libreadline.so.6 => /usr/lib/libreadline.so.6 (0x00007f4afa1a1000)
libpcre.so.1 => /usr/lib/libpcre.so.1 (0x00007f4af9f31000)
liblzma.so.5 => /usr/lib/liblzma.so.5 (0x00007f4af9d0b000)
libbz2.so.1.0 => /usr/lib/libbz2.so.1.0 (0x00007f4af9afa000)
libz.so.1 => /usr/lib/libz.so.1 (0x00007f4af98e4000)
librt.so.1 => /usr/lib/librt.so.1 (0x00007f4af96dc000)
libdl.so.2 => /usr/lib/libdl.so.2 (0x00007f4af94d7000)
libgomp.so.1 => /usr/lib/libgomp.so.1 (0x00007f4af92b5000)
libpthread.so.0 => /usr/lib/libpthread.so.0 (0x00007f4af9098000)
libc.so.6 => /usr/lib/libc.so.6 (0x00007f4af8cf3000)
/usr/lib64/ld-linux-x86-64.so.2 (0x0000556509792000)
libcublas.so.7.5 => /opt/cuda/lib64/libcublas.so.7.5 (0x00007f4af7414000)
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x00007f4af7092000)
libgcc_s.so.1 => /usr/lib/libgcc_s.so.1 (0x00007f4af6e7b000)
libncursesw.so.6 => /usr/lib/libncursesw.so.6 (0x00007f4af6c0e000)
所以除了奇怪的 [NVBLAS] Using devices :0 似乎至少 R 知道 cuda nvblas 库......
最佳答案
回答我自己的问题:是的,有可能并且足以使 R 指向正确的 (NV)BLAS 库,RcppArmadillo 将在正确的位置获取例程(您可能想阅读 Dirk Eddelbuettel 对问题看看为什么)
现在我的问题的细节和 self 回答的原因:
我认为问题出在我认为的地方。
当在另一个终端上运行 nvidia-smi 而不是运行 Rscript arma_try_R.R 时,我得到例如
+------------------------------------------------------+
| NVIDIA-SMI 352.41 Driver Version: 352.41 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 860M Off | 0000:01:00.0 Off | N/A |
| N/A 64C P0 N/A / N/A | 945MiB / 2047MiB | 21% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 20962 C /usr/lib64/R/bin/exec/R 46MiB |
| 0 21598 C nvidia-smi 45MiB |
+-----------------------------------------------------------------------------+
意味着 GPU 确实在工作!
因此问题出在 nvprof 例程中,它无法检测到它并且有时会卡住我的 Rscript。但这是另一个完全不相关的问题。
(我等着采纳为答案看有没有人来更巧妙的解决...)
关于c++ - Armadillo+NVBLAS 变成 RcppArmadillo+NVBLAS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32679582/
我的瘦服务器配置了nginx,我的ROR应用程序正在它们上运行。在我发布代码更新时运行thinrestart会给我的应用程序带来一些停机时间。我试图弄清楚如何优雅地重启正在运行的Thin实例,但找不到好的解决方案。有没有人能做到这一点? 最佳答案 #Restartjustthethinserverdescribedbythatconfigsudothin-C/etc/thin/mysite.ymlrestartNginx将继续运行并代理请求。如果您将Nginx设置为使用多个上游服务器,例如server{listen80;server
如何将send与+=一起使用?a=20;a.send"+=",10undefinedmethod`+='for20:Fixnuma=20;a+=10=>30 最佳答案 恐怕你不能。+=不是方法,而是语法糖。参见http://www.ruby-doc.org/docs/ProgrammingRuby/html/tut_expressions.html它说Incommonwithmanyotherlanguages,Rubyhasasyntacticshortcut:a=a+2maybewrittenasa+=2.你能做的最好的事情是:
我对如何计算通过{%assignvar=0%}赋值的变量加一完全感到困惑。这应该是最简单的任务。到目前为止,这是我尝试过的:{%assignamount=0%}{%forvariantinproduct.variants%}{%assignamount=amount+1%}{%endfor%}Amount:{{amount}}结果总是0。也许我忽略了一些明显的东西。也许有更好的方法。我想要存档的只是获取运行的迭代次数。 最佳答案 因为{{incrementamount}}将输出您的变量值并且不会影响{%assign%}定义的变量,我
我有一个数组数组,想将元素附加到子数组。+=做我想做的,但我想了解为什么push不做。我期望的行为(并与+=一起工作):b=Array.new(3,[])b[0]+=["apple"]b[1]+=["orange"]b[2]+=["frog"]b=>[["苹果"],["橙子"],["Frog"]]通过推送,我将推送的元素附加到每个子数组(为什么?):a=Array.new(3,[])a[0].push("apple")a[1].push("orange")a[2].push("frog")a=>[[“苹果”、“橙子”、“Frog”]、[“苹果”、“橙子”、“Frog”]、[“苹果”、“
有没有办法让Ruby能够做这样的事情?classPlane@moved=0@x=0defx+=(v)#thisiserror@x+=v@moved+=1enddefto_s"moved#{@moved}times,currentxis#{@x}"endendplane=Plane.newplane.x+=5plane.x+=10putsplane.to_s#moved2times,currentxis15 最佳答案 您不能在Ruby中覆盖复合赋值运算符。任务在内部处理。您应该覆盖+,而不是+=。plane.a+=b与plane.a=
出于某种原因,heroku尝试要求dm-sqlite-adapter,即使它应该在这里使用Postgres。请注意,这发生在我打开任何URL时-而不是在gitpush本身期间。我构建了一个默认的Facebook应用程序。gem文件:source:gemcuttergem"foreman"gem"sinatra"gem"mogli"gem"json"gem"httparty"gem"thin"gem"data_mapper"gem"heroku"group:productiondogem"pg"gem"dm-postgres-adapter"endgroup:development,:t
我是Ruby和这个网站的新手。下面两个函数是不同的,一个在函数外修改变量,一个不修改。defm1(x)x我想确保我理解正确-当调用m1时,对str的引用被复制并传递给将其视为x的函数。运算符当调用m2时,对str的引用被复制并传递给将其视为x的函数。运算符+创建一个新字符串,赋值x=x+"4"只是将x重定向到新字符串,而原始str变量保持不变。对吧?谢谢 最佳答案 String#+::str+other_str→new_strConcatenation—ReturnsanewStringcontainingother_strconc
我正在使用PostgreSQL9.1.3(x86_64-pc-linux-gnu上的PostgreSQL9.1.3,由gcc-4.6.real(Ubuntu/Linaro4.6.1-9ubuntu3)4.6.1,64位编译)和在ubuntu11.10上运行3.2.2或3.2.1。现在,我可以使用以下命令连接PostgreSQLsupostgres输入密码我可以看到postgres=#我将以下详细信息放在我的config/database.yml中并执行“railsdb”,它工作正常。开发:adapter:postgresqlencoding:utf8reconnect:falsedat
这是我在ChefRecipe中的一blockRuby:#ifdatadirdoesn'texist,moveoverthedefaultoneif!File.exist?("/vol/postgres/data")execute"mv/var/lib/postgresql/9.1/main/vol/postgres/data"end结果是:Executingmv/var/lib/postgresql/9.1/main/vol/postgres/datamv:inter-devicemovefailed:`/var/lib/postgresql/9.1/main'to`/vol/post
我有一个Ruby文件,我将它作为rubyfile.rb"parameters"运行。我更喜欢将它作为regtask参数运行,而不必每次都包含ruby和文件名。我希望它与ls处于同一级别。我将如何做到这一点? 最佳答案 编辑你的文件,确保这是第一行,这样你的系统就知道如何执行你的文件:#!/usr/bin/envruby接下来,更改文件的权限以使其可执行:chmoda+xfile.rb最后,重命名并将其移动到将要执行的位置,而无需编写其完整路径:mkdir-p~/binmvfile.rb~/bin/regtask(如果~/bin存在,