草庐IT

Tensorflow-gpu

全部标签

python - 如何调试 model.fit() 中的 Tensorflow 段错误?

我正在尝试运行KerasMINSTexample在Geforce2080上使用tensorflow-gpu。我的环境是Linux系统上的Anaconda。我正在从命令行pythonsession运行未修改的示例。我得到以下输出:UsingTensorFlowbackend.Devicemapping:/job:localhost/replica:0/task:0/device:GPU:0->device:0,name:GeForceRTX2080,pcibusid:0000:01:00.0,computecapability:7.5x_trainshape:(60000,28,28,1

python - tf.control_dependencies(tf.get_collection(tf.GraphKeys.UPDATE_OPS)) 在 tensorflow 中

tensorflow中tf.control_dependencies(tf.get_collection(tf.GraphKeys.UPDATE_OPS))的目的是什么?更多上下文:optimizer=tf.train.AdamOptimizer(FLAGS.learning_rate)withtf.control_dependencies(tf.get_collection(tf.GraphKeys.UPDATE_OPS)):train_op=optimizer.minimize(loss_fn,var_list=tf.trainable_variables())

抢占GPU的脚本

前言同样的,这篇博客也源自于我在做组内2030项目所产生的结果。当时,5个硕士生需要进行类似的微调工作,偶尔还会有博士生使用服务器上的GPU,但服务器上仅有8块GPU。因此,如何快速抢占到\(n\)块GPU,从而高效完成手里的工作,便是一个很重要的问题啦~^ _ ^问题我首先在网上看了下现有的抢GPU的脚本,但发现简单的脚本要么只能抢1块GPU,要么是一个复杂项目操作起来较麻烦。于是便萌生了自己写个Python脚本,这样以后凡是涉及到需要抢GPU的场景,我都可以通过运行该脚本抢占到\(n\)块GPU后,便开始我的模型训练或是其他。这样一种一劳永逸的工作,何乐而不为呢?闲话少叙,下面开始介绍实现

python - tensorflow 中的矩阵行列式微分

我对使用TensorFlow计算矩阵行列式的导数很感兴趣。我通过实验可以看出,TensorFlow并没有实现通过行列式求微分的方法:LookupError:Nogradientdefinedforoperation'MatrixDeterminant'(optype:MatrixDeterminant)进一步调查表明,实际上可以计算导数;参见例如Jacobi'sformula.我确定,为了实现这种通过行列式进行区分的方法,我需要使用函数装饰器,@tf.RegisterGradient("MatrixDeterminant")def_sub_grad(op,grad):...但是,我对t

python - 如何计算 Theano 中的 GPU 内存使用情况?

我正在试验不同的Theano模型,并使用序列长度不断增加的类(class)。我如何才能提前预测对于任何给定的序列长度和模型,批量大小要有多大才能填满GPU的内存?更糟糕的是,如果我不小心使用了太多内存,我会得到一个MemoryError并且GPU上的内存没有被释放,要求我重新启动进程以释放内存,并失去我的网络,然后再尝试新的批量大小。因为这个错误是不可恢复的,所以很难只增加批处理大小直到出现异常然后退缩。 最佳答案 假设您知道要存储在GPU上的元素数量,您可以轻松计算出存储这些元素所需的内存量。一个简单的例子:importnumpy

python - nvcc 致命 : Value 'sm_61' is not defined for option 'gpu-architecture' error with theano

我正在设置python和theano以便与gpu一起使用;Ubuntu14.04,GeForceGTX1080已经为系统成功安装了NVIDIA驱动程序(367.27)和CUDA工具包(7.5),但是在使用theanogpu实现进行测试时,我得到了上述错误(例如;在启用gpu的情况下导入theano时)我试图寻找可能的解决方案但没有成功。我对ubuntu和gpu编程有点陌生,所以如果能深入了解如何解决这个问题,我将不胜感激。谢谢 最佳答案 正如RobertCrovella所说,SM6.1(sm_61)仅在CUDA8.0及更高版本中受支

python - 使用数据集 API 在 Tensorflow 中滑动批处理窗口

有没有办法在批处理中修改我的图像的构图?目前,当我正在创建例如大小为4的批处理,我的批处理将如下所示:第1批:[Img0Img1Img2Img3]第2批:[Img4Img5Img6Img7]我需要修改我的批处理的组成,以便它只转移一次到下一张图像。那么它应该是这样的:第1批:[Img0Img1Img2Img3]第2批:[Img1Img2Img3Img4]第3批:[Img2Img3Img4Img5]第4批:[Img3Img4Img5Img6]第5批:[Img4Img5Img6Img7]我在我的代码中使用了Tensorflow的数据集API,如下所示:deftfrecords_train_

Anaconda下的tensorflow-gpu2.6.0安装使用

引言:本次安装全部是在window下安装的虚拟环境,电脑显卡为1650ti,给相同配置的朋友一点参考,也给自己记录一下整体过程。1.创建虚拟环境在已经安装anaconda的情况下,搜索点开anacondaprompt创建python版本为3.9.0的虚拟环境用于搭建tensorflow框架,命令格式condacreate-nnamepython=x.x.x,我的命令condacreate-ntensorflow2.6.0python=3.9.0,这里安装其他版本的python也可以只要和tensorflow安装版本兼容即可。activatetensorflow2.6.0激活,要进入到tenso

python - 如何在 TensorFlow 中实现递归神经网络?

是否有某种方法可以像[Socheretal.2011]中那样实现递归神经网络?使用tensorflow?请注意,这与TensorFlow很好地支持的递归神经网络不同。不同的是,网络不是复制成线性操作序列,而是复制成树状结构。我想象我可以使用Whileop为我的数据集的每个条目构造类似于树数据结构的广度优先遍历。也许可以在TensorFlow中将树遍历实现为一个新的C++操作,类似于While(但更通用)? 最佳答案 你的猜测是正确的,你可以使用tf.while_loop和tf.cond来表示静态图中的树结构。更多信息:https:/

python - sess.run 中的 Tensorflow 不可散列类型 'list'

这些帖子确实有数千篇,但我还没有看到一篇能解决我的确切问题的帖子。如果存在,请随时关闭。我知道列表在Python中是可变的。因此,我们不能将列表存储为字典中的键。我有以下代码(因为不相关而省略了很多代码):withtf.Session()assess:sess.run(init)step=1whilestep*batch_sizetrain_x是一个[batch_size,num_features]numpy矩阵train_y是一个[batch_size,num_results]numpy矩阵我的图表中有以下占位符:x=tf.placeholder(tf.float32,shape=(