草庐IT

Tensorflow-gpu

全部标签

简单介绍一下tensorflow与pytorch的相互转换(主要是tensorflow转pytorch)

本文以一段代码为例,简单介绍一下tensorflow与pytorch的相互转换(主要是tensorflow转pytorch),可能介绍的没有那么详细,仅供参考。由于本人只熟悉pytorch,而对tensorflow一知半解,而代码经常遇到tensorflow,而我希望使用pytorch,因此简单介绍一下tensorflow转pytorch,可能存在诸多错误,希望轻喷~目录1.变量预定义2.创建变量并初始化3.语句执行4.tensor5.其他函数1.变量预定义在TensorFlow的世界里,变量的定义和初始化是分开的。tensorflow中一般都是在开头预定义变量,声明其数据类型、形状等,在执行

python - TensorFlow - 导入元图并使用其中的变量

我正在使用TensorFlowv0.12训练分类CNN,然后想使用训练后的模型为新数据创建标签。在训练脚本的末尾,我添加了这些代码行:saver=tf.train.Saver()save_path=saver.save(sess,'/home/path/to/model/model.ckpt')训练完成后,文件夹中出现的文件有:1.checkpoint;2.model.ckpt.data-00000-of-00001;3.model.ckpt.index;4.模型.ckpt.meta然后我尝试使用.meta文件恢复模型。正在关注thistutorial,我在我的分类代码中添加了以下行:

python - 加速 GPU 与 CPU 矩阵运算

我想知道有多少GPU计算可以帮助我加快模拟速度。我的代码的关键部分是矩阵乘法。基本上,代码类似于以下python代码,其中包含1000阶矩阵和长for循环。importnumpyasnpm_size=1000sim_length=50a=np.random.rand(m_size,m_size)b=np.random.rand(m_size,m_size)forjinrange(sim_length):result=np.dot(a,b)注意:我的矩阵很密集,大部分是随机的,for循环是用cython编译的。我天真的猜测有两个因素:更多并行线程(当前为1阶线程,GPU为100阶线程?)

python - 无法获得 tensorflow DNNClassifier 的预测

我正在使用MNIST教程中的代码:feature_columns=[tf.contrib.layers.real_valued_column("",dimension=4)]classifier=tf.contrib.learn.DNNClassifier(feature_columns=feature_columns,hidden_units=[10,20,10],n_classes=2,model_dir="/tmp/iris_model")classifier.fit(x=np.array(train,dtype='float32'),y=np.array(y_tr,dtype=

python - 使用tensorflow对句子相似度建模

我正在尝试使用tensorflow对句子相似度进行建模。理想的是先将连接的句子提供给一个rnn,然后将rnn的输出提供给一个softmax来做二元分类,相似与否。我对PTBlanguagemodelexample做了一些减去改动,但成本不会像预期的那样降低。cost:0.694479cost:0.695012cost:0.6955...代码如下。任何形式的帮助将不胜感激。classPTBModel(object):"""ThePTBmodel."""def__init__(self,is_training,config):self.batch_size=batch_size=confi

python - 通过导出器和 tf.train.write_graph() 保存模型之间的 tensorflow 区别?

保存模型有什么区别使用tensorflowserving中指定的导出器:例如:fromtensorflow.contrib.session_bundleimportexporter#fromtensorflow_serving.session_bundleimportexportersaver=tf.train.Saver(sharded=True)model_exporter=exporter.Exporter(saver)model_exporter.init(sess.graph.as_graph_def(),named_graph_signatures={'inputs':ex

python - 检查 Tensorflow 中是否为 NaN

我想检查一个tensorflow变量,如果它是NaN,则将其设置为零。我该怎么做?以下技巧似乎不起作用:iftf.is_nan(v)isTrue:v=0.0 最佳答案 如果v是0d张量,您可以使用tf.where来测试和更新值:importnumpyasnpv=tf.constant(np.nan)#initializeavariableasnan​v=tf.where(tf.is_nan(v),0.,v)​withtf.Session()assess:print(sess.run(v))#0.0

python - Tensorflow:为什么在涉及应用渐变的步骤中使用 zip() 函数?

我正在完成优达学城深度学习类(class)的作业6。我不确定为什么在这些步骤中使用zip()函数来应用渐变。相关代码如下:#definethelossfunctionlogits=tf.nn.xw_plus_b(tf.concat(0,outputs),w,b)loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits,tf.concat(0,train_labels)))#Optimizer.global_step=tf.Variable(0)#staircase=Truemeansthatthelearnin

python - 无法加载 native TensorFlow 运行时。原因 : Image not found. 我做错了什么?

在配备四核I7和NVIDIAGeForceGT650M的MacbookPro上运行。从virtualenv运行Tensorflow时收到此错误消息。我做错了什么?我正在使用protobuf版本3.2.0{(tensorflow)m:srcsm$pythonPython2.7.10(default,Jul132015,12:05:58)[GCC4.2.1CompatibleAppleLLVM6.1.0(clang-602.0.53)]ondarwinType"help","copyright","credits"or"license"formoreinformation.>>>impor

python - 只能使用 TensorFlow 中处理梯度的代码示例来实现类似优化器的梯度下降吗?

我正在查看TensorFlow具有的用于处理梯度的示例代码:#Createanoptimizer.opt=GradientDescentOptimizer(learning_rate=0.1)#Computethegradientsforalistofvariables.grads_and_vars=opt.compute_gradients(loss,)#grads_and_varsisalistoftuples(gradient,variable).Dowhateveryou#needtothe'gradient'part,forexamplecapthem,etc.capped_