草庐IT

Tensorflow2

全部标签

检测安装Tensorflow后是否成功调用GPU

在安装好tensorflow及其相关部件后,我们可以通过以下方法去检测Tensorflow是否成功调用了GPU。 目录本人配置注明:检测Tensorflow是否调用GPU方法一方法二本人配置注明:本人tensorflow、CuDA等部件版本如下:Tensorflow2.7.0Python3.7.11关于各部件版本对应问题,我会尽快发帖说明。检测Tensorflow是否调用GPU方法一输入以下命令:importtensorflow.compat.v1astfsess=tf.Session(config=tf.ConfigProto(log_device_placement=True))[!!!此

python - Tensorflow:尝试使用未初始化的值 beta1_power

当我尝试运行帖子末尾的代码时出现以下错误。但是我不清楚我的代码有什么问题。谁能告诉我调试tensorflow程序的技巧?$./main.pyExtracting/tmp/data/train-images-idx3-ubyte.gzExtracting/tmp/data/train-labels-idx1-ubyte.gzExtracting/tmp/data/t10k-images-idx3-ubyte.gzExtracting/tmp/data/t10k-labels-idx1-ubyte.gz2017-12-1122:53:16.061163:Itensorflow/core/p

python - Tensorflow:尝试使用未初始化的值 beta1_power

当我尝试运行帖子末尾的代码时出现以下错误。但是我不清楚我的代码有什么问题。谁能告诉我调试tensorflow程序的技巧?$./main.pyExtracting/tmp/data/train-images-idx3-ubyte.gzExtracting/tmp/data/train-labels-idx1-ubyte.gzExtracting/tmp/data/t10k-images-idx3-ubyte.gzExtracting/tmp/data/t10k-labels-idx1-ubyte.gz2017-12-1122:53:16.061163:Itensorflow/core/p

python - Tensorflow - 从 int 转换为 float 奇怪的行为

我正在处理tensorflow0.12,但在转换时遇到问题。下面的代码片段做了一件奇怪的事情:sess=tf.InteractiveSession()a=tf.constant(1)b=tf.cast(a,tf.float32)printb.eval()我得到一个值:6.86574233e-36我还尝试使用tf.to_float()和tf.saturate_cast。两者都给出了相同的结果。请帮忙。 最佳答案 sess=tf.InteractiveSession()a=tf.constant(1,tf.int64)您需要为您的tf.

python - Tensorflow - 从 int 转换为 float 奇怪的行为

我正在处理tensorflow0.12,但在转换时遇到问题。下面的代码片段做了一件奇怪的事情:sess=tf.InteractiveSession()a=tf.constant(1)b=tf.cast(a,tf.float32)printb.eval()我得到一个值:6.86574233e-36我还尝试使用tf.to_float()和tf.saturate_cast。两者都给出了相同的结果。请帮忙。 最佳答案 sess=tf.InteractiveSession()a=tf.constant(1,tf.int64)您需要为您的tf.

python - tensorflow 服务器 : I don't want to initialize global variables for every session

EDIT2:下面的Github链接包含从进程调用TF模型的问题的可能解决方案。它们包括即时执行和专用服务器进程,通过http请求为TF模型预测提供服务。我想知道与每次初始化全局变量并调用tf.train.Server相比,使用自定义服务器和请求我是否可以随时获胜,但它似乎是更优雅的方式。我将调查内存泄漏,如果它消失了,请关闭此问题。编辑:添加了问题的简单可重现示例:https://github.com/hcl14/Tensorflow-server-launched-from-child-process背景:我正在运行Tensorflow服务器,并从“fork”进程连接到它。动态创建(

python - tensorflow 服务器 : I don't want to initialize global variables for every session

EDIT2:下面的Github链接包含从进程调用TF模型的问题的可能解决方案。它们包括即时执行和专用服务器进程,通过http请求为TF模型预测提供服务。我想知道与每次初始化全局变量并调用tf.train.Server相比,使用自定义服务器和请求我是否可以随时获胜,但它似乎是更优雅的方式。我将调查内存泄漏,如果它消失了,请关闭此问题。编辑:添加了问题的简单可重现示例:https://github.com/hcl14/Tensorflow-server-launched-from-child-process背景:我正在运行Tensorflow服务器,并从“fork”进程连接到它。动态创建(

python - 当 state_is_tuple=True 时如何设置 TensorFlow RNN 状态?

我写了一个RNNlanguagemodelusingTensorFlow.该模型作为RNN类实现。图结构在构造函数中构建,而RNN.train和RNN.test方法运行它。当我移动到训练集中的新文档时,或者当我想在训练期间运行验证集时,我希望能够重置RNN状态。我通过管理训练循环内的状态,通过提要字典将其传递到图中来做到这一点。在构造函数中,我这样定义RNNcell=tf.nn.rnn_cell.LSTMCell(hidden_units)rnn_layers=tf.nn.rnn_cell.MultiRNNCell([cell]*layers)self.reset_state=rnn_

python - 当 state_is_tuple=True 时如何设置 TensorFlow RNN 状态?

我写了一个RNNlanguagemodelusingTensorFlow.该模型作为RNN类实现。图结构在构造函数中构建,而RNN.train和RNN.test方法运行它。当我移动到训练集中的新文档时,或者当我想在训练期间运行验证集时,我希望能够重置RNN状态。我通过管理训练循环内的状态,通过提要字典将其传递到图中来做到这一点。在构造函数中,我这样定义RNNcell=tf.nn.rnn_cell.LSTMCell(hidden_units)rnn_layers=tf.nn.rnn_cell.MultiRNNCell([cell]*layers)self.reset_state=rnn_

python - Tensorflow:tf.nn.conv2d 实际执行在哪里?

我很好奇tf.nn.conv2d(...)的Tensorflow实现。要调用它,只需运行tf.nn.conv2d(...)。但是,我正在尝试查看它的执行位置。代码如下(其中箭头表示最终调用的函数):tf.nn.conv2d(...)->tf.nn_ops.conv2d(...)->tf.gen_nn_ops.conv2d(...)->_op_def_lib.apply_op("Conv2D",...)->?我熟悉Tensorflow的LSTM实现以及根据需要轻松操作它们的能力。执行conv2d()计算的函数是用Python编写的吗?如果是,它在哪里?我可以看到在何处以及如何执行步幅吗?