草庐IT

tf.gather

全部标签

python - 如何在Tensorflow中的tf.estimator上使用tensorflow调试工具tfdbg?

我正在使用Tensorflow1.4版,我想调试我的train()函数。在此链接中https://www.tensorflow.org/programmers_guide/debugger#debugging_tf-learn_estimators_and_experimentstf.contrib.learnEstimators有一种方法可以做到这一点,但我找不到一种方法来使其适应(1.4版中的新功能)tf.estimator.这是我试过的:fromtensorflow.pythonimportdebugastf_debug#Createanestimatormy_estimator

python - TensorFlow tf.data.Dataset 和分桶

对于LSTM网络,我看到分桶有很大的改进。我遇到了bucketingsectionintheTensorFlowdocs哪个(tf.contrib)。虽然在我的网络中,我使用的是tf.data.DatasetAPI,特别是我正在使用TFRecords,所以我的输入管道看起来像这样dataset=tf.data.TFRecordDataset(TFRECORDS_PATH)dataset=dataset.map(_parse_function)dataset=dataset.map(_scale_function)dataset=dataset.shuffle(buffer_size=1

python - 为什么 tf.Print() 不在 tensorflow 中打印

下面的代码没有给出任何错误,但也没有打印张量。importtensorflowastfimportnumpyasnp#Sometensorwewanttoprintthevalueofx=tf.placeholder(tf.float32,shape=[2,2,2])a=np.array([[[1.,1.],[1.,1.]],[[2.,2.],[2.,2.]]])m=tf.Print(x,[x])withtf.Session()assess:sess.run(tf.initialize_all_variables())m_eval=m.eval(session=sess,feed_di

python - OpenCV图像处理和tf.image处理的区别

我最近停止使用OpenCV来处理Tensorflow的tf.image图像处理模块。但是,我的验证准确率下降了大约10%。我认为这个问题与cv2.imread()对比tf.image.decode_jpeg()cv2.resize()对比tf.image.resize_images()虽然这些差异会导致更差的准确性,但使用plt.imshow()时,图像似乎无法由人类区分。例如,使用ImageNet验证数据集的图像#1:第一期:cv2.imread()接受一个字符串并输出一个BGR3channeluint8矩阵tf.image_decode_jpeg()接受一个字符串张量并输出一个RG

python - 当未启用急切执行时,张量对象不可迭代。要迭代此张量,请使用 tf.map_fn

我正在尝试创建自己的损失函数:defcustom_mse(y_true,y_pred):tmp=10000000000a=list(itertools.permutations(y_pred))foriinrange(0,len(a)):t=K.mean(K.square(a[i]-y_true),axis=-1)ift它应该创建预测向量的排列,并返回最小的损失。"Tensorobjectsarenotiterablewheneagerexecutionisnot"TypeError:Tensorobjectsarenotiterablewheneagerexecutionisnote

python - 如何在 tf.estimator 的 input_fn 中使用 tf.data 的可初始化迭代器?

我想用tf.estimator.Estimator管理我的训练但与tf.data一起使用时会遇到一些麻烦API。我有这样的东西:defmodel_fn(features,labels,params,mode):#Definesmodel'sops.#Initializeswithtf.train.Scaffold.#Returnsantf.estimator.EstimatorSpec.definput_fn():dataset=tf.data.TextLineDataset("test.txt")#map,shuffle,padded_batch,etc.iterator=datas

python - 为 tf.split() 使用 num_splits 变量

是否可以为tf.split()的num_split参数使用占位符输入?理想情况下,我想做这样的事情:num_splits=tf.placeholder(tf.int32)inputs=tf.placeholder(tf.int32,[5,None])split_inputs=tf.split(1,num_splits,inputs)TypeError:Expectedintforargument'num_split'not.我的方法可能有问题。我希望枚举可变形状张量中的一个维度。谢谢! 最佳答案 核心图操作有一个“张量输入-张量输出

python - 绕过不可微分的 tf.argmax

我为我的神经网络编写了自定义损失函数,但它无法计算任何梯度。我认为这是因为我需要最高值的索引,因此使用argmax来获取该索引。由于argmax不可微分,我可以绕过这个问题,但我不知道这怎么可能。有人能帮忙吗? 最佳答案 正如aidan所建议的,它只是一个softargmax被beta拉到了极限。我们可以使用tf.nn.softmax来解决数值问题:defsoftargmax(x,beta=1e10):x=tf.convert_to_tensor(x)x_range=tf.range(x.shape.as_list()[-1],dt

python - "tf.train.replica_device_setter"是如何工作的?

我了解到tf.train.replica_device_setter可用于始终在同一参数服务器(PS)(使用循环法)和一个工作人员上的计算密集型节点上自动分配变量。相同的变量如何在多个图形副本中重复使用,由不同的工作人员构建?参数服务器是否只查看工作人员要求的变量名称?这是否意味着如果两个图中的变量命名相同,则不应并行使用任务来执行两个不同的图? 最佳答案 tf.train.replica_device_setter()它的行为非常简单:它纯粹是本地决定为每个tf.Variable分配一个设备。在创建时——以循环方式跨参数服务器任务

python - 不要使用 tf.reset_default_graph() 清除嵌套图

我有一堆函数,它们创建了计算图的一部分。在一些这样的功能中,我做withtf.name_scope("my_scope_name"):self._eye_n_components=tf.eye(se...在我调用的最顶层函数的开头tf.reset_default_graph()然后调用那些部分函数,​​它们也可以相互调用。不幸的是,我得到一个错误Error:Donotusetf.reset_default_graph()toclearnestedgraphs.Ifyouneedaclearedgraph,exitthenestingandcreateanewgraph.几个问题。1)什