草庐IT

tf-idf-cosine

全部标签

python - 如何为由 tf 操作组成的操作注册自定义梯度

更具体地说,我有一个简单的fprop,它是tf操作的组合。我想使用RegisterGradient用我自己的梯度方法覆盖tensorflow梯度计算。这段代码有什么问题?importtensorflowastffromtensorflow.python.frameworkimportops@ops.RegisterGradient("MyopGrad")deffrop_grad(op,grad):x=op.inputs[0]return0*x#zeroouttoseethedifference:deffprop(x):x=tf.sqrt(x)out=tf.maximum(x,.2)re

python - Tensorflow - 将 tf.summary 与 1.2 Estimator API 结合使用

我正在尝试向使用新的tf.estimatorAPI的模型添加一些TensorBoard日志记录。我有一个像这样设置的钩子(Hook):summary_hook=tf.train.SummarySaverHook(save_secs=2,output_dir=MODEL_DIR,summary_op=tf.summary.merge_all())#...classifier.train(input_fn,steps=1000,hooks=[summary_hook])在我的model_fn中,我还创建了一个summary-defmodel_fn(features,labels,mode)

python - tf.layers.dense 是单层吗?

如果我只使用这样的单层:layer=tf.layers.dense(tf_x,1,tf.nn.relu)这只是具有单个节点的单层吗?或者它实际上是一组只有一个节点的层(输入层、隐藏层、输出层)?我的网络似乎只用了1层就可以正常工作,所以我对设置很好奇。因此,下面的设置是否有2个隐藏层(layer1和layer2都是隐藏层)?或者实际上只有1个(只是第1层)?layer1=tf.layers.dense(tf_x,10,tf.nn.relu)layer2=tf.layers.dense(layer1,1,tf.nn.relu)tf_x是我的输入特征张量。 最佳

python - tf.global_variables_initializer() 在幕后做了什么?

有很多案例(here和here)TensorFlow用户添加init_op=tf.global_variables_initializer()在定义任何变量或操作之前,然后按照以下行出现错误Attemptingtouseuninitializedvalue有解释here但它没有提及底层的tf.global_variables_initializer调用。它几乎是在批量复制TFAPI。本题侧重于部分用户调用sess.run(init_op)时,仍然存在未初始化的值。示例代码和对tf.global_variables_initializer的分析会很棒。 最佳答

python - countvectorizer 是否与 use_idf=false 的 tfidfvectorizer 相同?

如标题所述:countvectorizer是否与具有use_idf=false的tfidfvectorizer相同?如果不是,为什么不呢?那么这是否也意味着在此处添加tfidftransformer是多余的?vect=CountVectorizer(min_df=1)tweets_vector=vect.fit_transform(corpus)tf_transformer=TfidfTransformer(use_idf=False).fit(tweets_vector)tweets_vector_tf=tf_transformer.transform(tweets_vector)

python - 在 Tensorflow 中,最后一个维度如何使用 tf.gather()?

我正在尝试根据层之间的部分连接的最后一个维度来收集张量的切片。因为输出的tensor的shape是[batch_size,h,w,depth],我想根据最后一个维度来选择切片,比如#LisintermediatetensorpartL=L[:,:,:,[0,2,3,8]]但是,tf.gather(L,[0,2,3,8])似乎只适用于第一个维度(对吧?)谁能告诉我该怎么做? 最佳答案 从TensorFlow1.3开始,tf.gather有一个axis参数,因此不再需要此处的各种解决方法。https://www.tensorflow.o

python - tf.train.shuffle_batch 和 `tf.train.batch 发生了什么?

我使用Binarydata训练DNN。但是tf.train.shuffle_batch和tf.train.batch让我很困惑。这是我的代码,我将对其进行一些测试。首先Using_Queues_Lib.py:from__future__importabsolute_importfrom__future__importdivisionfrom__future__importprint_functionimportosfromsix.movesimportxrange#pylint:disable=redefined-builtinimporttensorflowastfNUM_EXAMP

python - tf.transpose 如何在 tensorflow 中工作?

tf.transpose(a,perm=None,name='transpose')转置a。它根据perm排列尺寸。因此,如果我使用此矩阵进行转换:importtensorflowasttimportosos.environ["TF_CPP_MIN_LOG_LEVEL"]="3"importnumpyasbbab=([[[1,2,3],[6,5,4]],[[4,5,6],[3,6,3]]])v=bb.array(ab)fg=tt.transpose(v)print(v)withtt.Session()asdf:print("\nNewtranformedmatrixis:\n\n{}"

python - 如何在 tf.data.Dataset 中输入不同大小的列表列表

我有一长串整数列表(代表句子,每个句子都有不同的大小),我想使用tf.data库提供它们。每个列表(列表的列表)都有不同的长度,我得到一个错误,我可以在这里重现:t=[[4,2],[3,4,5]]dataset=tf.data.Dataset.from_tensor_slices(t)我得到的错误是:ValueError:Argumentmustbeadensetensor:[[4,2],[3,4,5]]-gotshape[2],butwanted[2,2].有办法吗?编辑1:明确地说,我不想填充列表的输入列表(这是一个包含超过一百万个元素的句子列表,长度不同)我想使用tf.data库

python - 在二维 tf.Variable 中使用 tf.scatter_update

我正在关注这个Manipulatingmatrixelementsintensorflow.使用tf.scatter_update。但我的问题是:如果我的tf.Variable是二维的会怎样?比方说:a=tf.Variable(initial_value=[[0,0,0,0],[0,0,0,0]])例如,我如何更新每行的第一个元素并为其分配值1?我试过类似的东西forlineinrange(2):sess.run(tf.scatter_update(a[line],[0],[1]))但它失败了(我预料到了)并给我错误:TypeError:Input'ref'of'ScatterUpda