草庐IT

python - TF-IDF 查找新文档和数据集之间的余弦相似度

我有一个产品数据集的TF-IDF矩阵:tfidf=TfidfVectorizer().fit_transform(words)其中words是描述列表。这会产生一个69258x22024矩阵。现在我想找出新产品与矩阵中的产品之间的余弦相似度,因为我需要找到与其最相似的10个产品。我使用与上面相同的方法对其进行矢量化。但是,我无法将矩阵相乘,因为它们的大小不同(新矩阵可能有6个字,所以是1x6矩阵),所以我需要制作一个列数与原始列数相同的TFIDFVectorizer。我该怎么做? 最佳答案 我已经找到了它的工作方式。您需要先将新文档

python - 如何使用 tf.estimator 返回预测和标签(使用 predict 或 eval 方法)?

我正在使用Tensorflow1.4。我创建了一个自定义的tf.estimator来进行分类,如下所示:defmodel_fn():#Someoperationshere[...]returntf.estimator.EstimatorSpec(mode=mode,predictions={"Preds":predictions},loss=cost,train_op=loss,eval_metric_ops=eval_metric_ops,training_hooks=[summary_hook])my_estimator=tf.estimator.Estimator(model_f

python - 为什么 tensorflow 中的随机数生成器 tf.random_uniform 比 numpy 等效项快得多

下面的代码是我用来测试性能的:importtimeimportnumpyasnpimporttensorflowastft=time.time()foriinrange(400):a=np.random.uniform(0,1,(1000,2000))print("np.random.uniform:{}seconds".format(time.time()-t))t=time.time()foriinrange(400):a=np.random.random((1000,2000))print("np.random.random:{}seconds".format(time.time

python - tf.app.flags 是做什么的?为什么我们需要那个?

这个问题在这里已经有了答案:What'sthepurposeoftf.app.flagsinTensorFlow?(5个答案)关闭6年前。我正在阅读包含以下代码的tensorflow教程文件fully_connected_feed.py。我不明白那些是什么意思。为什么我们需要那个?看起来它只是定义了一些全局变量。为什么不直接定义它们呢?任何帮助表示赞赏。谢谢flags=tf.app.flagsFLAGS=flags.FLAGSflags.DEFINE_float('learning_rate',0.01,'Initiallearningrate.')flags.DEFINE_integ

python - 如何按特定值过滤 tf.data.Dataset?

我通过读取TFRecords创建了一个数据集,我映射了值,我想过滤数据集的特定值,但由于结果是一个带有张量的字典,我无法获得张量的实际值或用tf.cond()/tf.equal检查它。我该怎么做?defmapping_func(serialized_example):feature={'label':tf.FixedLenFeature([1],tf.string)}features=tf.parse_single_example(serialized_example,features=feature)returnfeaturesdeffilter_func(features):#th

python - tf.nn.depthwise_conv2d 太慢了。正常吗?

我正在试用一个名为“FactorizedCNN”的最新arxiv作品,主要论证了空间分离卷积(depth-wiseconvolution),加上channel-wiselinearprojection(1x1conv),可以加速卷积运算。thisisthefigurefortheirconvlayerarchitecture我发现我可以使用tf.nn.depthwise_conv2d和1x1卷积,或者使用tf.nn.separable_conv2d来实现这个架构。下面是我的实现:#convfilterfordepthwiseconvolutiondepthwise_filter=tf.

python - TensorFlow 2.0 : how to group graph using tf. 喀拉斯? tf.name_scope/tf.variable_scope 不再使用了吗?

回到TensorFlowinception模块,通过使用tf.name_scope或tf将它们分组.variable_scope.利用这些运算符,我们能够方便地构造计算图,从而使TensorBoard的图View更容易解释。只是结构化组的一个例子:这对于调试复杂的架构非常方便。不幸的是,tf.keras似乎忽略了tf.name_scope并且tf.variable_scope在TensorFlow>=2.0中消失了。因此,像这样的解决方案......withtf.variable_scope("foo"):withtf.variable_scope("bar"):v=tf.get_va

python - 如何在Tensorflow中的tf.estimator上使用tensorflow调试工具tfdbg?

我正在使用Tensorflow1.4版,我想调试我的train()函数。在此链接中https://www.tensorflow.org/programmers_guide/debugger#debugging_tf-learn_estimators_and_experimentstf.contrib.learnEstimators有一种方法可以做到这一点,但我找不到一种方法来使其适应(1.4版中的新功能)tf.estimator.这是我试过的:fromtensorflow.pythonimportdebugastf_debug#Createanestimatormy_estimator

python - TensorFlow tf.data.Dataset 和分桶

对于LSTM网络,我看到分桶有很大的改进。我遇到了bucketingsectionintheTensorFlowdocs哪个(tf.contrib)。虽然在我的网络中,我使用的是tf.data.DatasetAPI,特别是我正在使用TFRecords,所以我的输入管道看起来像这样dataset=tf.data.TFRecordDataset(TFRECORDS_PATH)dataset=dataset.map(_parse_function)dataset=dataset.map(_scale_function)dataset=dataset.shuffle(buffer_size=1

python - 为什么 tf.Print() 不在 tensorflow 中打印

下面的代码没有给出任何错误,但也没有打印张量。importtensorflowastfimportnumpyasnp#Sometensorwewanttoprintthevalueofx=tf.placeholder(tf.float32,shape=[2,2,2])a=np.array([[[1.,1.],[1.,1.]],[[2.,2.],[2.,2.]]])m=tf.Print(x,[x])withtf.Session()assess:sess.run(tf.initialize_all_variables())m_eval=m.eval(session=sess,feed_di