草庐IT

tf.gather

全部标签

python - 使用 tf.estimator.Estimator 框架进行迁移学习

我正在尝试使用我自己的数据集和类对在imagenet上预训练的Inception-resnetv2模型进行迁移学习。我的原始代码库是对tf.slim的修改我再也找不到的示例,现在我正在尝试使用tf.estimator.*重写相同的代码框架。然而,我遇到了从预训练检查点仅加载一些权重,并使用默认初始化器初始化其余层的问题。研究问题,我发现thisGitHubissue和thisquestion,都提到需要使用tf.train.init_from_checkpoint在我的model_fn.我试过了,但鉴于两者都缺乏示例,我想我弄错了。这是我的最小示例:importsysimportoso

c# - Visual Studio 在线 TF30063 : You are not authorized to access

我正在尝试通过WebAPI连接到我的VisualStudioOnline帐户。按照这里的步骤操作:http://blogs.msdn.com/b/buckh/archive/2013/01/07/how-to-connect-to-tf-service-without-a-prompt-for-liveid-credentials.aspxNetworkCredentialnetCred=newNetworkCredential("myaccount@gmail.com","mypassword");BasicAuthCredentialbasicCred=newBasicAuthCr

Tensorflow中的梯度和自动微分:tf.GradientTape理解

前言1.前言2.自动微分简介3.tf.GradientTape3.1GradientTape基本使用3.1.1GradientTape梯度计算简介3.1.2应用在标量(scalars)上3.1.3应用在tensors上3.1.4应用在model上3.2控制tape监视的内容3.2.1通过方法watch3.2.2通过参数watch_accessed_variables3.2.3求中间结果的梯度3.2.4非标量的梯度3.4gradient返回None的情况3.4.1target与source没有关联3.4.2tape不会自动监控Tensor3.4.3在TF之外进行了计算3.4.4整数和字符串不可微

tensorflow中tf.gradients()解析

tf.gradients()解析及grad_ys在xs为(?,1)时的理解问题简介使用tensorflow1.15学习时,有一项tf.gradients的代码,其中用到了grad_ys这个参数,经过一些解析,得到了一些自己的理解原代码deffwd_gradients_1(self,U,x):g=tf.gradients(U,x,grad_ys=self.dummy_x1_tf)[0]returntf.gradients(g,self.dummy_x1_tf)[0]这里面的U是经过神经网络之后的output,shape为[250,500],xxx是input,shape为[250,1]。在加上g

go - Golang 中的 TF-IDF

有没有类似sklearn的golang库可以用来找tf-idf?我似乎找不到任何有据可查的东西。我正在寻找给定一堆文本文件的tf-idf,类似于提到的python版本herefromsklearn.feature_extraction.textimportTfidfVectorizerimportnumpyasnpfromscipy.sparse.csrimportcsr_matrix#needthisifyouwanttosavetfidf_matrixtf=TfidfVectorizer(input='filename',analyzer='word',ngram_range=(1

python - 使用 TF 再训练模型

我正在尝试了解如何正确使用使用TensorFlowRetrain生成的重新训练模型在Golangclassifier.当我使用不同的模型时我得到了不同的结果(当使用Golang分类器时非常不同和错误的结果)在迭代图的操作后,我对Go应用程序进行了一些修改以使其正常工作:session.Run(map[tf.Output]*tf.Tensor{graph.Operation("Mul").Output(0):tensor,//was"input"},[]tf.Output{graph.Operation("final_result").Output(0),//was"output"},n

python - 保存使用 keras 训练的 TF 模型,然后在 Go 中进行评估

我正在尝试使用keras设置一个经典的MNIST挑战模型,然后保存tensorflow图并随后将其加载到Go中,然后用一些输入进行评估。我一直在关注thisarticle在github上提供完整代码.Nils仅使用tensorflow来设置comp.graph,但我想使用keras。我设法像他一样保存模型型号:model=Sequential()model.add(Conv2D(32,kernel_size=(3,3),activation='relu',input_shape=(28,28,1),name="inputNode"))model.add(Conv2D(64,(3,3),

python - 了解 tf.extract_image_patches 以从图像中提取补丁

我找到了以下方法tf.extract_image_patches在tensorflowAPI中,但我不清楚它的功能。假设batch_size=1,图像大小为225x225x3,我们要提取大小为32x32的block。这个函数的具体表现如何?具体来说,文档提到输出张量的维度是[batch,out_rows,out_cols,ksize_rows*ksize_cols*depth],但是out_rows和out_cols没有提到。理想情况下,给定大小为1x225x225x3的输入图像张量(其中1是批量大小),我希望能够获得Kx32x32x3作为输出,其中K是补丁的总数,32x32x3是每个

python - 使用基本的低级 TensorFlow 训练循环训练 tf.keras 模型不起作用

注意:用于重现我的问题的独立示例的所有代码都可以在下面找到。我有一个tf.keras.models.Model实例,需要使用用低级TensorFlowAPI编写的训练循环对其进行训练。问题:使用基本的标准低级TensorFlow训练循环训练完全相同的tf.keras模型一次,使用Keras自己的model.fit()方法训练一次会产生非常不同的结果。我想找出我在低级TF训练循环中做错了什么。该模型是我在Caltech256上训练的一个简单的图像分类模型(链接到下面的tfrecords)。在低级TensorFlow训练循环中,训练损失首先会减少,但在1000次训练步骤之后,损失会达到稳定

python - TensorFlow - tf.data.Dataset 读取大型 HDF5 文件

我正在设置一个TensorFlow管道,用于读取大型HDF5文件作为我的深度学习模型的输入。每个HDF5文件包含100个可变大小长度的视频,这些视频存储为压缩JPG图像的集合(以使磁盘上的大小易于管理)。使用tf.data.Dataset和到tf.py_func的映射,使用自定义Python逻辑从HDF5文件中读取示例非常容易。例如:defread_examples_hdf5(filename,label):withh5py.File(filename,'r')ashf:#readframesfromHDF5anddecodethemfromJPGreturnframes,labelf