草庐IT

Tensorflow2

全部标签

python - Tensorflow 和多处理 : Passing Sessions

我最近一直在从事一个使用神经网络进行虚拟机器人控制的项目。我使用tensorflow对其进行编码,并且运行顺利。到目前为止,我使用顺序模拟来评估神经网络的好坏,但是,我想并行运行多个模拟以减少获取数据所需的时间。为此,我导入了python的multiprocessing包。最初我将sess变量(sess=tf.Session())传递给将运行模拟的函数。但是,一旦我到达任何使用此sess变量的语句,该过程就会在没有警告的情况下退出。搜索了一下后,我发现了这两个帖子:Tensorflow:Passingasessiontoapythonmultiprocess和Runningmultip

python - 在 Tensorflow 中创建许多特征列

我正在开始一个Tensorflow项目,并且正在定义和创建我的特征列。然而,我有成百上千的特征——这是一个相当广泛的数据集。即使经过预处理和清理,我也有很多列。创建feature_column的传统方法在Tensorflowtutorial中定义甚至这个StackOverflowpost.您基本上为每个特征列声明并初始化一个Tensorflow对象:gender=tf.feature_column.categorical_column_with_vocabulary_list("gender",["Female","Male"])如果您的数据集只有几列,这一切都很好,但就我而言,我肯定

python - TensorFlow freeze_graph.py : The name 'save/Const:0' refers to a Tensor which does not exist

我目前正在尝试将经过训练的TensorFlow模型导出为ProtoBuf文件,以便在Android上将其与TensorFlowC++API一起使用。因此,我正在使用freeze_graph.py脚本。我使用tf.train.write_graph导出了我的模型:tf.train.write_graph(graph_def,FLAGS.save_path,out_name,as_text=True)我正在使用通过tf.train.Saver保存的检查点。我按照脚本顶部的描述调用freeze_graph.py。编译后运行bazel-bin/tensorflow/python/tools/f

python - Tensorflow:如何在应用程序中使用经过训练的模型?

我已经训练了一个Tensorflow模型,现在我想导出“函数”以在我的python程序中使用它。这可能吗?如果可以,怎么做?任何帮助都会很好,在文档中找不到太多。(我不想保存session!)我现在已经按照您的建议存储了session。我现在像这样加载它:f=open('batches/batch_9.pkl','rb')input=pickle.load(f)f.close()sess=tf.Session()saver=tf.train.Saver()saver.restore(sess,'trained_network.ckpt')y_pred=[]sess.run(y_pred

python - Tensorflow 可以用于多元函数的全局最小化吗?

我一直很好奇TF是否可以用于函数的全局优化。例如,它可以用来有效地找到Lennard-Jones势的基态吗?它会比现有的优化方法(例如Basin-Hopping)更好还是更差?我的部分研究涉及寻找大型多组分分子的基态。传统方法(BH等)对此有好处,但也很慢。我研究了TF,有些部分看起来足够强大,可以解决这个问题,尽管我有限的网络搜索似乎没有显示TF对这个问题的任何使用。 最佳答案 gradientdescent执行训练神经网络只考虑函数的局部区域。因此不能保证它会收敛到全局最小值(这对于大多数机器学习算法来说实际上很好;考虑到所考虑

python - 如何将 Tensorboard 添加到 Tensorflow 估算器进程

我已经采用了所提供的鲍鱼示例,并确保我已经理解了它……好吧,我想我理解了。但作为我正在从事的另一个估算器项目正在产生总垃圾-我试图添加张量板,所以我可以理解发生了什么。基本代码是https://www.tensorflow.org/extend/estimators我添加了一个Session和一个writer#Setmodelparamsmodel_params={"learning_rate":0.01}withtf.Session()assess:#InstantiateEstimatornn=tf.contrib.learn.Estimator(model_fn=model_fn

python - TensorFlow 中张量值的条件赋值

我想复制以下numpytensorflow中的代码.例如,我想分配一个0到以前值为1的所有张量索引.a=np.array([1,2,3,1])a[a==1]=0#ashouldbe[0,2,3,0]如果我在tensorflow中编写类似的代码我收到以下错误。TypeError:'Tensor'objectdoesnotsupportitemassignment方括号中的条件应该是任意的,如a[a.有没有办法在tensorflow中实现这个“条件赋值”(因为没有更好的名字)? 最佳答案 比较运算符,例如greaterthan在Tens

Anaconda+PyCharm+Pytorch/tensorflow环境配置个人总结

Anaconda是一个非常方便的python版本管理工具,可以很方便地切换不同版本的Python进行测试。同时不同版本之间也不存在相互的干扰。PyCharm是一款常见的PythonIDE,pytorch和TensorFlow是目前两个主流的深度学习框架。Anaconda安装前往官方网址下载最新版即可,安装教程 PyCharm安装官网下载安装,安装教程 Pytorch开发环境配置打开命令行,启动anacondaactivate创建pytorch新环境condacreate-npytorchpython=3.7切换到新环境activatepytorch安装pytorch相关包pipinstallt

python - Tensorflow 估计器 : Cache bottlenecks

按照tensorflow图像分类教程,首先缓存每张图像的瓶颈:def:cache_bottlenecks())我已经使用tensorflow的Estimator重写了训练。这确实简化了所有代码。但是我想在这里缓存瓶颈特征。这是我的model_fn。我想缓存dense层的结果,这样我就可以对实际训练进行更改,而不必每次都计算瓶颈。我怎样才能做到这一点?defmodel_fn(features,labels,mode,params):is_training=mode==tf.estimator.ModeKeys.TRAINnum_classes=len(params['label_voca

python - 有没有办法在 GPU 上使用 tensorflow map_fn?

我有一个形状为[a,n]的张量A,我需要用另一个形状为B的张量执行操作my_op[b,n]使得生成的张量C的形状为[a,b]。换句话说:对于A(A[0],A1,...A[n])中的每个子张量,我需要执行一个B中的each子张量的元素明智的操作。因此生成的张量将包含以下内容:[[A[0]opB[0],A[0]opB[1],...,A[0]opB[b]],[A[1]opB[0],A[1]opB[1],...,A[1]opB[b]],[...],[A[a]opB[0],A[a]opB[1],...,A[a]opB[b]]]我能够找到实现此目的的唯一方法是通过嵌套使用tf.map_fn因此:i