草庐IT

Tensorflow2

全部标签

python - 如何在 TensorFlow 中使用稀疏张量进行计算?

我想以批处理方式从TensorFlow中的DNC实现中实现这个公式。对于批量密集张量,它非常简单。#w[B,N],p[B,N],L[B,N,N],B=batch_sizedot_prod=tf.batch_matmul(tf.expand_dims(w,axis=2),tf.expand_dims(p,axis=1))one_prod=1-tf.expand_dims(w,1)-tf.expand_dims(w,2)L=one_prod*pre_L+dot_prod有没有办法用稀疏张量来实现这个?w、p和L稀疏但TensorFlow缺少稀疏批量矩阵相乘和稀疏索引。

python - Tensorflow - 如何为 tf.Estimator() CNN 使用 GPU 而不是 CPU

我认为它应该与withtf.device("/gpu:0")一起使用,但我应该把它放在哪里?我不认为它是:withtf.device("/gpu:0"):tf.app.run()那么我应该把它放在tf.app的main()函数中,还是放在我用于估算器的模型函数中?编辑:如果这有帮助,这是我的main()函数:defmain(unused_argv):"""Codetoloadtrainingfoldsdatapickleorgenerateoneifnotpresent"""#CreatetheEstimatormnist_classifier=tf.estimator.Estimat

python - TensorFlow 内部错误 : Unable to get element as bytes

我正在尝试使用TensorFlow对一些包含分类和数字数据混合的日志数据运行DNNClassifier。我已经创建了特征列来指定和存储/散列tensorflow的数据。当我运行代码时,我收到“无法将元素作为字节获取”内部错误。注意:我不想删除此article中所述的Nan值所以我使用此代码将它们转换为0train=train.fillna(0,axis=0)所以我不确定为什么我仍然收到此错误。如果我删除Nan,那么它会起作用,但我不想删除Nan,因为我觉得模型需要它们进行训练。defcreate_train_input_fn():returntf.estimator.inputs.pa

python - Tensorflow:如何找到 tf.data.Dataset API 对象的大小

我理解数据集API是一种迭代器,它不会将整个数据集加载到内存中,因此它无法找到数据集的大小。我说的是存储在文本文件或tfRecord文件中的大量数据的上下文。这些文件通常使用tf.data.TextLineDataset或类似的东西读取。使用tf.data.Dataset.from_tensor_slices可以轻松找到加载的数据集的大小。我询问数据集大小的原因如下:假设我的数据集大小是1000个元素。批量大小=50个元素。然后训练步骤/批处理(假设1个纪元)=20。在这20个步骤中,我想将我的学习率从0.1呈指数衰减到0.01作为tf.train.exponential_decay(

python - 在 Keras/TensorFlow 中使用纯 numpy 指标作为指标

我正在参加Kaggle竞赛,评估指标定义为本次比赛是根据不同交集联合(IoU)阈值的平均精度进行评估的。一组建议的对象像素和一组真实对象像素的IoU计算如下:IoU(A,B)=(A∩B)/(A∪B)该指标扫描一系列IoU阈值,在每个点计算平均精度值。阈值范围从0.5到0.95,步长为0.05:(0.5,0.55,0.6,0.65,0.7,0.75,0.8,0.85,0.9,0.95)。换句话说,在阈值为0.5时,如果预测对象与地面实况对象的交集大于0.5,则该预测对象被视为“命中”。在每个阈值t处,根据真阳性(TP)、假阴性(FN)和假阳性(FP)的数量计算精度值)将预测对象与所有地面

python - 在 Red Hat 6.6 版的 python2.7 中导入 Tensorflow 时出错。 'GLIBC_2.17 not found'

这本质上是对问题here的重复.但是,我使用的是RedHat6.6版,它有glibc2.12(glibc2.17,我认为是在RHELver7中引入的)。是否可以在不升级操作系统的情况下在本地安装tensorflow。(我没有管理员权限)。这是我得到的错误ImportError:/lib64/libc.so.6:version`GLIBC_2.17'notfound(requiredby/data02/storage/kgupt33/.local/anaconda/lib/python2.7/site-packages/tensorflow/python/_pywrap_tensorfl

python - TensorFlow 安装导致 ImportError : No module named tensorflow

我正在尝试让TensorFlow在我的Mac(OSXElCapitan10.11.2)上运行。我尝试了setupguide中的pipinstall并按照theacceptedanswerhere中的说明进行操作.在这两种情况下,我都能够成功激活virtualenv并且我的提示更改为tensorflow.Python工作正常,我能够在命令行上进行简单的计算。但是当我尝试导入tensorflow时:importtensorflowastf我反复收到这个错误:ImportError:Nomodulenamedtensorflow如有任何帮助,我们将不胜感激。 最佳

python - tensorflow 学习中的多元回归输出节点

我对tensorflow比较陌生,想使用tf.contrib.learn中的DNNRegressor执行回归任务。但是我想要多个输出节点而不是一个输出节点(例如十个)。如何配置我的回归器来调整许多输出节点以满足我的需要?我的问题与以下已经在SO上提出的问题有关,但似乎没有有效的答案(我使用的是TensorFlow版本0.11)skflowregressionpredictmultiplevaluesMultipletargetcolumnswithSkFlowTensorFlowDNNRegressor 最佳答案 似乎使用tflea

python - Numba 可以与 TensorFlow 一起使用吗?

Numba可以用来编译与Tensorflow接口(interface)的Python代码吗?IE。Tensorflow宇宙之外的计算将与Numba一起运行以提高速度。我还没有找到有关如何执行此操作的任何资源。 最佳答案 您可以使用tf.numpy_function,或tf.py_func包装一个python函数并将其用作TensorFlowop。这是我使用的示例:@jitdefdice_coeff_nb(y_true,y_pred):"Calculatesdicecoefficient"smooth=np.float32(1)y_t

python - 如何在 Tensorflow 中保存和恢复分区变量

我有一个大矩阵。我使用以下方式将此变量创建为分片数。softmax_w=tf.get_variable("softmax_w",[hps.vocab_size,hps.projected_size],partitioner=tf.fixed_size_partitioner(hps.num_shards,0))创建日志:model/softmax_w/part_0:0(99184,512)/cpu:0model/softmax_w/part_1:0(99184,512)/cpu:0model/softmax_w/part_2:0(99184,512)/cpu:0model/softma