草庐IT

Tensorflow-gpu

全部标签

python - Tensorflow——keras model.save() 引发 NotImplementedError

importtensorflowastfmnist=tf.keras.datasets.mnist(x_train,y_train),(x_test,y_test)=mnist.load_data()x_train=tf.keras.utils.normalize(x_train,axis=1)x_test=tf.keras.utils.normalize(x_test,axis=1)model=tf.keras.models.Sequential()model.add(tf.keras.layers.Flatten())model.add(tf.keras.layers.Dense(

python - 将python opencv mat图像转换为tensorflow图像数据

我想用python和opencv从视频中捕获帧,然后用tensorflow对捕获的Mat图像进行分类。问题是我不知道如何将deMat格式转换为3D张量变量。这就是我现在使用tensorflow的方式(从文件加载图像):image_data=tf.gfile.FastGFile(imagePath,'rb').read()withtf.Session()assess:softmax_tensor=sess.graph.get_tensor_by_name('final_result:0')predictions=sess.run(softmax_tensor,{'DecodeJpeg/c

python - 如何合并不是 tensorflow 中的所有摘要?

我有一个包含两部分的大图,我依次运行。两者都有摘要。我正在用节点调用摘要merged_summary=tf.summary.merge_all()但注意到,它会导致图的后半部分张量在它有意义之前就被评估。那么,如何只合并图表一半的摘要? 最佳答案 您可以使用tf.summary.merge,传递要合并的摘要列表。例如,如果您有摘要:cost_summary=tf.summary.scalar('cost_sum',cost)#forsome'cost'tensorgrad_summary=tf.summary.scalar('gra

python - 使用 tf.set_random_seed 在 Tensorflow 中可重现结果

我正在尝试生成N组独立的随机数。我有一个简单的代码,它显示了3组10个随机数的问题。我注意到即使我使用tf.set_random_seed设置种子,不同运行的结果看起来也不一样。非常感谢任何帮助或评论。(py3p6)bash-3.2$cattest.pyimporttensorflowastfforiinrange(3):tf.set_random_seed(1234)generate=tf.random_uniform((10,),0,10)withtf.Session()assess:b=sess.run(generate)print(b)这是代码的输出:#output:[9.60

python - 在 tensorflow r0.9 (skflow) 中训练 DNNClassifier 时如何打印进度?

我无法让DNNClassifier在训练时打印进度,即损失和验证分数。据我所知,可以使用从BaseEstimator继承的配置参数打印损失,但是当我传递一个RunConfig对象时,分类器没有打印任何东西。fromtensorflow.contrib.learn.python.learn.estimatorsimportrun_configconfig=run_config.RunConfig(verbose=1)classifier=learn.DNNClassifier(hidden_units=[10,20,10],n_classes=3,config=config)classi

python - 导入错误 : No module named 'tensorflow.python'

在这里我想运行这段代码来尝试使用python进行神经网络:from__future__importprint_functionfromkeras.datasetsimportmnistfromkeras.modelsimportSequentialfromkeras.layersimportActivation,Densefromkeras.utilsimportnp_utilsimporttensorflowastfbatch_size=128nb_classes=10nb_epoch=12#inputimagedimensionsimg_row,img_cols=28,28#the

python - Tensorflow:将 session 传递给 python 多进程

我正在使用tensorflow预处理一些大图像。我遇到了内存迅速崩溃的问题。我转向在python中使用多处理,这样内存就会在我需要的时候完全释放。问题是,我正在使用python的多进程队列,由于某种未知原因,我无法将我的tensorflowsession从我的父进程传递给子进程。使用一些高级调试技术(即每隔几行打印一些东西)我注意到python只是在我使用session的行内闲置,它不会抛出错误消息。我的代码看起来像这样:defsubprocess(some_image,sess,q):withsess.as_default():#...usesessandq...print"Allg

python - 重新训练 Tensorflow 最后一层,但仍然使用以前的 Imagenet 类

我的目标是向TensorflowInception附带的现有1000个Imagenet类“添加”更多类。现在我可以通过使用bazel-bin/inception/imagenet_train从头开始​​训练来重新运行整个过程,但这会花费很长时间,尤其是每次我想添加一个新类时。是否可以使用bazel-bin/tensorflow/examples/image_retraining/retrain--image_dir~/flower_photos然后添加到现有标签输出文件?对不起,我是新手。 最佳答案 你可以肆无忌惮地添加第二个最后一

python - 如何使用 Keras 摆脱 tensorflow 详细消息

我正在试用tensorflowKeras后端。它不断将这些过于冗长的消息打印到终端,这会破坏probar记录器的输出。比如下面的。h1/2004608/3629568[..............................]-ETA:849s-loss:1.1816Itensorflow/core/common_runtime/gpu/pool_allocator.cc:244]PoolAllocator:After4208getrequests,put_count=4193evicted_count=1000eviction_rate=0.238493andunsatisfie

python - TensorFlow reduce_max 中的负无穷大错误?

使用带有负inf输入的tf.maximum如下:tf.maximum(-math.inf,-math.inf).eval()给出预期结果-inf但是,tf.reduce_max,在相同的输入上:tf.reduce_max([-math.inf,-math.inf]).eval()给出:-3.40282e+38,这是最小的float32。对于正无穷大输入,两个函数都会产生inf。这是错误吗? 最佳答案 这原来是Eigen中的一个错误,它已经被修复并推送到TensorFlow。可以在此处跟踪问题:https://github.com/t