草庐IT

keras-rl

全部标签

python - 使用 Rstudio 安装 keras 和 tensorflow

尝试按照在Rstudio链接上安装Keras和TensorFlow的说明进行操作时https://keras.rstudio.com/index.html我收到以下错误。这是一台运行Windows7的工作计算机。我不熟悉python,但我相信我已经正确安装了python3.6(我能够在SpyderIDE中运行简单的python代码)。在此先感谢您提供有关如何使此工作正常进行的任何建议。>install_keras()Creatingr-tensorflowcondaenvironmentforTensorFlowinstallation...Solvingenvironment:...

python - Keras 网络产生逆向预测

我有一个时间序列数据集,我正在尝试训练一个网络,使其过度拟合(显然,这只是第一步,然后我将与过度拟合作斗争)。网络有两层:LSTM(32个神经元)和Dense(1个神经元,无激活)训练/模型具有以下参数:epochs:20,steps_per_epoch:100,loss:"mse",optimizer:"rmsprop".TimeseriesGenerator生成输入系列:length:1,sampling_rate:1,batch_size:1.我希望网络只会记住这么小的数据集(我已经尝试了更复杂的网络但无济于事)并且训练数据集的损失几乎为零。事实并非如此,当我将training的

python - keras模型中卷积层的可视化

我在Keras中创建了一个模型(我是新手),并且设法很好地训练了它。它需要300x300的图像并尝试将它们分为两组。#sizeofimageinpixelimg_rows,img_cols=300,300#numberofclasses(heredigits1to10)nb_classes=2#numberofconvolutionalfilterstousenb_filters=16#sizeofpoolingareaformaxpoolingnb_pool=20#convolutionkernelsizenb_conv=20X=np.vstack([X_train,X_test])

python - 使用 Keras 递归神经网络进行预测 - 准确度始终为 1.0

TLDR:如何使用KerasRNN预测序列中的下一个值?我有一个顺序值列表。我想将它们输入RNN以预测序列中的下一个值。[0.435897440.442307690.49358974...,0.711538460.708333330.69230769]我正在使用Keras来执行此操作,并且可以获得一个损失减少但准确度始终为1.0的网络。这是错误的。y_tests!=model.predict(x_tests)。Epoch01517/1517[==============================]-0s-loss:0.0726-acc:1.0000-val_loss:0.0636

python - 我们应该如何使用 pad_sequences 在 keras 中填充文本序列?

我编码了一个sequencetosequence我自己使用从网络教程中获得的知识和我自己的直觉在keras中学习LSTM。我将示例文本转换为序列,然后使用keras中的pad_sequence函数进行填充。fromkeras.preprocessing.textimportTokenizer,base_filterfromkeras.preprocessing.sequenceimportpad_sequencesdefshift(seq,n):n=n%len(seq)returnseq[n:]+seq[:n]txt="abcdefghijklmn"*100tk=Tokenizer(n

python - Keras VGG16 微调

在kerasblog上有一个VGG16微调的例子,但我无法重现它。更准确地说,这里是用于在没有顶层的情况下初始化VGG16并卡住除最顶层以外的所有block的代码:WEIGHTS_PATH_NO_TOP='https://github.com/fchollet/deep-learning-models/releases/download/v0.1/vgg16_weights_tf_dim_ordering_tf_kernels_notop.h5'weights_path=get_file('vgg16_weights.h5',WEIGHTS_PATH_NO_TOP)model=Sequ

python - keras - 无法导入名称 Conv2D

我最近从https://github.com/floydhub/dl-docker得到了深度学习docker运行并尝试教程时,在导入keras层模块时收到错误。from__future__importprint_functionimportkerasfromkeras.datasetsimportcifar10fromkeras.preprocessing.imageimportImageDataGeneratorfromkeras.modelsimportSequentialfromkeras.layersimportDense,Dropout,Activation,Flattenf

python - 在 Keras 中,验证准确率始终高于训练准确率

我正在尝试使用mnist数据集训练一个简单的神经网络。出于某种原因,当我获得历史记录(从model.fit返回的参数)时,验证精度高于训练精度,这真的很奇怪,但是如果我在评估模型时检查分数,我会得到更高的训练准确率高于测试准确率。无论模型的参数如何,这种情况每次都会发生。另外,如果我使用自定义回调并访问参数'acc'和'val_acc',我会发现同样的问题(数字与历史中返回的数字相同)。请帮帮我!我究竟做错了什么?为什么验证准确率比训练准确率高(你看我看loss的时候也有同样的问题)。这是我的代码:#!/usr/bin/envpython3.5fromkeras.layersimpor

python - 带有用于可变长度输入的屏蔽层的 Keras lstm

我知道这是一个有很多问题的主题,但我找不到解决问题的方法。我正在使用掩蔽层在可变长度输入上训练LSTM网络,但它似乎没有任何效果。输入形状(100,362,24),其中362是最大序列长度,24是特征数量,100是样本数量(分为75个训练/25个有效)。输出形状(100,362,1)稍后转换为(100,362-N,1)。这是我的网络的代码:fromkerasimportSequentialfromkeras.layersimportEmbedding,Masking,LSTM,Lambdaimportkeras.backendasK#OOO#exampleforN:3|||#OOOOO

python - keras BatchNormalization 轴说明

kerasBatchNormalizationlayer使用axis=-1作为默认值,并说明特征轴通常是归一化的。为什么会这样?我想这很令人惊讶,因为我更熟悉使用类似StandardScaler的东西,这相当于使用axis=0。这将单独规范化特征。在keras中默认单独标准化样本(即axis=-1)而不是特征是否有原因?编辑:具体示例通常会转换数据,使每个特征都具有零均值和单位方差。让我们只考虑这个模拟数据集的“零均值”部分,其中每一行都是一个样本:>>>data=np.array([[1,10,100,1000],[2,20,200,2000],[3,30,300,3000]])>>