草庐IT

SAC_LSTM

全部标签

python - Keras: reshape 以连接 lstm 和 conv

这个问题也作为githubissue存在。我想在Keras中构建一个包含二维卷积和LSTM层的神经网络。网络应该对MNIST进行分类。MNIST中的训练数据是60000张手写数字0到9的灰度图像。每张图像为28x28像素。我已将图像分成四个部分(左/右、上/下)并按四个顺序重新排列它们以获得LSTM的序列。|||1|2||image|->-------->4sequences:|1|2|3|4|,|4|3|2|1|,|1|3|2|4|,|4|2|3|1||||3|4|其中一个小子图像的尺寸为14x14。四个序列沿宽度堆叠在一起(宽度或高度无关紧要)。这将创建一个形状为[60000,4,

python - Tensorflow 动态循环神经网络 (LSTM) : how to format input?

我得到了这种格式的一些数据和以下详细信息:person1,day1,feature1,feature2,...,featureN,labelperson1,day2,feature1,feature2,...,featureN,label...person1,dayN,feature1,feature2,...,featureN,labelperson2,day1,feature1,feature2,...,featureN,labelperson2,day2,feature1,feature2,...,featureN,label...person2,dayN,feature1,fe

python - 如何选择 LSTM Keras 参数?

我有多个输入时间序列,我想正确构建一个LSTM模型。我真的很困惑如何选择参数。我的代码:model.add(keras.layers.LSTM(hidden_nodes,input_shape=(window,num_features),consume_less="mem"))model.add(Dropout(0.2))model.add(keras.layers.Dense(num_features,activation='sigmoid'))optimizer=keras.optimizers.SGD(lr=learning_rate,decay=1e-6,momentum=0.

python - 3darray 训练/测试 TensorFlow RNN LSTM

(我正在测试自己写出简短但有效的问题的能力,所以让我知道我在这里是怎么做的)我正在尝试训练/测试TensorFlow循环神经网络,特别是LSTM,使用以下ndarray格式的时间序列数据进行一些试验:[[[time_step_trial_0,feature,feature,...][time_step_trial_0,feature,feature,...]][[time_step_trial_1,feature,feature,...][time_step_trial_1,feature,feature,...]][[time_step_trial_2,feature,feature

python - Keras - 将注意力机制添加到 LSTM 模型

这个问题在这里已经有了答案:HowtoaddattentionlayertoaBi-LSTM(2个答案)关闭2年前。使用以下代码:model=Sequential()num_features=data.shape[2]num_samples=data.shape[1]model.add(LSTM(16,batch_input_shape=(None,num_samples,num_features),return_sequences=True,activation='tanh'))model.add(PReLU())model.add(Dropout(0.5))model.add(LS

python - 喀拉斯 LSTM : a time-series multi-step multi-features forecasting - poor results

我有一个包含全年数据的时间序列数据集(日期是索引)。每15分钟(全年)测量一次数据,这导致每天有96个时间步长。数据已经标准化。变量是相关的。除VAR外的所有变量都是天气指标。VAR在一天和一周内是季节性的(因为它在周末看起来有点不同,但每个周末都差不多)。VAR值是固定的。我想预测接下来两天(提前192步)和接下来7天(提前672步)的VAR值。这是数据集的样本:DateIdxVARdewpthumpresstemp2017-04-1700:00:000.3693970.1550390.3867920.1967210.2388892017-04-1700:15:000.3632140

python - Keras LSTM 输入维度设置

我正在尝试使用keras训练LSTM模型,但我想我在这里出错了。我得到了一个错误ValueError:Errorwhencheckinginput:expectedlstm_17_inputtohave3dimensions,butgotarraywithshape(10000,0,20)虽然我的代码看起来像model=Sequential()model.add(LSTM(256,activation="relu",dropout=0.25,recurrent_dropout=0.25,input_shape=(None,20,64)))model.add(Dense(1,activa

python - 当脚本在更大的数据集上运行时,LSTM 自动编码器没有进展

p_input的形状thisLSTMAutoencoder对于"test.py"是(128,8,1);意思是128组8位数字。我正在尝试使用4组25,000个时间步长(基本上是0秒到25,000秒)使该模型适应基于时间序列的数据。我尝试将此数据集输入到形状为(4,25000,1)的p_input中,但没有出现任何错误。但是,当我运行脚本时,没有得到iter1:0.01727,iter2:0.00983,...我没有从脚本中得到任何打印的反馈,所以我假设有什么东西阻碍了脚本。我还尝试将batch_num更改为4并将step_num更改为25,000直接添加到未经编辑的“test.py”文

python - 在 Keras 中进行批量归一化的双向 LSTM

我想知道如何在Keras中使用批量归一化(BN)实现biLSTM。我知道BN层应该介于线性和非线性之间,即激活。这很容易用CNN或Dense层实现。但是,如何使用biLSTM做到这一点?提前致谢。 最佳答案 如果你想对LSTM的线性输出应用BatchNormalization,你可以这样做fromkeras.modelsimportSequentialfromkeras.layers.recurrentimportLSTMfromkeras.layers.wrappersimportBidirectionalfromkeras.la

python - 使用多个不同长度和多个特征的时间序列时,如何为 LSTM 准备数据?

我有一个来自多个用户(nUsers)的数据集。每个用户在时间上随机采样(每个用户的nSamples是非常数)。每个样本都有许多特征(nFeatures)。例如:nUsers=3--->3个用户nSamples=[32,52,21]--->第一个用户被采样了32次,第二个用户被采样了52次等等。nFeatures=10--->每个样本的特征数量不变。我希望LSTM根据当前特征和同一用户的先前预测生成当前预测。我可以使用LSTM层在Keras中做到这一点吗?我有两个问题:每个用户的数据都有一个不同的时间序列。我该如何整合它?如何处理将先前的预测添加到当前时间特征空间以进行当前预测?感谢您的