草庐IT

ARIMA-LSTM

全部标签

python - CNTK 提示 LSTM 中的动态轴

我正在尝试在CNTK中(使用Python)实现LSTM来对序列进行分类。输入:特征是固定长度的数字序列(时间序列)标签是单热值的向量网络:input=input_variable(input_dim)label=input_variable(num_output_classes)h=Recurrence(LSTM(lstm_dim))(input)final_output=C.sequence.last(h)z=Dense(num_output_classes)(final_output)loss=C.cross_entropy_with_softmax(z,label)输出:序列与标

python - ValueError : Input 0 is incompatible with layer lstm_13: expected ndim=3, 发现 ndim=4

我正在尝试多类分类,这里是我的训练输入和输出的详细信息:train_input.shape=(1,95000,360)(95000lengthinputarraywitheachelementbeinganarrayof360length)train_output.shape=(1,95000,22)(22Classesarethere)model=Sequential()model.add(LSTM(22,input_shape=(1,95000,360)))model.add(Dense(22,activation='softmax'))model.compile(loss='ca

python - 在 TensorFlow 中使用 LSTM-CGAN 生成 MNIST 数字

灵感来自thisarticle,我正在尝试构建一个条件GAN,它将使用LSTM生成MNIST数字。我希望我使用的架构与下图相同(鉴别器中的双向RNN除外,取自thispaper):当我运行这个模型时,我得到了非常奇怪的结果。这张图片显示了我的模型在每个纪元之后生成数字3。它应该看起来更像this.真的很糟糕。我的鉴别器网络的损失非常快地减少到接近于零。但是,我的生成器网络的损失围绕某个固定点振荡(可能发散缓慢)。我真的不知道发生了什么。这是我的代码中最重要的部分(完整代码here):timesteps=28X_dim=28Z_dim=100y_dim=10X=tf.placeholde

python - 如何解释 Keras 中 LSTM 层中的权重

关闭。这个问题需要更多focused.它目前不接受答案。想改进这个问题吗?更新问题,使其只关注一个问题editingthispost.关闭3年前。Improvethisquestion我目前正在使用LSTM层训练用于天气预报的递归神经网络。网络本身非常简单,大致如下所示:model=Sequential()model.add(LSTM(hidden_neurons,input_shape=(time_steps,feature_count),return_sequences=False))model.add(Dense(feature_count))model.add(Activati

python - ARIMA 模型的不可逆

我正在尝试编写代码来生成一系列arima模型并比较不同的模型。代码如下。p=0q=0d=0pdq=[]aic=[]forpinrange(6):fordinrange(2):forqinrange(4):arima_mod=sm.tsa.ARIMA(df,(p,d,q)).fit(transparams=True)x=arima_mod.aicx1=p,d,qprint(x1,x)aic.append(x)pdq.append(x1)keys=pdqvalues=aicd=dict(zip(keys,values))print(d)minaic=min(d,key=d.get)fori

python - 具有 LSTM 单元的 Keras RNN,用于基于多个输入时间序列预测多个输出时间序列

我想用LSTM单元对RNN建模,以便根据多个输入时间序列预测多个输出时间序列。具体来说,我有4个输出时间序列,y1[t]、y2[t]、y3[t]、y4[t],每个的长度为3,000(t=0,...,2999)。我还有3个输入时间序列,x1[t]、x2[t]、x3[t],每个时间序列的长度为3,000秒(t=0,...,2999)。目标是使用截至当前时间点的所有输入时间序列预测y1[t],..y4[t],即:y1[t]=f1(x1[k],x2[k],x3[k],k=0,...,t)y2[t]=f2(x1[k],x2[k],x3[k],k=0,...,t)y3[t]=f3(x1[k],x2

python - 使用 tensorflow 理解 LSTM 模型进行情感分析

我正在尝试使用Tensorflow学习LSTM模型进行情感分析,我已经浏览了LSTMmodel.以下代码(create_sentiment_featuresets.py)从5000个肯定句和5000个否定句生成词典。importnltkfromnltk.tokenizeimportword_tokenizeimportnumpyasnpimportrandomfromcollectionsimportCounterfromnltk.stemimportWordNetLemmatizerlemmatizer=WordNetLemmatizer()defcreate_lexicon(pos

python - 输入到 LSTM 网络 tensorflow

我有一个长度为t(x0,...,xt)的时间序列,其中每个xi都是一个d维向量,即xi=(x0i,x1i,....,xdi)。因此我的输入X的形状为[batch_size,d]tensorflowLSTM的输入大小应为[batchSize,hidden_​​size]。我的问题是我应该如何将我的时间序列输入到LSTM中。我想到的一种可能的解决方案是具有大小为[d,hidden_​​size]的附加权重矩阵W,并使用X*W+B输入LSTM。这是正确的还是我应该向网络输入其他内容?谢谢 最佳答案 您的直觉是正确的;您需要的(以及您所描述

python - 使用 LSTM 循环网络进行 Pybrain 时间序列预测

我有一个问题与使用pybrain进行时间序列回归有关。我计划使用pybrain中的LSTM层来训练和预测时间序列。我在下面的链接中找到了示例代码Requestforexample:Recurrentneuralnetworkforpredictingnextvalueinasequence在上面的示例中,网络能够在训练后预测序列。但问题是,网络通过一次性将所有顺序数据馈送到输入层来接收所有顺序数据。例如,如果训练数据各有10个特征,则这10个特征将同时馈入10个输入节点。据我了解,这不再是时间序列预测,对吗?既然每个特征被输入网络的时间没有区别?如果我错了,请纠正我。因此,我想要实现的

python - Convolution2D + LSTM 与 ConvLSTM2D

1和2是一样的吗?使用Convolution2D层和LSTM层使用ConvLSTM2D如果有什么不同,你能帮我解释一下吗? 最佳答案 它们并不完全相同,原因如下:1。使用Convolution2D层和LSTM层众所周知,Convolution2D非常适合捕捉图像或空间特征,而LSTM则用于检测随时间变化的相关性。然而,通过堆叠这些层,可能无法正确捕获空间和时间特征之间的相关性。2。使用ConvLSTM2D要解决这个问题,XingjianShietal.提出了一种能够捕获时空相关性的网络结构,即ConvLSTM。在Keras中,这反射