草庐IT

python - 如何使用 Keras RNN 模型预测 future 的日期或事件?

这是我训练完整模型并保存它的代码:num_units=2activation_function='sigmoid'optimizer='adam'loss_function='mean_squared_error'batch_size=10num_epochs=100#InitializetheRNNregressor=Sequential()#AddingtheinputlayerandtheLSTMlayerregressor.add(LSTM(units=num_units,activation=activation_function,input_shape=(None,1)))

python - TensorFlow:从 RNN 获取所有状态

在TensorFlow中如何从tf.nn.rnn()或tf.nn.dynamic_rnn()获取所有隐藏状态?API仅提供最终状态。第一个替代方案是在构建直接在RNNCell上运行的模型时编写一个循环。但是,时间步数对我来说不是固定的,取决于传入的批处理。一些选项是使用GRU或编写我自己的RNNCell,将状态连接到输出。前者的选择不够通用,后者听起来太老套了。另一种选择是做类似theanswersinthisquestion的事情,从RNN获取所有变量。但是,我不确定如何在这里以标准方式将隐藏状态与其他变量分开。有没有一种很好的方法可以从RNN获取所有隐藏状态,同时仍然使用库提供的R

python - 具有 LSTM 单元的 Keras RNN,用于基于多个输入时间序列预测多个输出时间序列

我想用LSTM单元对RNN建模,以便根据多个输入时间序列预测多个输出时间序列。具体来说,我有4个输出时间序列,y1[t]、y2[t]、y3[t]、y4[t],每个的长度为3,000(t=0,...,2999)。我还有3个输入时间序列,x1[t]、x2[t]、x3[t],每个时间序列的长度为3,000秒(t=0,...,2999)。目标是使用截至当前时间点的所有输入时间序列预测y1[t],..y4[t],即:y1[t]=f1(x1[k],x2[k],x3[k],k=0,...,t)y2[t]=f2(x1[k],x2[k],x3[k],k=0,...,t)y3[t]=f3(x1[k],x2

python - Tensorflow,在 RNN 中保存状态的最佳方式?

我目前有以下代码用于tensorflow中的一系列链接在一​​起的RNN。我没有使用MultiRNN,因为稍后我要对每一层的输出做一些事情。forrinrange(RNNS):withtf.variable_scope('recurent_%d'%r)asscope:state=[tf.zeros((BATCH_SIZE,sz))forszinrnn_func.state_size]time_outputs=[None]*TIME_STEPSfortinrange(TIME_STEPS):rnn_input=getTimeStep(rnn_outputs[r-1],t)time_out

memory - 在 TensorFlow 中的 GPU 之间平均分配 RNN 内存消耗

我正在尝试找出最具战略意义的方法,以在两个GPU之间平均分配seq2seq网络的内存负载。使用卷积网络,任务要容易得多。但是,我试图弄清楚如何最大化2TitanX的内存使用率。目标是构建24GB内存组合所允许的最大网络。一个想法是将每个RNN层放置在单独的GPU中。GPU1-->RNNLayer1&BackwardPassGPU2-->RNNLayer2,3,4但是,反向传播计算需要大量内存。因此,另一个想法是在一个GPU上进行整个正向传递,在单独的GPU上进行反向传递。GPU1-->ForwardPassGPU2-->BackwardPass(不过,GPU2仍然占据了大部分内存负载)

python - ValueError : Variable rnn/basic_rnn_cell/kernel already exists, 不允许。您的意思是在 VarScope 中设置 reuse=True 或 reuse=tf.AUTO_REUSE 吗?

有什么想法可以解决如下所示的问题吗?根据我在网上找到的信息,它与重用tensorflow范围的问题有关,但没有任何效果。ValueError:Variablernn/basic_rnn_cell/kernelalreadyexists,disallowed.Didyoumeantosetreuse=Trueorreuse=tf.AUTO_REUSEinVarScope?Originallydefinedat:File"/code/backend/management/commands/RNN.py",line370,inpredictstates_series,current_stat

python - 具有不同时间步长的 RNN 的 Keras 掩蔽

我正在尝试使用具有不同时间长度的序列在Keras中拟合RNN。我的数据位于格式为(sample,time,feature)=(20631,max_time,24)的Numpy数组中,其中max_time在运行时确定为时间戳最多的样本可用的时间步长。我已经用0填充了每个时间序列的开头,显然最长的除外。我最初是这样定义我的模型的......model=Sequential()model.add(Masking(mask_value=0.,input_shape=(max_time,24)))model.add(LSTM(100,input_dim=24))model.add(Dense(2

后CNN探索,如何用RNN进行图像分类

摘要:RNN可以用于描述时间上连续状态的输出,有记忆功能,能处理时间序列的能力,让我惊叹。本文分享自华为云社区《用RNN进行图像分类——CNN之后的探索》,作者:Yin-Manny。一、 写前的思考:当看完RNN的PPT,我惊叹于RNN可以用于描述时间上连续状态的输出,有记忆功能,能处理时间序列的能力。当拿到思考题,在CNN框架下加入RNN程序,这是可以实现的吗,如果可以,它的理论依据是什么,它的实现方法是什么,它的效果是怎样的。加入这个有必要吗。我寻找了CNNcombinewithRNN的资料,看了CLDNN论文,我知道了:CNN和RNN直接的不同点:CNN进行空间扩展,神经元与特征卷积;R

后CNN探索,如何用RNN进行图像分类

摘要:RNN可以用于描述时间上连续状态的输出,有记忆功能,能处理时间序列的能力,让我惊叹。本文分享自华为云社区《用RNN进行图像分类——CNN之后的探索》,作者:Yin-Manny。一、 写前的思考:当看完RNN的PPT,我惊叹于RNN可以用于描述时间上连续状态的输出,有记忆功能,能处理时间序列的能力。当拿到思考题,在CNN框架下加入RNN程序,这是可以实现的吗,如果可以,它的理论依据是什么,它的实现方法是什么,它的效果是怎样的。加入这个有必要吗。我寻找了CNNcombinewithRNN的资料,看了CLDNN论文,我知道了:CNN和RNN直接的不同点:CNN进行空间扩展,神经元与特征卷积;R

RNN的PyTorch实现

官方实现PyTorch已经实现了一个RNN类,就在torch.nn工具包中,通过torch.nn.RNN调用。使用步骤:实例化类;将输入层向量和隐藏层向量初始状态值传给实例化后的对象,获得RNN的输出。在实例化该类时,需要传入如下属性:input_size:输入层神经元个数;hidden_size:每层隐藏层的神经元个数;num_layers:隐藏层层数,默认设置为1层;nonlinearity:激活函数的选择,可选是'tanh'或者'relu',默认设置为'tanh';bias:偏置系数,可选是'True'或者'False',默认设置为'True';batch_first:可选是'True'