草庐IT

了解使用LSTM细胞的复发神经网络的功能

语境:我有一个带有LSTM细胞的复发神经网络网络的输入是一批大小(batch_size,number_of_timesteps,One_hot_encoded_class)(128,300,38)批次的不同行(1-128)不一定彼此相关一个时间步的目标由下一个时间步的值给出。我的问题:当我使用(128,300,38)的输入批次训练网络和相同大小的目标批次时,网络是否总是仅考虑最后一个时间阶段t预测下一个时间步的价值t+1?还是它考虑从序列开始到时间步长的所有时间步骤t?还是LSTM单元在内部记住所有以前的状态?我对功能感到困惑,因为网络经过多个时间步骤进行了模拟训练,因此我不确定LSTM单元格

有人可以向我解释**和复发性**参数之间在初始化Keras LSTM层中传递的差异吗?

有人可以向我解释激活和复发性激活参数之间在初始化KerasLSTM层中传递的差异吗?根据我的理解,LSTM有4层。如果我不将任何激活参数传递给LSTM构造函数,请说明每一层的默认激活功能是什么?看答案上代码1932年的线i=self.recurrent_activation(z0)f=self.recurrent_activation(z1)c=f*c_tm1+i*self.activation(z2)o=self.recurrent_activation(z3)h=o*self.activation(c)recurrent_activation用于激活输入/忘记/输出门。激活如果用于细胞状态