为什么一步一步的LSTM会比MLP更好?
出于好奇,我将具有单个时间步长的堆叠LSTM神经网络与具有tanh激活功能的MLP进行了比较,认为它们的性能相同。
用于比较的体系结构如下,它们在回归问题的相同数据集(损失函数为MSE)上进行训练:
model.add(Dense(50, input_dim=num_features, activation = 'tanh'))
model.add(Dense(100, activation = 'tanh'))
model.add(Dense(150, activation = '...