有一批时间序列数据,记为 x,shape 为 [n(time), n(location), n(feature)],分别为时间、地点和特征维度,例如不同地点不同时间的降雨量、气温、噪音等。用简单的 LSTM 做时间序列预测,LOSS 与评价指标为 RMSE 。按理说输入数据前需要对数据做标准化处理,例如 min-max 或者 z-score
1 、应该在哪个维度上对数据进行标准化处理呢?例如 z-score: x = np.mean(x, axis = 0) / np.std(x, axis = 0) x = np.mean(x, axis = (0, 1)) / np.std(x, axis = (0, 1)) x = np.mean(x) / np.std(x) 以上哪种是合理的呢?
2 、在实际尝试中,我用了 min-max 、z-score 、取对数、取 sigmoid 等多种标准化方法,对应的输出层激活函数也试过 sigmoid, tanh 或者不使用激活函数,发现要么 loss 压根不下降,要么 loss 可以下降但错误率很高,反而用原始数据输入能得到比较好的结果(优于 ARIMA 等传统模型),很快模型就收敛了,这是为什么呢?不对时间序列做任何预处理就扔进网络,是可以接受的吗