我在Keras建设一些简单的模型,以提高我的深度学习的知识,遇到一些问题我不太明白如何调试。
我想用一维CNN就一些时间序列数据进行回归。 我的输入特征张量是形状的N x T x D
,其中N为数据点的数量, T
是序列的数量,及D
是维数。 我的目标是张量形状的N x T x 1
(1,因为我想输出的标量值)。
我建立了我的模型架构是这样的:
feature_tensor.shape
# (75584, 40, 38)
target_tensor.shape
# (75584, 40, 1)
inputs = Input(shape=(SEQUENCE_LENGTH,DIMENSIONS))
conv1 = Conv1D(filters=64, kernel_size=3, activation='relu')
x = conv1(inputs)
x = MaxPooling1D(pool_size=2)(x)
x = Flatten()(x)
x = Dense(100, activation='relu')(x)
predictions = Dense(1, activation="linear")(x)
model = Model(inputs, predictions)
opt = Adam(lr=1e-5, decay=1e-4 / 200)
model.compile(loss="mean_absolute_error", optimizer=opt)
当我尝试训练我的模型,但是,我得到下面的输出:
r = model.fit(cleaned_tensor, target_tensor, epochs=100, batch_size=2058)
ValueError异常:检查目标时错误:预期dense_164具有2个维度,但得到了阵列状(75584,40,1)。
前两个数字是熟悉的:75584是样品的#,40是序列长度。
当我调试我的模型摘要对象,我看到,从输出预期的Flatten
层应该是1216
:
然而,我的同事和我盯着很长一段时间的代码,并不能明白为什么的形状(75584, 40, 1)
在通过该架构被抵当它到达致密层。
有人能指出我什么我做错了方向?