我对Keras例如几个问题pretrained_word_embeddings增加的理解它是如何工作的水平。
是否合理使用
dropout
在这种模型层?最后
MaxPooling1D
层每次必须覆盖所有的输出形状? 在原来的模式,最后CONV层输出为35,我们成立了maxpool相同的35值。我说的对,如果说价值128(核数)增加将增加准确性?
难道是有意义的投入额外CONV层提高精度? 就算会减少模型训练阶段。
谢谢!
我对Keras例如几个问题pretrained_word_embeddings增加的理解它是如何工作的水平。
是否合理使用dropout
在这种模型层?
最后MaxPooling1D
层每次必须覆盖所有的输出形状? 在原来的模式,最后CONV层输出为35,我们成立了maxpool相同的35值。
我说的对,如果说价值128(核数)增加将增加准确性?
难道是有意义的投入额外CONV层提高精度? 就算会减少模型训练阶段。
谢谢!
所以基本上有一个简单的回答你的问题 - 你需要对其进行测试:
dropout
通常是一件好事。 它引入了随机化和正规化的合理费用。 缺点是,你需要设置其参数的正确的价值 - 这有时可能需要一段时间。 MaxPooling1D
在最后汇集层以这种方式,以减少下一层输入的维度设置。 一个可检查例如像数的在先前层(在所呈现的情况下-例如半值18
) -其中只有doulbes输入到下一个层的大小-可以引入任何改善。