约keras例如pretrained_word_embeddings问题(Questions abo

2019-09-29 21:02发布

我对Keras例如几个问题pretrained_word_embeddings增加的理解它是如何工作的水平。

  1. 是否合理使用dropout在这种模型层?

  2. 最后MaxPooling1D层每次必须覆盖所有的输出形状? 在原来的模式,最后CONV层输出为35,我们成立了maxpool相同的35值。

  3. 我说的对,如果说价值128(核数)增加将增加准确性?

  4. 难道是有意义的投入额外CONV层提高精度? 就算会减少模型训练阶段。

谢谢!

Answer 1:

所以基本上有一个简单的回答你的问题 - 你需要对其进行测试:

  1. 添加dropout通常是一件好事。 它引入了随机化和正规化的合理费用。 缺点是,你需要设置其参数的正确的价值 - 这有时可能需要一段时间。
  2. 在我看来- a的值MaxPooling1D在最后汇集层以这种方式,以减少下一层输入的维度设置。 一个可检查例如像数的在先前层(在所呈现的情况下-例如半值18 ) -其中只有doulbes输入到下一个层的大小-可以引入任何改善。
  3. 这很难说 - 如果你具有例如数据少量具有真正的刚性结构 - 以多参数可能会严重损害你的训练。 最好的方法就是测试在任何网格随机搜索模式不同的参数值。 它原来以为随机搜索做一个更好的工作:)


文章来源: Questions about keras example pretrained_word_embeddings