keras模块学习之-激活函数,activations--笔记
本笔记由博客园-圆柱模板 博主整理笔记发布,转载需注明,谢谢合作!
每一个神经网络层都需要一个激活函数,例如一下样例代码:
from keras.layers.core import Activation, Dense model.add(Dense(64)) model.add(Activation('tanh')) 或把上面两行合并为: model.add(Dense(64, activation='tanh'))
可以选择的激活函数有:
linear、sigmoid、hard_sigmoid、tanh、softplus、relu、 softplus,softmax、softsign
还有一些高级激活函数,比如如PReLU,LeakyReLU等
- 上一篇 »javascript设计模式学习之三—闭包和高阶函数
- 下一篇 »PHP学习之函数中的全局参数