keras模块学习之层,layer的使用-笔记

本笔记由博客园-圆柱模板 博主整理笔记发布,转载需注明,谢谢合作!

keras的层主要包括:

常用层(Core)、卷积层(Convolutional)、池化层(Pooling)、局部连接层、递归层(Recurrent)、嵌入层( Embedding)、高级激活层、规范层、噪声层、包装层,当然也可以编写自己的层

对于层的操作

layer.get_weights() #返回该层的权重
layer.set_weights(weights)#将权重加载到该层
config = layer.get_config()#保存该层的配置
layer = layer_from_config(config)#加载一个配置到该层
#该层有一个节点时,获得输入张量、输出张量、及各自的形状:
layer.input
layer.output
layer.input_shape
layer.output_shape
#该层有多个节点时(node_index为节点序号):
layer.get_input_at(node_index)
layer.get_output_at(node_index)
layer.get_input_shape_at(node_index)
layer.get_output_shape_at(node_index)

  Dense层(全连接层)

keras.layers.core.Dense(output_dim, init='glorot_uniform', activation='linear', weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)

  

output_dim:输出数据的维度

init:初始化该层权重的方法

activation:该层的激活函数

weights:numpy array的list。该list应含有一个形如(input_dim,output_dim)的权重矩阵和一个形如(output_dim,)的偏置向量

regularizer:正则项,w为权重的、b为偏执的,activity为输出的

constraints:约束项

bias:是否包含偏执向量,是布尔值

input_dim:输入数据的维度

dropout层

keras.layers.core.Dropout(p)

为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时随机断开一定百分比(p)的输入神经元连接,Dropout层用于防止过拟合。