tensorflow中提供了rnn接口有两种,一种是静态的rnn,一种是动态的rnn
通常用法:
1、静态接口:static_rnn
主要使用 tf.contrib.rnn
x = tf.placeholder("float", [None, n_steps, n_input])
x1 = tf.unstack(x, n_steps, 1)
lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden, forget_bias=1.0)
outputs, states = tf.contrib.rnn.static_rnn(lstm_cell, x1, dtype=tf.float32)
pred = tf.contrib.layers.fully_connected(outputs[-1],n_classes,activation_fn = None)
静态 rnn 的意思就是在图中创建一个固定长度(n_steps)的网络。这将导致
缺点:
- 生成过程耗时跟长,占内存更多,导出的模型更大;
- 无法传递比最初指定的更长的序列(> n_steps)。
优点:
- 模型中带有某个序列中间台的信息,便与调试。
2、动态接口:dynamic_rnn
主要使用 tf.nn.dynamic_rnn
x = tf.placeholder("float", [None, n_steps, n_input])
lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden, forget_bias=1.0)
outputs,_ = tf.nn.dynamic_rnn(lstm_cell ,x,dtype=tf.float32)
outputs = tf.transpose(outputs, [1, 0, 2])
pred = tf.contrib.layers.fully_connected(outputs[-1],n_classes,activation_fn = None)
动态的tf.nn.dynamic_rnn被执行时,它使用循环来动态构建图形。这意味着
优点:
- 图形创建速度更快,占用内存更少;
- 并且可以提供可变大小的批处理。