Tensorflow张量的形状表示方法

对输入或输出而言:

一个张量的形状为a x b x c x d,实际写出这个张量时:

最外层括号[…]表示这个是一个张量,无别的意义!

次外层括号有a个,表示这个张量里有a个样本

再往内的括号有b个,表示每个样本的长

再往内的括号有c个,表示每个样本的宽

再往内没有括号,也就是最内层的括号里的数有d个,表示每个样本的深度为d

tf.nn.conv2d(), tf.reshape()等都是这样表示

给一个具体的张量,求这个张量的a,b,c,d值时,首先忽略最外层的括号,再数次外层括号个数(a),再往内(b),再往内(c),最后看最里层的括号内有几个数(d)(各数代表各深度层的值)。

如:

Tensor = tf.constant([[[[1],[2],[ 3]],[[4],[5],[6 ]],[[ 7],[8],[9]]]])  # 也可以不写逗号
# Tensor.shape = (1, 3, 3, 1)

形状为(1, 3, 3, 1)

(看着容易眼花,所以一般竖着写)

Tensor2 = tf.constant([[[[1],[2],[ 3]],[[4],[5],[6 ]],[[ 7],[8],[9]]], [[[1],[2],[ 3]],[[4],[5],[6 ]],[[ 7],[8],[9]]]])
# Tensor2.shape = (2, 3, 3, 1)

形状为(2, 3, 3, 1)  

类似的还有tf.ones(), tf.zeros()

注意!!!

对卷积核来说,a,b,c,d对应的括号形式虽然相同,但a,b,c,d代表的含义和输入不一样!!分别代表长,宽,深,个数!!所以书写时要注意括号的形式!!比如我要写一个长宽分别为2,2,深度为1,个数为1的kernel张量,则它的形状应为(2,2,1,1),而不是(1,2,2,1),用类似tf.random.normal的方法来初始化kernel或weights时也是(长,宽,深,个数)

比如:

filter = tf.constant([[[[1]],
                  [[2]]],
                 [[[ 3]],
                  [[4]]]])

我想可能是和矩阵的乘法(左矩阵和右矩阵的位置)有关

池化层的池化窗口大小ksize形状为[1, height, width, 1]

使用tensor.reshape(-1, a, b, c)时,-1代表不指定这一维的大小,因为张量里的元素个数是一定的,其他维的大小确定后,这一维的大小也随之确定,但不能在2各维度上使用-1(可以想象为解一元方程组,有一个未知数时方程有特解,有两个未知数时方程的解不定)