tensorflow学习一

1.用图(graph)来表示计算任务

2.用op(opreation)来表示图中的计算节点,图有默认的计算节点,构建图的过程就是在其基础上加节点。

3.用tensor表示每个op的输入输出数据,可以使用feed,fetch可以为任意操作设置输入和获取输出。

4.通过Variable来维护状态。

5.整个计算任务放入session的上下文来执行。

tensorflow把复杂的计算放在python之外进行。

为什么tensorflow使用session来运行会话?

因为python会使用一些非python实现的库比如numpy,如果每个操作和数据都做内外交换代价太大,

所以把所有操作描述为图,把整个操作图打包放入session,作为一个整体做内外交换,这样就能避免频繁的内外交换带来的性能损失。

一般步骤

#导入库

import tensorflow as tf

import numpy as np

# 通过操作符号变量来描述这些可交互的操作单元

x = tf.placeholder("float", [None, 784]) # 这里的 None 表示此张量的第一个维度可以是任何长度的

#定义变量

# 一个 Variable 代表一个可修改的张量,存在在TensorFlow的用于描述

#交互性操作的图中。它们可以用于计算输入值,也可以在计算中被修改。对于各种机器学习应用,一般都会有模

#型参数,可以用 Variable 表示

W = tf.Variable(tf.zeros([784,10]))

b = tf.Variable(tf.zeros([10]))

#实现模型

y = tf.nn.softmax(tf.matmul(x,W) + b)

#定义指标评估模型的好坏

#我们通常定义指标来表示一个模型是坏的,这个指标称为成本(cost)或损失(loss),然后尽量最小化这个指标

y_ = tf.placeholder("float", [None,10])

cross_entropy = -tf.reduce_sum(y_*tf.log(y))

#使用梯度下降算法来修改变量减小成本

train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

#初始化

init = tf.initialize_all_variables()

#启动模型

sess = tf.Session()

sess.run(init)

#训练模型

for i in range(1000):

batch_xs, batch_ys = mnist.train.next_batch(100)

sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

#评估模型

correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))

accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))

print sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})

1.exp函数,自然对数e( 2.71828)的指数函数

2.normalize函数,归一化函数,把数据范围限制在你需要的范围(范围缩放)。

3.交叉熵

4.导数,导函数,切线,斜率,方差代价函数