tensorflow实现简单的卷积神经网络

(3)代码实现(来自TensorFlow的开源实现):

/导入tensorflow,创建路径,载入数据集/

from tensorflow.examples.tutorials.mnist import input_data

import tensorflow as tf

mnist = input_data.read_data_sets(“MNIST_data”,one_hot = True)/第一个参数是路径/

/创建默认的Interactive session,之后的运算默认跑在这个session中,不同的session中的运算和数据是相互独立的/

sess = tf.InteractiveSession()

/卷积神经网络有很多的权重和偏置需要创建,需要先定义好初始化函数,方便重复使用,越复杂的神经网络,初始化函数越复杂,也越重要。给权重制造一些随机的噪声打破完全对称,如截断的正态分布噪声,标准差设为0.1,给偏置增加小的正值,避免死亡节点/

def weight_variable(shape):

initial = tf.truncated_normal(shape, stddev=0.1)

return tf.Variable(initial)

def bias_variable(shape):

initial = tf.constant(0.1, shape = shape)

return tf.Variable(initial)

/定义卷积层和池化层的函数,tf.nn.conv2d是tensorflow中的2维卷积函数,参数中,x是输入,W是卷积的参数,如[5,5,1,32],前面两个数字代表卷积核的尺寸,第3个是通道(channel)的数量,如果是灰度单色,就是1,如果是RGB,就是3,最后一个数字代表卷积核的数量,即这个卷积核会提取多少类的特征。strides代表卷积模板移动的步长,都是1代表会划过图片的每一个点。padding代表边界的处理方式,SAME代表给边界加上padding,使输入和输出保持同样的尺寸。tf.nn.max_pool是tensorflow的最大池化函数,使用2X2的最大池化,将2X2的像素块将为1X1的,最大池化会保留原始像素块中灰度值最高的那个像素,即保留 《大厂前端面试题解析+Web核心总结学习笔记+企业项目实战源码+最新高清讲解视频》无偿开源 徽信搜索公众号【编程进阶路】 最显著特征/

def conv2d(x, W):

return tf.nn.conv2d(x, W, strides = [1,1,1,1], padding = ‘SAME’)

def max_pool_2X2(x):

return tf.nn.max_pool(x, ksize = [1,2,2,1], strides = [1,2,2,1], passing = ‘SAME’)

/先创建输入数据的地方placeholder,第一个参数是数据类型,第二个[None, 784],代表tensor的shape,即数据尺寸。x是特征,y_是真实的label/

x = tf.placeholder(tf.float32, [None,784])

y_ = tf.placeholder(tf.float32, [None,10])

/卷积神经网络要用到空间结构信息,因此要把1维的输入向量转为2维的图片结构,即从1X784–>28X28,-1代表样本数量不固定,最后的1是指通道数量为1/

x_image = tf.reshape(x, [-1,28,28,1])

/定义第一个卷积层,ReLU为激活函数,进行非线性处理/

W_conv1 = weight_variable([5,5,1,32])

b_conv1 = bias_variable([32])

h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)

h_pool1 = max_pool_2X2(h_conv1)

/定义第二个卷积层,卷积核数量变成了64,其他一样/

W_conv2 = weight_variable([5,5,1,64])

b_conv2 = bias_variable([64])

h_conv2 = tf.nn.relu(conv2d(x_image, W_conv2) + b_conv2)

h_pool2 = max_pool_2X2(h_conv2)

/前面使用两次2X2的最大池化,现在边长为之前的1/4,即28X28 --> 7X7,两次卷积之后,输出的tensor尺寸为7X7X64,使用tf.reshape函数对输出进行变形处理,转为1维向量,然后连接一个全连接层,隐含结点为1024,最后使用relu激活函数/

W_fc1 = weight_variable([7 * 7 * 64, 1024])

b_fc1 = bias_variable([1024])

h_pool2_flat = tf.reshape(h_pool2,[-1,7 * 7 * 64])

h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1) + b_fc1)

/使用Dropout层,减轻过拟合/

keep_prob = tf.placeholder(tf.float32)

h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

/最后将dropout的输出连接到Softmax层,得到概率输出/

W_fc2 = weight_variable([1024,10])

你可能感兴趣的