python 关于tensorflow机器学习(一)神经网络搭建
tensorflow安装的坑
- Windows用户安装时应安装python 64bit版,而官网首页第一个下载链接为32bit版,如下图所示官网首页个download链接,下载的是32bit的python,Windows平台tensorflow仅支持python64bit。
- python版本可以选择3.5以上版本,目前可选用python3.65版,不要轻易是使用最新版本的python,因为最新版本的python安装tensorflow会出现各种问题,比如无法使用pip进行下载安装,即使手动下载了python3.7的tensorflow安装压缩包,依然会在安装过程出现各种错误,因为相关类库未适配python3.7等等问题。所以为了简单建议下载python3.6版本。
下载链接如图所示
图中所示版本博主亲测,可以使用pip安装tensorflow并正常运行。
基于tensorflow神经网简单示例
目的
搭建一个简单神经网络用来拟合y=x^2+0.5
并预测x=0.65时y的值,并对比采用传统最小二乘法的拟合
神经网络搭建
- 神经网络层搭建
神经层的初始权值采用normal随机生成即高斯分布生成,偏差biases初始化为0,默认不采用activate function进行非线性化。
def add_layer(inputs, in_size, out_size, activation_function=None):
weights = tf.Variable(tf.random.normal([in_size, out_size]))
biases = tf.Variable(tf.zeros([1,out_size])+0.1)
Wx_plus_b = tf.matmul(inputs,weights) + biases
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
return outputs
- 神经网络搭建
使用含10个神经元的神经网络进行拟合,如图所示:
采用梯度下降法进行学习,学习效率选择为0.2
代码实现如下:
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
x_data = np.linspace(-1,1,300)[:,np.newaxis]
noise = np.random.normal(0, 0.1, x_data.shape)#引入高斯白噪声
y_data = np.square(x_data)+0.5+noise
X=0.65
x_input = tf.placeholder(tf.float32, [None,1])
y_output = tf.placeholder(tf.float32, [None,1])
layer1_out = add_layer(x_input, 1, 10, tf.nn.relu)
prediction = add_layer(layer1_out, 10, 1)
loss = tf.reduce_mean(tf.reduce_sum(tf.square(y_output-prediction), reduction_indices=[1]))
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
init = tf.initialize_all_variables()
session = tf.Session()
session.run(init)
fig = plt.figure()
fig1 = fig.add_subplot(1,1,1)
fig1.scatter(x_data, y_data)
plt.ion()#令程序布种终止
plt.show(block=False)
for i in range(1000):
session.run(train_step,feed_dict={x_input:x_data, y_output:y_data})
if i%50 == 0:
#to see setp improvenment
#print(session.run(loss, feed_dict={x_input:x_data, y_output:y_data}))
try:
fig1.lines.remove(lines[0])
except Exception:
pass
prediction_value = session.run(prediction, feed_dict={x_input:x_data})
lines = fig1.plot(x_data, prediction_value,'r-',lw=3)
plt.pause(0.2)
print("神经网络拟合结果:%2.5f" %session.run(prediction,feed_dict={x_input:[[X,]]}))
- 采用传统最小二乘法拟合
代码实现:
z = np.polyfit(x_data.flatten(), y_data.flatten(), 2)
print(z)
Y=z[0]*X*X+z[1]*X+z[2]
print("最小二乘法拟合预测结果:%2.5f" %Y)
- 实验结果
神经网络拟合图像如下所示
最小二乘法拟合:
对于X=0.65,Y值的预测结果:
总结
简单神经网络在方程的拟合上,准确度在百分之90以上,可以通过增加神经元个数,与添加不同activation function等方式优化神经网络,从而达到更好的学习效果。