import numpy as np
import pandas as pddef nonlin(x,deriv=False):if(deriv==True):return x*(1-x)return 1/(1+np.exp(-x))A = pd.read_table('DATA/ANN_mix.txt',header=None,usecols = (0,1,2,3,4,5))
# 插入一列 1 增加一个 x0 相当于截距
A.insert(0,'insert',1)
m,n=A.shape# 数据归一化 (x-mean)/max-min
A.iloc[:,1]=(A.iloc[:,1]-A.iloc[:,1].mean() )/(A.iloc[:,1].max()-A.iloc[:,1].min())
A.iloc[:,2]=(A.iloc[:,2]-A.iloc[:,2].mean() )/(A.iloc[:,2].max()-A.iloc[:,2].min())
A.iloc[:,3]=(A.iloc[:,3]-A.iloc[:,3].mean() )/(A.iloc[:,3].max()-A.iloc[:,3].min())# 取X-后10行作为训练数据
X = np.array(A.iloc[:m-10,:4])
y = np.array(A.iloc[:m-10,4:7])# 随机确定两个参数矩阵 此处构建的矩阵为 4*5*3 矩阵 4个输入 3个输出 即三个分类
np.random.seed(1)
syn0 = 2*np.random.random((4,5)) - 1
syn1 = 2*np.random.random((5,3)) - 1# 迭代次
for j in range(100000):l0 = X# 根据随机参数计算出第一个结果l1 = nonlin(np.dot(l0,syn0))l2 = nonlin(np.dot(l1,syn1))# 计算误差l2_error = y - l2# 计算误差 确定迭代终止条件if (j% 100) == 0:print ("Error:" + str(np.mean(np.abs(l2_error))))if (np.mean(np.abs(l2_error))<=0.005):print('迭代次数:',j,' 误差:',np.mean(np.abs(l2_error)))break# 计算l2的偏差值l2_delta = l2_error * nonlin(l2,deriv=True)# l1的误差值l1_error = l2_delta.dot(syn1.T)# l1的偏差值l1_delta = l1_error * nonlin(l1,deriv=True)# 参数矩阵更新syn1 += l1.T.dot(l2_delta)syn0 += l0.T.dot(l1_delta)print('神经网络第一层参数矩阵\n',syn0)
print('神经网络第二层参数矩阵\n',syn1)# A留下后10行数据用于检验
l0 = np.array(A.iloc[m-10:m,:4])
print('检测数据 正确分类(3 4 5 列)')
print(A.iloc[m-10:,:])# 检验输出
l1 = nonlin(np.dot(l0,syn0))
l2 = nonlin(np.dot(l1,syn1))
print('---------------神经网络预测分类(大于0.5预测为1)-------------------')
print(l2)
运行结果: