import numpy as np
import pandas as pd# 两层神经网络
# sigmoid 函数 输出0-1 分界为0.5
print('-----------------------------两层神经网络-----------------------------------')
def nonlin(x,deriv=False):if(deriv==True):return x*(1-x)return 1/(1+np.exp(-x))X = np.array([ [1,0,0],[1,0,1],[1,1,0],[1,1,1] ])y = np.array([[0,0,0,1]]).T# 为你的随机数设定产生种子是一个良好的习惯
np.random.seed(1)# 下面目的矩阵的值从 0->1 扩充到 -1 -> 1
syn0 = 2*np.random.random((3,1)) - 1
# print(syn0)# for iter in range(10000):
for j in range(100000):l0 = Xl1 = nonlin(np.dot(l0,syn0))l1_error = y - l1# # 误差控制if (j% 1000) == 0:print ("Error:" + str(np.mean(np.abs(l1_error))))# # 精度控制if (np.mean(np.abs(l1_error))<=0.01):print('迭代次数:',j,' 迭代精度:',np.mean(np.abs(l1_error)))breakl1_delta = l1_error * nonlin(l1,True)# update weightssyn0 += np.dot(l0.T,l1_delta)# print(syn0) #输出权值
l0=np.array([[1,0,1],[1,1,0],[1,0,0],[1,1,1]])
l1 = nonlin(np.dot(l0,syn0))
print(l1)
print(l1[l1<=0.5])
print(l1[l1>0.5])print('\n\n\n-----------------------------三层神经网络-----------------------------------')
# 三层神经网络
import numpy as npdef nonlin(x,deriv=False):if(deriv==True):return x*(1-x)return 1/(1+np.exp(-x))X = np.array([[1,0,0],[1,0,1],[1,1,0],[1,1,0],[1,1,1]])y = np.array([[1],[0],[0],[0],[1]])np.ra
详细解决方案
NG 神经网络 构建网络基础
热度:98 发布时间:2023-12-08 12:22:00.0
相关解决方案
- MNIST 神经网络:准确率很低
- 第五章 神经网络(待补充)
- 神经网络. epoch, iteration, batchsize相关理解和说明
- 神经网络(深度学习)入门学习
- 2017CS231n李飞飞深度视觉识别笔记(四)——神经网络
- 模拟退火法、神经网络、遗传算法
- MATLAB 车牌识别程序介绍 SVM、神经网络[毕业设计]
- 四、神经网络
- Udacity机器人软件工程师课程笔记(二十六) - 神经网络 - tensorflow - 神经网络构成与优化 - MNIST手写数字识别
- 深度学习之(神经网络)单层感知器(python)(一)
- 神经网络基础学习笔记(二)神经网络
- 西瓜书课后题——第五章(神经网络)
- BP 神经网络-从推导到实现(转载b站大神讲解,讲真我没看懂多少)
- 神经网络-激活函数小结
- 神经网络-简单的搭建实战
- 神经网络-池化层
- 神经网络-卷积层
- AcWing 477. 神经网络 拓扑+遍历
- 统计学习(九):神经网络
- 神经网络(Neural Networks)简介
- 002-深度学习数学基础(神经网络、梯度下降、损失函数)
- 第五章 神经网络
- 神经网络:全连接层转换为卷积层
- 机器学习---编程练习(四):神经网络
- 【NOIP2003】神经网络
- 【吴恩达Deep Learning】初学者学习记录2(神经网络/前后向传播)
- 【神经网络】VGG、ResNet、GoogleLeNet、AlexNet等常用网络代码及预训练模型
- 神经网络:细节知识点笔记
- NG 神经网络 多分类
- NG 神经网络 构建网络基础