0

0

Python中关于numpy灵活定义神经网络结构的实例

黄舟

黄舟

发布时间:2017-08-20 10:39:14

|

2290人浏览过

|

来源于php中文网

原创

这篇文章主要介绍了python基于numpy灵活定义神经网络结构的方法,结合实例形式分析了神经网络结构的原理及python具体实现方法,涉及python使用numpy扩展进行数学运算的相关操作技巧,需要的朋友可以参考下

本文实例讲述了Python基于numpy灵活定义神经网络结构的方法。分享给大家供大家参考,具体如下:

用numpy可以灵活定义神经网络结构,还可以应用numpy强大的矩阵运算功能!

一、用法

1). 定义一个三层神经网络:

立即学习Python免费学习笔记(深入)”;


'''示例一'''
nn = NeuralNetworks([3,4,2]) # 定义神经网络
nn.fit(X,y) # 拟合
print(nn.predict(X)) #预测

说明:
  输入层节点数目:3
  隐藏层节点数目:4
  输出层节点数目:2

传声港
传声港

AI驱动的综合媒体服务平台,提供 “媒体发稿 + 自媒体宣发 + 效果监测” 一站式服务

下载

2).定义一个五层神经网络:


'''示例二'''
nn = NeuralNetworks([3,5,7,4,2]) # 定义神经网络
nn.fit(X,y) # 拟合
print(nn.predict(X)) #预测

说明:
  输入层节点数目:3
  隐藏层1节点数目:5
  隐藏层2节点数目:7
  隐藏层3节点数目:4
  输出层节点数目:2

二、实现

如下实现方式为本人(@hhh5460)原创。 要点: dtype=object


import numpy as np
class NeuralNetworks(object):
  ''''''
  def __init__(self, n_layers=None, active_type=None, n_iter=10000, error=0.05, alpha=0.5, lamda=0.4):
    '''搭建神经网络框架'''
    # 各层节点数目 (向量)
    self.n = np.array(n_layers) # 'n_layers必须为list类型,如:[3,4,2] 或 n_layers=[3,4,2]'
    self.size = self.n.size # 层的总数
    # 层 (向量)
    self.z = np.empty(self.size, dtype=object) # 先占位(置空),dtype=object !如下皆然
    self.a = np.empty(self.size, dtype=object)
    self.data_a = np.empty(self.size, dtype=object)
    # 偏置 (向量)
    self.b = np.empty(self.size, dtype=object)
    self.delta_b = np.empty(self.size, dtype=object)
    # 权 (矩阵)
    self.w = np.empty(self.size, dtype=object)
    self.delta_w = np.empty(self.size, dtype=object)
    # 填充
    for i in range(self.size):
      self.a[i] = np.zeros(self.n[i]) # 全零
      self.z[i] = np.zeros(self.n[i]) # 全零
      self.data_a[i] = np.zeros(self.n[i]) # 全零
      if i < self.size - 1:
        self.b[i] = np.ones(self.n[i+1])  # &#20840;&#19968;
        self.delta_b[i] = np.zeros(self.n[i+1]) # &#20840;&#38646;
        mu, sigma = 0, 0.1 # &#22343;&#20540;&#12289;&#26041;&#24046;
        self.w[i] = np.random.normal(mu, sigma, (self.n[i], self.n[i+1])) # # &#27491;&#24577;&#20998;&#24067;&#38543;&#26426;&#21270;
        self.delta_w[i] = np.zeros((self.n[i], self.n[i+1])) # &#20840;&#38646;

下面完整代码是我学习斯坦福机器学习教程,完全自己敲出来的:


import numpy as np
'''
&#21442;&#32771;&#65306;http://ufldl.stanford.edu/wiki/index.php/%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C
'''
class NeuralNetworks(object):
  ''''''
  def __init__(self, n_layers=None, active_type=None, n_iter=10000, error=0.05, alpha=0.5, lamda=0.4):
    '''&#25645;&#24314;&#31070;&#32463;&#32593;&#32476;&#26694;&#26550;'''
    self.n_iter = n_iter # &#36845;&#20195;&#27425;&#25968;
    self.error = error # &#20801;&#35768;&#26368;&#22823;&#35823;&#24046;
    self.alpha = alpha # &#23398;&#20064;&#36895;&#29575;
    self.lamda = lamda # &#34928;&#20943;&#22240;&#23376; # &#27492;&#22788;&#25925;&#24847;&#25340;&#20889;&#38169;&#35823;&#65281;
    if n_layers is None:
      raise '&#21508;&#23618;&#30340;&#33410;&#28857;&#25968;&#30446;&#24517;&#39035;&#35774;&#32622;&#65281;'
    elif not isinstance(n_layers, list):
      raise 'n_layers&#24517;&#39035;&#20026;list&#31867;&#22411;&#65292;&#22914;&#65306;[3,4,2] &#25110; n_layers=[3,4,2]'
    # &#33410;&#28857;&#25968;&#30446; (&#21521;&#37327;)
    self.n = np.array(n_layers)
    self.size = self.n.size # &#23618;&#30340;&#24635;&#25968;
    # &#23618; (&#21521;&#37327;)
    self.a = np.empty(self.size, dtype=object) # &#20808;&#21344;&#20301;(&#32622;&#31354;)&#65292;dtype=object &#65281;&#22914;&#19979;&#30342;&#28982;
    self.z = np.empty(self.size, dtype=object)
    # &#20559;&#32622; (&#21521;&#37327;)
    self.b = np.empty(self.size, dtype=object)
    self.delta_b = np.empty(self.size, dtype=object)
    # &#26435; (&#30697;&#38453;)
    self.w = np.empty(self.size, dtype=object)
    self.delta_w = np.empty(self.size, dtype=object)
    # &#27531;&#24046; (&#21521;&#37327;)
    self.data_a = np.empty(self.size, dtype=object)
    # &#22635;&#20805;
    for i in range(self.size):
      self.a[i] = np.zeros(self.n[i]) # &#20840;&#38646;
      self.z[i] = np.zeros(self.n[i]) # &#20840;&#38646;
      self.data_a[i] = np.zeros(self.n[i]) # &#20840;&#38646;
      if i < self.size - 1:
        self.b[i] = np.ones(self.n[i+1])  # &#20840;&#19968;
        self.delta_b[i] = np.zeros(self.n[i+1]) # &#20840;&#38646;
        mu, sigma = 0, 0.1 # &#22343;&#20540;&#12289;&#26041;&#24046;
        self.w[i] = np.random.normal(mu, sigma, (self.n[i], self.n[i+1])) # # &#27491;&#24577;&#20998;&#24067;&#38543;&#26426;&#21270;
        self.delta_w[i] = np.zeros((self.n[i], self.n[i+1])) # &#20840;&#38646;
    # &#28608;&#27963;&#20989;&#25968;
    self.active_functions = {
      'sigmoid': self.sigmoid,
      'tanh': self.tanh,
      'radb': self.radb,
      'line': self.line,
    }
    # &#28608;&#27963;&#20989;&#25968;&#30340;&#23548;&#20989;&#25968;
    self.derivative_functions = {
      'sigmoid': self.sigmoid_d,
      'tanh': self.tanh_d,
      'radb': self.radb_d,
      'line': self.line_d,
    }
    if active_type is None:
      self.active_type = ['sigmoid'] * (self.size - 1) # &#40664;&#35748;&#28608;&#27963;&#20989;&#25968;&#31867;&#22411;
    else:
      self.active_type = active_type
  def sigmoid(self, z):
    if np.max(z) > 600:
      z[z.argmax()] = 600
    return 1.0 / (1.0 + np.exp(-z))
  def tanh(self, z):
    return (np.exp(z) - np.exp(-z)) / (np.exp(z) + np.exp(-z))
  def radb(self, z):
    return np.exp(-z * z)
  def line(self, z):
    return z
  def sigmoid_d(self, z):
    return z * (1.0 - z)
  def tanh_d(self, z):
    return 1.0 - z * z
  def radb_d(self, z):
    return -2.0 * z * np.exp(-z * z)
  def line_d(self, z):
    return np.ones(z.size) # &#20840;&#19968;
  def forward(self, x):
    '''&#27491;&#21521;&#20256;&#25773;&#65288;&#22312;&#32447;&#65289;''' 
    # &#29992;&#26679;&#26412; x &#36208;&#19968;&#36941;&#65292;&#21047;&#26032;&#25152;&#26377; z, a
    self.a[0] = x
    for i in range(self.size - 1):
      self.z[i+1] = np.dot(self.a[i], self.w[i]) + self.b[i] 
      self.a[i+1] = self.active_functions[self.active_type[i]](self.z[i+1]) # &#21152;&#20102;&#28608;&#27963;&#20989;&#25968;
  def err(self, X, Y):
    '''&#35823;&#24046;'''
    last = self.size-1
    err = 0.0
    for x, y in zip(X, Y):
      self.forward(x)
      err += 0.5 * np.sum((self.a[last] - y)**2)
    err /= X.shape[0]
    err += sum([np.sum(w) for w in self.w[:last]**2])
    return err
  def backward(self, y):
    '''&#21453;&#21521;&#20256;&#25773;&#65288;&#22312;&#32447;&#65289;'''
    last = self.size - 1
    # &#29992;&#26679;&#26412; y &#36208;&#19968;&#36941;&#65292;&#21047;&#26032;&#25152;&#26377;delta_w, delta_b
    self.data_a[last] = -(y - self.a[last]) * self.derivative_functions[self.active_type[last-1]](self.z[last]) # &#21152;&#20102;&#28608;&#27963;&#20989;&#25968;&#30340;&#23548;&#20989;&#25968;
    for i in range(last-1, 1, -1):
      self.data_a[i] = np.dot(self.w[i], self.data_a[i+1]) * self.derivative_functions[self.active_type[i-1]](self.z[i]) # &#21152;&#20102;&#28608;&#27963;&#20989;&#25968;&#30340;&#23548;&#20989;&#25968;
      # &#35745;&#31639;&#20559;&#23548;
      p_w = np.outer(self.a[i], self.data_a[i+1]) # &#22806;&#31215;&#65281;&#24863;&#35874; numpy &#30340;&#24378;&#22823;&#65281;
      p_b = self.data_a[i+1]
      # &#26356;&#26032; delta_w, delta_w
      self.delta_w[i] = self.delta_w[i] + p_w
      self.delta_b[i] = self.delta_b[i] + p_b
  def update(self, n_samples):
    '''&#26356;&#26032;&#26435;&#37325;&#21442;&#25968;'''
    last = self.size - 1
    for i in range(last):
      self.w[i] -= self.alpha * ((1/n_samples) * self.delta_w[i] + self.lamda * self.w[i])
      self.b[i] -= self.alpha * ((1/n_samples) * self.delta_b[i])
  def fit(self, X, Y):
    '''&#25311;&#21512;'''
    for i in range(self.n_iter):
      # &#29992;&#25152;&#26377;&#26679;&#26412;&#65292;&#20381;&#27425;
      for x, y in zip(X, Y):
        self.forward(x) # &#21069;&#21521;&#65292;&#26356;&#26032; a, z;
        self.backward(y) # &#21518;&#21521;&#65292;&#26356;&#26032; delta_w, delta_b
      # &#28982;&#21518;&#65292;&#26356;&#26032; w, b
      self.update(len(X))
      # &#35745;&#31639;&#35823;&#24046;
      err = self.err(X, Y)
      if err < self.error:
        break
      # &#25972;&#21315;&#27425;&#26174;&#31034;&#35823;&#24046;&#65288;&#21542;&#21017;&#22826;&#26080;&#32842;&#65281;&#65289;
      if i % 1000 == 0:
        print('iter: {}, error: {}'.format(i, err))
  def predict(self, X):
    '''&#39044;&#27979;'''
    last = self.size - 1
    res = []
    for x in X:
      self.forward(x)
      res.append(self.a[last])
    return np.array(res)
if __name__ == '__main__':
  nn = NeuralNetworks([2,3,4,3,1], n_iter=5000, alpha=0.4, lamda=0.3, error=0.06) # &#23450;&#20041;&#31070;&#32463;&#32593;&#32476;
  X = np.array([[0.,0.], # &#20934;&#22791;&#25968;&#25454;
         [0.,1.],
         [1.,0.],
         [1.,1.]])
  y = np.array([0,1,1,0])
  nn.fit(X,y)     # &#25311;&#21512;
  print(nn.predict(X)) # &#39044;&#27979;

相关文章

python速学教程(入门到精通)
python速学教程(入门到精通)

python怎么学习?python怎么入门?python在哪学?python怎么学才快?不用担心,这里为大家提供了python速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!

下载

相关标签:

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法
雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法

本专题系统整理雨课堂网页版官方入口及在线登录方式,涵盖账号登录流程、官方直连入口及平台访问方法说明,帮助师生用户快速进入雨课堂在线教学平台,实现便捷、高效的课程学习与教学管理体验。

2

2026.02.12

豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法
豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法

本专题汇总豆包AI官方网页版入口及在线使用方式,涵盖智能写作工具、图片生成体验入口和官网登录方法,帮助用户快速直达豆包AI平台,高效完成文本创作与AI生图任务,实现便捷智能创作体验。

36

2026.02.12

PostgreSQL性能优化与索引调优实战
PostgreSQL性能优化与索引调优实战

本专题面向后端开发与数据库工程师,深入讲解 PostgreSQL 查询优化原理与索引机制。内容包括执行计划分析、常见索引类型对比、慢查询优化策略、事务隔离级别以及高并发场景下的性能调优技巧。通过实战案例解析,帮助开发者提升数据库响应速度与系统稳定性。

4

2026.02.12

Next.js全栈开发与SSR服务端渲染实战
Next.js全栈开发与SSR服务端渲染实战

本专题系统讲解 Next.js 框架在现代全栈开发中的应用,重点解析 SSR、SSG 与 ISR 渲染模式的原理与差异。内容涵盖路由系统、API Routes、数据获取策略、性能优化以及部署实践。通过完整项目示例,帮助开发者掌握高性能 SEO 友好的 React 全栈开发方案。

1

2026.02.12

Kotlin协程编程与Spring Boot集成实践
Kotlin协程编程与Spring Boot集成实践

本专题围绕 Kotlin 协程机制展开,深入讲解挂起函数、协程作用域、结构化并发与异常处理机制,并结合 Spring Boot 展示协程在后端开发中的实际应用。内容涵盖异步接口设计、数据库调用优化、线程资源管理以及性能调优策略,帮助开发者构建更加简洁高效的 Kotlin 后端服务架构。

22

2026.02.12

2026春节习俗大全
2026春节习俗大全

本专题整合了2026春节习俗大全,阅读专题下面的文章了解更多详细内容。

254

2026.02.11

Yandex网页版官方入口使用指南_国际版与俄罗斯版访问方法解析
Yandex网页版官方入口使用指南_国际版与俄罗斯版访问方法解析

本专题全面整理了Yandex搜索引擎的官方入口信息,涵盖国际版与俄罗斯版官网访问方式、网页版直达入口及免登录使用说明,帮助用户快速、安全地进入Yandex官网,高效使用其搜索与相关服务。

775

2026.02.11

虫虫漫画网页版入口与免费阅读指南_正版漫画全集在线查看方法
虫虫漫画网页版入口与免费阅读指南_正版漫画全集在线查看方法

本专题系统整理了虫虫漫画官网及网页版最新入口,涵盖免登录观看、正版漫画全集在线阅读方式,并汇总稳定可用的访问渠道,帮助用户快速找到虫虫漫画官方页面,轻松在线阅读各类热门漫画内容。

95

2026.02.11

Docker容器化部署与DevOps实践
Docker容器化部署与DevOps实践

本专题面向后端与运维开发者,系统讲解 Docker 容器化技术在实际项目中的应用。内容涵盖 Docker 镜像构建、容器运行机制、Docker Compose 多服务编排,以及在 DevOps 流程中的持续集成与持续部署实践。通过真实场景演示,帮助开发者实现应用的快速部署、环境一致性与运维自动化。

7

2026.02.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.4万人学习

Django 教程
Django 教程

共28课时 | 4.2万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.5万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号