您现在的位置是: 网站首页 >> 技术文章 技术文章

    • 【转】深度学习笔记9:权值更新的实现

      权值更新在前面的反向传播中我们计算出每一层的权值W和偏置b的偏导数之后,最后一步就是对权值和偏置进行更新了。在之前的BP算法的介绍中我们给出了如下公式:                                               其中的α为学习速率,一般学习率并不是一个常数,而是一个以训练次数为自变量的单调递减的函数。使用变化的学习率有以下几点理由:1、开始时学习率较大,可以快速的
      技术文章 已有832人阅读 2018-08-27
    • 【转】深度学习笔记7:激活函数层的实现

      激活函数是用来引入非线性因素的。网络中仅有线性模型的话,表达能力不够。比如一个多层的线性网络,其表达能力和单层的线性网络是相同的(可以化简一个3层的线性网络试试)。我们前边提到的卷积层、池化层和全连接层都是线性的,所以,我们要在网络中加入非线性的激活函数层。一般一个网络中只设置一个激活层。激活函数一般具有以下性质:非线性: 线性模型的不足我们前边已经提到。处处可导:反向传播时需要计算激活函数的偏导
      技术文章 已有705人阅读 2018-08-27
    • 【转】深度学习笔记8:softmax层的实现

      softmax简介Softmax回归模型是logistic回归模型在多分类问题上的推广,在多分类问题中,待分类的类别数量大于2,且类别之间互斥。比如我们的网络要完成的功能是识别0-9这10个手写数字,若最后一层的输出为[0,1,0, 0, 0, 0, 0, 0, 0, 0],则表明我们网络的识别结果为数字1。Softmax的公式为,可以直观看出如果某一个zj大过其他z,那这个映射的分量就逼近于1,
      技术文章 已有677人阅读 2018-08-27
    • 简析python-docx库使用方法

      python-docx库简析,使用docx库自动化操作word文档.首先看一下python-docx文档给出的例子实现出来是这样的的那么下面简析一下各个api的用法以及一些细节问题1,添加word文档的标题Document()可接受一个模板文件参数,不添加的话将使用默认模板,所以打包时需要注意这个问题.add_heading()添加一个标题,docx将标题等级分为0-9,样式各有不同,我使用时有个
      技术文章 已有602人阅读 2018-11-14
    • Python实现链表数据结构

      链表是一种物理存储单元上非连续性、非顺序性的存储结构,数据元素的逻辑顺序是通过链表中的指针链接次序实现的。链表由一系列节点(链表中每一个元素称为节点)组成,节点可以在运行时动态生成。每个节点包括两个部分:一个是存储数据元素的数据域,另一个是存储下一个节点地址的指针域。相比于线性表顺序结构,操作复杂。由于不必须按顺序存储,链表在插入的时候可以达到O(1)的复杂度,比另一种线性表顺序表快得多,但是查找
      技术文章 已有517人阅读 2018-12-12
    • 【转】深度学习笔记4:卷积层的实现

      卷积层的推导卷积层的前向计算如下图,卷积层的输入来源于输入层或者pooling层。每一层的多个卷积核大小相同,在这个网络中,我使用的卷积核均为5*5。如图输入为28*28的图像,经过5*5的卷积之后,得到一个(28-5+1)*(28-5+1) = 24*24、的map。卷积层2的每个map是不同卷积核在前一层每个map上进行卷积,并将每个对应位置上的值相加然后再加上一个偏置项。每次用卷积核与map
      技术文章 已有508人阅读 2018-08-27
    • 【小试牛刀】python爬取壁纸图片

      先写个简单的爬虫试试水。。。使用python快速编写一个壁纸图片的爬虫,我这里就随便找了个壁纸网站,需要爬其他网站图片问题也不大,稍微改动下解析模块,应该大体适用。准备工作:python3,第三方库requests(也可以用自带的urllib),BeautifulSoup写代码之前我们需要先分析下需要爬取的网页。首先确定我们需要爬的是什么,这里我们确定的就是一个图片标题,一个图片地址确认了要爬取的
      技术文章 已有482人阅读 2018-08-27
    • 【转】深度学习笔记5:池化层的实现

      池化层的推导池化层的输入一般来源于上一个卷积层,主要作用是提供了很强的鲁棒性(例如max-pooling是取一小块区域中的最大值,此时若此区域中的其他值略有变化,或者图像稍有平移,pooling后的结果仍不变),并且减少了参数的数量,防止过拟合现象的发生。池化层一般没有参数,所以反向传播的时候,只需对输入参数求导,不需要进行权值更新。池化层的前向计算前向计算过程中,我们对卷积层输出map的每个不重
      技术文章 已有462人阅读 2018-08-27
    • 【转】深度学习笔记1:神经网络理解

      1、神经网络简介        神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。神经元为神经网络中的基本组成单位,        下图为单个神经元的图片,如图所示,每个神经元的输入包含多个变量x1——xn以及一个偏置值b,同时输出h(x) = f(w1*x1+w2*x2+w3*x3+b),f(x)称激活函数。激活函数是用来加入非线性因素的,因为线性模型的表达能力不够(若采用性
      技术文章 已有422人阅读 2018-08-27
    • 【转】深度学习笔记6:全连接层的实现

      全连接层的推导全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。全连接层的前向计算下图中连线最密集的2个地方就是全连接层,这很明显的可以看出全连接层的参数的确很多。在前向计算过程,也就是一个线性的加权求和的过程,全连接层的每一个输出都可以看成前一层的每一个结点乘以一个权重系数W,最后加上一个偏置值b得到,即 。如下图中第
      技术文章 已有421人阅读 2018-08-27