神经网络理论基础及Python实现

kako0461 5年前
   <h3>一、多层前向神经网络</h3>    <p>多层前向神经网络由三部分组成:输出层、隐藏层、输出层,每层由单元组成;</p>    <p>输入层由训练集的实例特征向量传入,经过连接结点的权重传入下一层,前一层的输出是下一层的输入;隐藏层的个数是任意的,输入层只有一层,输出层也只有一层;</p>    <p>除去输入层之外,隐藏层和输出层的层数和为n,则该神经网络称为n层神经网络,如下图为2层的神经网络;</p>    <p>一层中加权求和,根据非线性方程进行转化输出;理论上,如果有足够多的隐藏层和足够大的训练集,可以模拟出任何方程;</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/88475cdf9f016203c3dcdd5e8ba4c592.png"></p>    <h3>二、设计神经网络结构</h3>    <p>使用神经网络之前,必须要确定神经网络的层数,以及每层单元的个数;</p>    <p>为了加速学习过程,特征向量在传入输入层前,通常需要标准化到0和1之间;</p>    <p>离散型变量可以被编码成每一个输入单元对应一个特征值可能赋的值</p>    <p>比如:特征值A可能去三个值(a0,a1,a2),那么可以使用3个输入单元来代表A</p>    <p>如果A=a0,则代表a0的单元值取1,其余取0;</p>    <p>如果A=a1,则代表a1的单元值取1,其余取0;</p>    <p>如果A=a2,则代表a2的单元值取1,其余取0;</p>    <p><img src="https://simg.open-open.com/show/8a3be099d2d513baa8a8ba034e566515.png"></p>    <p>神经网络既解决分类(classification)问题,也可以解决回归(regression)问题。对于分类问题,如果是两类,则可以用一个输出单元(0和1)分别表示两类;如果多余两类,则每一个类别用一个输出单元表示,所以输出层的单元数量通常等一类别的数量。</p>    <p>没有明确的规则来设计最佳个数的隐藏层,一般根据实验测试误差和准确率来改进实验。</p>    <h3>三、交叉验证方法</h3>    <p>如何计算准确率?最简单的方法是通过一组训练集和测试集,训练集通过训练得到模型,将测试集输入模型得到测试结果,将测试结果和测试集的真实标签进行比较,得到准确率。</p>    <p>在机器学习领域一个常用的方法是交叉验证方法。一组数据不分成2份,可能分为10份,</p>    <p>第1次:第1份作为测试集,剩余9份作为训练集;</p>    <p>第2次:第2份作为测试集,剩余9份作为训练集;</p>    <p>……</p>    <p>这样经过10次训练,得到10组准确率,将这10组数据求平均值得到平均准确率的结果。这里10是特例。一般意义上将数据分为k份,称该算法为K-fold cross validation,即每一次选择k份中的一份作为测试集,剩余k-1份作为训练集,重复k次,最终得到平均准确率,是一种比较科学准确的方法。</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/0841c9775fd664555df5b963a9ba3ac2.jpg"></p>    <h3>四、BP算法</h3>    <p>通过迭代来处理训练集中的实例;</p>    <p>对比经过神经网络后预测值与真实值之间的差;</p>    <p>反方向(从输出层=>隐藏层=>输入层)来最小化误差,来更新每个连接的权重;</p>    <p>4.1、算法详细介绍</p>    <p>输入:数据集、学习率、一个多层神经网络构架;</p>    <p>输出:一个训练好的神经网络;</p>    <p>初始化权重和偏向:随机初始化在-1到1之间(或者其他),每个单元有一个偏向;对于每一个训练实例X,执行以下步骤:</p>    <p>1、由输入层向前传送:</p>    <p>结合神经网络示意图进行分析:</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/f6be26afc08452bcf90c9dd944394127.png"></p>    <p>由输入层到隐藏层:</p>    <p><img src="https://simg.open-open.com/show/56bc791c92ca1bec042114dc235faa9b.png"></p>    <p>由隐藏层到输出层:</p>    <p><img src="https://simg.open-open.com/show/84f5ba303d20932332463cf5c5d89ae9.png"></p>    <p>两个公式进行总结,可以得到:</p>    <p><img src="https://simg.open-open.com/show/e6cccf79c919fcb9ccce4fd4203c77b1.png"></p>    <p>Ij为当前层单元值,Oi为上一层的单元值,wij为两层之间,连接两个单元值的权重值,sitaj为每一层的偏向值。我们要对每一层的输出进行非线性的转换,示意图如下:</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/21d52880a726f67da7fced914c5eac7b.png"></p>    <p>当前层输出为Ij,f为非线性转化函数,又称为激活函数,定义如下:</p>    <p><img src="https://simg.open-open.com/show/56b037182b2aa9edabf4f750cab61ad3.png"></p>    <p>即每一层的输出为:</p>    <p><img src="https://simg.open-open.com/show/e504a9ccdb3dbcef29d82659ec940c21.png"></p>    <p>这样就可以通过输入值正向得到每一层的输出值。</p>    <p>2、根据误差反向传送 对于输出层:其中Tk是真实值,Ok是预测值</p>    <p><img src="https://simg.open-open.com/show/ca1727ecb361bb7e8ad29c0fc619a11a.png"></p>    <p>对于隐藏层:</p>    <p><img src="https://simg.open-open.com/show/24c4e80302b98ac88bce455428e1dada.png"></p>    <p>权重更新:其中l为学习率</p>    <p><img src="https://simg.open-open.com/show/8f12f98645442f656f92c70026207a3d.png"></p>    <p>偏向更新:</p>    <p><img src="https://simg.open-open.com/show/28e423e5714628b4da0d77ae445b97d8.png"></p>    <p>3、终止条件</p>    <p>偏重的更新低于某个阈值;</p>    <p>预测的错误率低于某个阈值;</p>    <p>达到预设一定的循环次数;</p>    <p>4、非线性转化函数</p>    <p>上面提到的非线性转化函数f,一般情况下可以用两种函数:</p>    <p>(1)tanh(x)函数:</p>    <p>tanh(x)=sinh(x)/cosh(x)</p>    <p>sinh(x)=(exp(x)-exp(-x))/2</p>    <p>cosh(x)=(exp(x)+exp(-x))/2</p>    <p>(2)逻辑函数,本文上面用的就是逻辑函数</p>    <p>五、BP神经网络的python实现</p>    <p>需要先导入numpy模块</p>    <pre>  <code class="language-python">importnumpyas np  </code></pre>    <p>定义非线性转化函数,由于还需要用到给函数的导数形式,因此一起定义</p>    <pre>  <code class="language-python">deftanh(x):      return np.tanh(x)  deftanh_deriv(x):      return 1.0 - np.tanh(x)*np.tanh(x)  deflogistic(x):      return 1/(1 + np.exp(-x))  deflogistic_derivative(x):      return logistic(x)*(1-logistic(x))  </code></pre>    <p>设计BP神经网络的形式(几层,每层多少单元个数),用到了面向对象,主要是选择哪种非线性函数,以及初始化权重。layers是一个list,里面包含每一层的单元个数。</p>    <pre>  <code class="language-python">class NeuralNetwork:      def__init__(self, layers, activation='tanh'):          """          :param layers: A list containing the number of units in each layer.          Should be at least two values          :param activation: The activation function to be used. Can be          "logistic" or "tanh"          """          if activation == 'logistic':              self.activation = logistic              self.activation_deriv = logistic_derivative          elifactivation == 'tanh':              self.activation = tanh              self.activation_deriv = tanh_deriv             self.weights = []          for i in range(1, len(layers) - 1):              self.weights.append((2*np.random.random((layers[i - 1] + 1, layers[i] + 1))-1)*0.25)              self.weights.append((2*np.random.random((layers[i] + 1, layers[i + 1]))-1)*0.25)  </code></pre>    <p>实现算法</p>    <pre>  <code class="language-python">    deffit(self, X, y, learning_rate=0.2, epochs=10000):          X = np.atleast_2d(X)          temp = np.ones([X.shape[0], X.shape[1]+1])          temp[:, 0:-1] = X          X = temp          y = np.array(y)             for k in range(epochs):              i = np.random.randint(X.shape[0])              a = [X[i]]                 for l in range(len(self.weights)):                  a.append(self.activation(np.dot(a[l], self.weights[l])))              error = y[i] - a[-1]              deltas = [error * self.activation_deriv(a[-1])]                 for l in range(len(a) - 2, 0, -1):                  deltas.append(deltas[-1].dot(self.weights[l].T)*self.activation_deriv(a[l]))              deltas.reverse()                 for i in range(len(self.weights)):                  layer = np.atleast_2d(a[i])                  delta = np.atleast_2d(deltas[i])                  self.weights[i] += learning_rate * layer.T.dot(delta)  </code></pre>    <p>实现预测</p>    <pre>  <code class="language-python">    defpredict(self, x):          x = np.array(x)          temp = np.ones(x.shape[0]+1)          temp[0:-1] = x          a = temp          for l in range(0, len(self.weights)):              a = self.activation(np.dot(a, self.weights[l]))          return a  </code></pre>    <p>我们给出一组数进行预测,我们上面的程序文件保存名称为BP</p>    <pre>  <code class="language-python">fromBPimportNeuralNetwork  importnumpyas np     nn = NeuralNetwork([2,2,1], 'tanh')  x = np.array([[0,0], [0,1], [1,0], [1,1]])  y = np.array([1,0,0,1])  nn.fit(x,y,0.1,10000)  for i in [[0,0], [0,1], [1,0], [1,1]]:      print(i, nn.predict(i))  </code></pre>    <p>结果如下:</p>    <pre>  <code class="language-python">([0, 0], array([ 0.99738862]))  ([0, 1], array([ 0.00091329]))  ([1, 0], array([ 0.00086846]))  ([1, 1], array([ 0.99751259]))  </code></pre>    <p> </p>    <p>来自:http://python.jobbole.com/87016/</p>    <p> </p>