第一门课第三周:浅层神经网络(Shallow neural networks)


3.1 神经网络概述(Neural Network Overview)

神经网络看起来是如下这个样子,把许多sigmoid单元堆叠起来形成一个神经网络

3.2 神经网络的表示(Neural Network representation)

本节主要介绍逻辑回归的Hypothesis Function(假设函数)

2.3 逻辑回归的代价函数(Logistic Regression Cost Function)

为什么需要代价函数 为了训练逻辑回归模型的参数$w$和$b$,我们需要一个代价函数,通过训练代价函数得到参数$w$和$b$,逻辑回归的输出函数 为了让模型学习调整参数,需要给予一个$m$样本的训练集,在训练集上找到参数$w$和$b$,来得到输出,我们希望训练集的预测值$\hat{y}$接近于实际值$y$, 上标$(i)$表示第$i$个样本
损失函数(Loss Function):
损失函数用来衡量预测值和实际值有多接近,损失函数是在单个样本中定义的,它衡量的是算法在单个样本中的表现。 逻辑回归中用到的损失函数是:$L\left( \hat{y},y \right)=-y\log(\hat{y})-(1-y)\log (1-\hat{y})$ 代价函数(Cost Function)
算法的代价函数衡量算法在全体训练样本上的表现,是对$m$个样本的损失函数求和然后除以$m$:

2.4 梯度下降法(Gradient Descent)

逻辑回归的代价函数(成本函数)$J(w,b)$是含有两个参数的, $\partial$表示求偏导符号,可以读作round,$\frac{\partial J(w,b)}{\partial w}$就是函数$J(w,b)$对$w$求偏导, 在代码中我们会使用$dw$ 表示这个结果, $\frac{\partial J(w,b)}{\partial b}$ 就是函数$J(w,b)$对$b$ 求偏导,在代码中我们会使用$db$ 表示这个结果, 小写字母$d$ 用在求导数(derivative),即函数只有一个参数, 偏导数符号$\partial $ 用在求偏导(partial derivative),即函数含有两个以上的参数 迭代就是不断重复做如图的公式: $:=$表示更新参数, $a $ 表示学习率(learning rate),用来控制步长(step),即向下走一步的长度$\frac{dJ(w)}{dw}$ 就是函数$J(w)$对$w$ 求导(derivative),在代码


Dong - 专注面向Infotainment和ADAS的汽车应用
Published under (CC) BY-NC-SA in categories 吴恩达深度学习专项课程  tagged with Deep Learning, Neural Network