Machine Learning

Deep Learning Note: 1-7 反向传播

1. 神经网络中的梯度下降   本文以前面 给出的用于二分类的两层神经网络为例,展示神经网络中梯度下降的计算过程。在该神经网络中: 各层节点数分别为 $n^{[0]}$、$n^{[1]}$、$n^{[2]}$,由于是二分类问题,只有一个输出,故 $n^{[2]} = 1$ 输入为 $n^{[0]} \times m$ 的特征向量矩阵 $X$,其中 $m$ 为样本个数 输出为 $1 \times m…
Read more

Deep Learning Note: 1-5 浅神经网络

1. 基本概念   图 1 给出了一个简单的神经网络。   在图 1 中,左边的 $x_1$、 $x_2$、 $x_3$ 为输入的特征,称为输入层(Input Layer);中间的一列 4 个节点称为隐藏层(Hidden Layer);最右边的一个节点称为输出层(Output Layer),输出预测 $\hat{y}$。输入层的特征和输出层的预测都与样本集合有关,而隐藏层的数值则在样本集合中没有体…
Read more

Deep Learning Note: 1-4 向量化

1. 逻辑回归的向量化   前文给出了逻辑归回的模型和通过梯度下降优化逻辑回归代价函数的算法。算法描述中包含了很多循环的步骤。在具体实现中,通过向量化(Vectorization)移除显式的 for 循环,有利于充分利用硬件性能,提高执行速度。如 Python 的 NumPy 包中有很多内置函数都提供了输入和处理多维数组的能力,在内部实现了并行计算的优化。   将之前得到的梯度下降计算各偏导的过程…
Read more

Deep Learning Note: 1-3 m 个样本上的梯度下降

1. m 个样本上的梯度下降   前文通过计算图得到了对于单个样本的各个参数的偏导,下面扩展到 m 个样本的情况,给出在 m 个样本上进行逻辑回归梯度下降的方法。   回顾一下前面得到的逻辑回归的代价函数为: \begin{equation} J(w, b) = \frac{1}{m} \sum_{i = 1}^m L(a^{(i)}, y{(i)}) \tag{1} \end{equation}…
Read more

Deep Learning Note: 1-2 计算图

1. 计算图   神经网络的训练过程主要包括用于计算网络输出的前向传播(Forward Propagation),和用于计算各参数偏导数的反向传播(Forward Propagation)。通过计算图可以更好地理解这个计算过程。   先看一个简单的例子,对于如下函数: \begin{equation} J(a, b, c) = 3(a + bc) \tag{1} \end{equation}   …
Read more

Deep Learning Note: 1-1 逻辑回归和梯度下降

  Deep Learning Note 系列是我学习 deepLearning.ai 所开设深度学习课程的笔记,包含关键概念、模型和部分推导,方便随时查阅。假设读者已初步了解机器学习基础知识,并具有相应的数学基础。 0. 符号说明   本文及后续内容使用符号定义如下:   使用 $(x, y)$ 表示单个样本,其中 $x \in \mathbb{R}^{n_x}$,即一个 $n_x$ 维的特征向…
Read more