概率论 Cheat Sheet 2:随机变量及其分布

1. 随机变量   定义 设随机试验的样本空间为 $S = \{e\}$,$X = X(e)$ 是定义在样本空间 $S$ 上的实值单值函数。称 $X = X(e)$ 为随机变量。 2. 离散型随机变量及其分布律   有些随机变量,它全部可能取到的值是有限个或为可列无限多个,这种随机变量称为离散型随机变量。   设离散随机变量 $X$ 所有可能取的值为 $x_k(k = 1,2,\c…
Read more

概率论 Cheat Sheet 1:基本概念

  本系列整理自《概率论与数理统计(第四版)》(盛骤 等,高等教育出版社)一书,包含关键概念和推导,便于随查随用。 1. 随机试验   随机试验具有以下特点: 可以在相同的条件下重复进行。 每次试验的可能结果不只有一个,并且能事先明确试验的所有可能结果。 进行一次试验之前不能确定哪一个结果会出现。 2. 样本空间、随机事件 2.1. 样本空间   将随机试验 $E$ 的所有可能结果组成的集合称为 …
Read more

Deep Learning Note: 5-13 语音识别

1. 语音识别   在语音识别问题中,输入是一段语音的音频,输出是语音的文本。就像人类的耳朵不能直接处理声波,而是通过检测声音中不同频率的强度来拾取语音,语音识别的一个常见的预处理步骤是生成原始音频数据的频谱,如图 1 所示,将频谱数据交给算法进行处理。图 1 中下图所示的频谱中,横轴是时间,纵轴是频谱,颜色表示声音在该频率上的能量。   语音识别系统层一度使用音素(Phoneme)这一人工设计的…
Read more

Deep Learning Note: 5-12 Attention 模型

  前面介绍的机器翻译算法都使用了编码器-译码器的结构,通过编码器得到输入文本的一个编码,再通过译码器生成对应的翻译文本。这种结构对于较短的句子可以取得很高的 Bleu 分数,而在比较长的句子(如长度有三四十个单词的句子)上的性能则会下降,如图 1 所示,因为网络很难记忆这种很长的句子。   Neural Machine Translation by Jointly Learning to Ali…
Read more

Deep Learning Note: 5-11 Bleu 分数

  机器翻译与之前介绍的图像识别等任务的一个不同之处是,正确答案不是唯一的。例如对于如下的法语句子: Le chat est sur le tapis. 人类可以给出多种不同的参考英文翻译,这些翻译的质量都很好,如: 参考 1:The cat is on the mat. 参考 2:There is a cat on the mat. 答案不唯一为衡量算法的准确度带来了挑战。对于此种情况,通常使用…
Read more

Deep Learning Note: 5-10 Beam 搜索

1. Beam 搜索   前面提到,对于机器翻译问题,我们希望得到具有最高概率的句子,Beam 搜索就是用于获取这样的句子的算法。   仍以前面的从法语翻译为英语的任务为例,使用如下的法语句子作为输入: Jane visite l’Afrique en septembre.   Beam 搜索的第一步是使用如图 1 所示的网络来计算 $P(y^{\lt 1 \gt}|x)$。在贪婪算法中,我们只是…
Read more

Deep Learning Note: 5-9 Sequence to Sequence 模型

1. 基本模型   Sequence to Sequence 是一种将一个序列映射到另一个序列的算法,常用于机器翻译和语音识别。   举例来说,假设想要将一句法语翻译成英语,如图 1 所示。   Sequence to Sequence 算法使用两个 RNN 来完成翻译任务。第一个 RNN 称为编码器(Encoder),其输入为源语言的文本,这里是法语的句子,其输出为一个向量,是对输入文本的一个编…
Read more

Deep Learning Note: 5-8 Word Embedding 的应用

1. 情感分类   情感分类(Sentiment Classification)指的是根据一段文本,预测作者是否喜爱文中所讨论的事物。对于情感分类任务,我们可能无法获得大量的训练数据,比如总共只有 1 万到 10 万个单词,但通过 Word Embedding,我们使用不多的数据就可以构建一个很好的情感分类器。   例如使用顾客对一家餐厅的评价来预测顾客对该餐厅的喜爱程度,输入的 $x$ 是顾客的…
Read more

Deep Learning Note: 5-7 学习 Word Embedding

1. 学习 Word Embedding   学习 Word Embedding 的一个方法是训练一个语言模型。例如训练一个网络来预测句子中的下一个单词,如图 1 所示。   图 1 中单词下的数字为单词在词汇表中的索引,假设词汇表中有 10000 个单词。对于第一个词 $I$,其独热编码为 $O_{4343}$,使用一个 Embedding 矩阵 $E$ 与其相乘,得到 $I$ 的一个新的编码 …
Read more