Processing math: 40%

概率论 Cheat Sheet 25:矩母函数

1. 矩母函数

  随机变量 X 的矩母函数 M(t) 定义为

M(t)=E[etX]={xetxp(x)Xp(x)etxf(x)dxXf(x)

其中 t 为任意实数。之所以称 M(t) 为矩母函数,是因为 X 的所有各阶矩都可以从 M(t)t=0 的各阶微商得到,例如

M(t)=ddtE[etX]=E[ddtetX]=E[XetX]

上式假定微商和期望两个运算可以互换次序,即在离散情形下,假定有

ddt[xetxp(x)]=xddt[etxp(x)]

在连续情形下,假定有

ddt[etxf(x)dx]=ddt[etxf(x)]dx

这个假定在通常情况下能够验证。在式 (2) 中,令 t=0,可得

M(0)=E[X]

类似地

M(t)=ddtM(t)=ddtE[XetX]=E[ddtXetX]=E[X2etX]

可得

M(0)=E[X2]

  一般地,对 M(t)n 次导数可得

M(n)(t)=E[XnetX]n1

从而有

M(n)(0)=E[Xn]n1

  二项分布的矩母函数 设 X 是参数为 (n,p) 的二项分布随机变量,则

\begin{align} M(t) &= E[e^{tX}] = \sum_{k=0}^n e^{tk} \binom{n}{k} p^k (1 – p)^{n – k} \\ &= \sum_{k=0}^n \binom{n}{k} (pe^t)^k (1 – p)^{n – k} = (pe^t + 1 – p)^n \end{align}

等号两边求微商得

\begin{equation} M'(t) = n (pe^t + 1 – p)^{n – 1} pe^t \end{equation}

\begin{equation} E[X] = M'(0) = np \end{equation}

在进行一次微商得

\begin{equation} M^{\prime\prime}(t) = n(n – 1) (pe^t + 1 – p)^{n – 2} (pe^t)^2 + n(pe^t + 1 – p)^{n – 1} pe^t \end{equation}

\begin{equation} E[X^2] = M^{\prime\prime}(0) = n(n – 1)p^2 + np \end{equation}

于是可得

\begin{equation} \mathrm{Var}(X) = E[X^2] – (E[X])^2 = n(n – 1)p^2 + np – (np)^2 = np(1 – p) \end{equation}

  矩母函数的一个重要性质是,矩母函数唯一地确定了分布。设 M_X(t)X 的矩母函数,并在 t = 0 的某一邻域内有定义且有限,则 X 的分布被 M_X(t) 唯一确定。例如,若

\begin{equation} M_X(t) = \Big(\frac{1}{2}\Big)^{10} (e^{t} + 1)^{10} \end{equation}

X 是参数为 (10, 2) 的二项随机变量。

  矩母函数的另一个重要性质是,独立随机变量和的矩母函数等于各随机变量各自矩母函数的乘积。设 XY 为相互独立的随机变量,其矩母函数分别为 M_X(t)M_Y(t),记 M_{X + Y}(t)X + Y 的矩母函数,则

\begin{equation} M_{X + Y}(t) = E[e^{t(X + Y)}] = E[e^{tX} e^{tY}] = E[e^{tX}] E[e^{tY}] = M_X(t) M_Y(t) \tag{5} \end{equation}

2. 联合矩母函数

  将矩母函数推广到两个或多个随机变量的联合矩母函数,设 X_1, \cdots, X_n 为随机变量序列,其联合矩母函数 M(t_1, \cdots, t_n) 对实数 t_1, \cdots, t_n 定义

\begin{equation} M(t_1, \cdots, t_n) = E[e^{t_1X_1 + \cdots + t_nX_n}] \tag{6} \end{equation}

X_i 的矩母函数可以从联合矩母函数 M(t_1, \cdots, t_n) 中得到,即

\begin{equation} M_{X_i}(t) = E[e^{tX_i}] = M(0, \cdots, 0, t, 0, \cdots, 0) \tag{7} \end{equation}

上式右边 t 的位置刚好在第 i 个变量的地方。

  可以证明,X_1, \cdots, X_n 的联合矩母函数唯一地确定了它们的联合分布。利用这个结论,可以证明 X_1, \cdots, X_n 相互独立的充要条件是

\begin{equation} M(t_1, \cdots, t_n) = M_{X_1}(t_1) \cdots M_{X_n}(t_n) \tag{8} \end{equation}