在概率论和统计学中,一个离散性随机变量的期望值是试验中每次可能的结果乘以其结果概率的总和
———摘自《维基百科》
### 定义
如果X是在概率空间(Ω, F, P)中的随机变量,那么它的期望值E[X]的定义是:
$$E[X]=\int _{\Omega }X dP$$
- 离散型 如果X 是离散的随机变量,输出值为x1, x2, …, 和输出值相应的概率为p1, p2, …(概率和为1)。 若级数 $\sum_{i} p_{i}x_{i}$绝对收敛,那么期望值E[X]是一个无限数列的和。 $$E[X]=\sum_{i=1}^{k} x_{i}p_{i} = x_{1}p_{1}+x_{2}p_{2} + \cdots +x_{k}p_{k}$$
- 连续性 如果 $X$ 是连续的随机变量,存在一个相应的概率密度函数 $f(x)$, $$E[X]= \int_{-\infty}^{\infty}xf(x)dx$$ 是针对于连续的随机变量的,与离散随机变量的期望值的算法同出一辙,由于输出值是连续的,所以把求和改成了积分。
### 意义 数学期望可以用于预测一个随机事件的平均预期情况。
### 范例 1、掷一枚公平的六面骰子,可知没面概率都是$\frac{1}{6}$ ,计算如下:
$E(X)= 1\cdot\frac{1}{6} + 2\cdot\frac{1}{6} + 3\cdot\frac{1}{6} + 4\cdot\frac{1}{6} + 5\cdot\frac{1}{6} + 6\cdot\frac{1}{6} = (1+2+3+4+5+6)\cdot\frac{1}{6} = 3.5$
从上面可知,
均值
是期望的特例:每次概率都是一样
### 相关阅读
参考