机器学习_概率论(1)
写在前面,本系列主要是对下面这本书做的学习笔记
随机事件与概率
概率论同样在机器学习和深度学习中有至关重要的作用。如果将机器学习算法的输入数据和输出数据看作随机变量,则可用概率论的方法对数据进行计算,以此对不确定性进行建模
使用概率模型,可以输出概率值而非确定性的值,这对某些应用是至关重要的
对于某些应用问题,需要对变量之间的概率依赖关系进行建模,也需要概率论的技术,概率图
模型是典型代表
随机数生成算法,即采样算法,需要以概率论作为理论指导
某些随机算法,如蒙特卡洛算法、遗传算法,同样需要以概率论作为理论或实现依据。
随机事件和概率是概率论中基本的概念,也是理解随机变量的基础
随机事件概率
随机事件是可能发生也可能不发生的事件,这种事件每次出现的结果具有不确定性
例如,天气可能是晴天、雨天、阴天;考试分数可能为0与100之间的整数;掷骰子,1到6这几种点数都可能出现
以集合论作为工具,给出随机事件的定义
对于一个随机试验,其所有可能结果组成的集合称为样本空间
记为$\Omega$
随机试验可能的结果称为样本点
,记为$\omega$,它是样本空间$\Omega$中的元素
- 对于天气,样本空间为,每种天气均为一个样本点
- 对于考试成绩,样本空间为,每个分数均为一个样本点
- 对于掷骰子,样本空间为
离散事件和连续事件
样本空间可以是有限集,也可以是无限集
对于无限的样本空间,可以是可数集(离散的),也可以是不可数集(连续的)
有限样本空间
与无限可数样本空间
中定义的随机事件称为离散型
无限可数样本空间: 抛一枚硬币,如果令$n$为第一次出现正面时所试验的次数,则其取值为$[1,+\infty)$内的整数
这种情况的样本空间是无限可数集,如果记事件$A_{n}$为直到扔到第$n$次才第一次出现正面朝上,则这样的事件有无穷多个
无限不可数样本空间: 在区间$[0,1]$内随机扔一个点,这个点的取值为此区间内所有实数,是无限不可数集
此时, 我们无法将样本空间中所有的样本点列出
样本空间$\Omega$ 元素构成的集合称为随机事件,通常用大写斜体字母表示,如记为$A$
显然$\Omega$也是随机本件,它一定会发生,称为必然事件;空集$\varnothing$则不可能发生,称为不可能事件
衡量随机事件的可能性
随机事件发生的可能性用概率进行度量,随机事件$A$发生的概率记为$p(A)$,表示此事件发生的可能性,其值满足
概率值越大则事件越可能发生。一般情况下,假设样本空间中每个样本点发生的概率是相等的(称为等概率假设
)
因此事件$A$发生的概率是该集合的基数与整个样本空间基数的比值:
根据定义,所有单个样本点构成的随机事件的概率之和为
其中为样本空间中所有单个样本点构成的随机事件
对于有限样本空间中的随机事件,可直接根据集合的基数计算的概率值
抛硬币问题: 记正面朝上为事件$A$,反面朝上为事件$B$,则有$p(A)=p(B)=\frac{1}{2}$
表示正面朝上和反面朝上的概率是相等的
掷骰子问题: 记事件$A$为出现的点数为 1 , 则有$p(A)=\frac{1}{6}$
1至6点出现的概率相等,均为$\frac{1}{6}$
显然,不可能事件发生的概率为0;必然事件发生的概率为1
两个随机事件
对应集合的交运算与并运算,可以定义两个随机事件同时发生
的概率,以及两个随机事件至少有一个
发生的概率
🍁两个随机事件$A$和$B$同时发生
即为它们的交集,记为$A \cap B$,其概率为
以掷骰子为例,记$A$为出现的点数为奇数,$B$为出现的点数不超过3,则有
两个事件同时发生的概率也可以简记为$p(A, B)$
可以将两个事件同时发生的概率推广到多个事件
如果两个随机事件满足$A \cap B=\varnothing$
则称为互不相容事件
,即两个事件不可能同时发生,因此互不相容事件同时发生的概率为0
🍒两个随机事件$A$和$B$至少有一个发生
即为它们的并集,记为$A \cup B$
称为加法公式,两个集合的并集元素数等于它们元素数之和减掉它们重复的部分
因为重复的部分被算了两次,所以有
考虑拼骰子问题,定义事件$A$为点数大于或等于2,定义事件$B$为点数小于或等于4
因此有$p(A \cup B)=\frac{6}{6}=1$
如果用加法公式进行计算,则有
如果两个事件$A$和$B$是互不相容的,则加法公式变为
这一结论可以推广到多个随机事件的情况
完备事件组
完备事件组
是对样本空间的一个划分,显然,对于完备事件组,有
考虑集合的补运算,对应于对立事件,事件$A$的补集称为它的对立事件,记为$\bar{A}$,即$A$不发生,显然有
对于掷羖子问题,如果记$A$为出现的点数为偶数,则其对立事件为出现的点数为奇数,因为点数不是偶数就是奇数
考虑无限可数的样本空间: 做一个试验,每次成功的概率为$p$,假设各次试验之间无关,事件$A_{n}$定义为试验$n$次才取得第一次成功,即前面$n-1$次都失败,第$n$次成功,显然,整个样本空间为
可以得到概率值
其中$(1-p)^{n-1}$是前面$n-1$次都失败的概率,$p$是第$n$次时成功的概率,显然有
满足所有基本事件的概率之和为1的要求,这里利用了下面的幂级数求和结果
几何型概率
前面介绍的概率均针对有限的或无限可数的样本空间,下面介绍无限不可数样本空间概率的计算,称为几何型概率
几何型概率定义在无限不可数集上,根据积分值(也称为测度值,如长度、面积、体积)定义
事件$A$发生的概率为区域$A$的测度值与$\Omega$测度值的比值,即
其中$s(A)$为集合$A$的测度
这里同样假设落在区域内任意点处的可能性相等,同时保证整个样本空间的概率为1
一维几何
在$[0,1]$区间内随机扔一个点,计算该点落在$[0,0.7]$内的概率
假设点的坐标为$x$,落在区间$[0,0.7]$内,即$0 \leqslant x \leqslant 0.7$,由于落在区间中任意点处的可能性相等,因此概率值为
是短线段与长线段的长度之比
二维几何
推广到二维的情况,可用面积计算概率
在单位正方形$0 \leqslant x, y \leqslant 1$内部随机地扔一个点,计算该点落在区域$x \leqslant 0.2, y \leqslant 0.3$内的概率
由于落在任意点处的可能性相等,因此是两个矩形区域的面积之比
考虑一个更复杂的例子,在圆周上随机选择两个点,计算这两个点与圆心的连线之间沿着逆时针方向的夹角是锐角的概率
假设点落在圆周上任意位置处的可能性相等
如图所示,假设圆周上的两个点 $A 、 B$ 与圆心的连线和$x$轴正半轴的夹角(按照逆时针方向计算)分别为与
显然有,这里采用弧度作为计量单位
两个点与圆心的连线之间的夹角为,夹角为锐角,即,这等价于
夹角为锐角的区域为直线之下、直线之上的区域,因此是夹在这两条直线之间的区域,两点之间逆时针方向夹角为锐角的概率为
三维几何
对于三维的情况,可用体积值来计算概率值,对于更高维的情况,则借助多重积分的值进行计算
条件概率
条件概率主要描述的是多个随机件的概率关系
条件概率定义
对于随机事件$A$和$B$,在$A$发生的条件下$B$发生的概率称为(条件概率
),记为$p(B \mid A)$
如果事件$A$的概率大于0,则条件概率可按下式计算
根据定义,条件概率是$A$和$B$同时发生的概率与$A$发生的概率的比值
条件概率计算的例子
下面用一个例子说明条件概率的计算
对于掷骰子问题,假设事件$A$为点数是奇数,事件$B$为点数小于或等于3,则二者的条件概率为
类似地,有
对条件概率公式进行变形,可以得到乘法公式
两个以上的随机事件下的条件概率
将条件概率推广到两个以上的随机事件,对于两组随机事件与, 它们的条件概率定义为
将乘法公式推广到 3 个随机事件,可以得到
需要注意的是,这种分解的顺序不是唯一的,推广到$n$个随机事件,有
随机事件的独立性
如果$p(B \mid A)=p(B)$,或$p(A \mid B)=p(A)$,则称随机事件$A$和$B$独立
随机事件独立意味着一个事件是否发生并不影响另外一个事件
如果随机事件$A$和$B$独立,根据式 (5.4), 有
将上面的定义进行推广,如果$n$个随机事件$A_{i}, i=1, \cdots, n$ 相互独立,则对所有可能的组合$1 \leqslant i<j<k<\cdots \leqslant n$,都有
全概率公式
定义
如果随机事件是一个完备事件组,且,是任意随机事件,则有
称为全概率公式,借助于条件概率,全概率公式将对复杂事件的概率计算问题转化为在不同情况下发生的简单事件的概率的求和问题
例子
箱子 | 红球 | 白球 |
---|---|---|
箱子1 | 6 | 4 |
箱子2 | 5 | 5 |
箱子3 | 2 | 8 |
先随机抽取一个箱子,然后从中随机抽取一个球,计算抽中红球的概率
令$A_{i}$为抽中第$i$个箱子,$B$为抽中红球
根据全概率公式,有
贝叶斯公式
贝叶斯公式由数学家贝叶斯(Bayes)提出,它阐明了随机事件之间的因果概率关系,根据条件概率的定义,有
变形可得贝叶斯公式
先后验和似然函数
它描述了先验概率和后验概率之间的关系,如果事件$A$是因,事件件$B$是果
- 先验概率: 称$p(A)$为
先验概率
(Prior Probability),意为事先已经知道其值 - 后验概率: $p(A \mid B)$ 称为
后验概率
(Posterior Probability),意为事后才知道其值 - 似然函数: 条件概率$p(B \mid A)$则称为
似然函数
先验概率是根据以往经验和分析得到的概率,在随机事件发生之前已经知道,是原因发生的概率
后验概率是根据结果信息所计算出的导致该结果的原因所出现的概率
后验概率用于在事情已经发生的条件下,分析使得这件事情发生的原因概率
根据贝叶斯公式可以实现这种因果推理,这在机器学习中是常用的
似然函数与概率
给定联合样本值$x$关于$\theta$的函数
其中$f(x|\theta)$是密度函数,表示给定$\theta$下的联合概率密度函数,而似然函数的关于$\theta$的函数,密度函数是关于$x$的
概率表达了在给定参数$\theta$下$X=x$的可能性,而似然表示的是给定样本$X=x$时,参数的可能性
如果下式成立,则表示参数$\theta_1$下随机变量$X$取到$x$值的可能性大于$\theta_2$
一个形象的似然例子是,NBA总决赛时,已知球进了,问谁去投球的可能性大
全概率公式与贝叶斯公式
如果事件构成一个完备事件组,且,根据全概率公式与贝叶斯公式,可以得到
例子
箱子 | 红球 | 黑球 |
---|---|---|
箱子1 | 5 | 5 |
箱子2 | 7 | 3 |
箱子3 | 9 | 1 |
首先随机地抽取一个箱子,然后从中随机抽取一个球,如果抽中的是红球,计算这个球来自每个箱子的概率
令$A_{i}, i=1,2,3$表示抽中第$i$个箱子,$B$表示抽中红球
则这个红球来自第1个箱子的概率为
来自第2个箱子的概率为
来自第3个箱子的概率为
条件独立
定义
将随机事件的独立性与条件概率相结合,可以得到条件独立的概念
如果随机事件$A, B, C$满足$p(A \mid B, C)=p(A \mid C)$,则称$A$和$B$关于事件$C$条件独立
直观含义是在$C$发生的情况下,$B$是否发生并不影响$A$,它们之间相互独立,这意味着事件$C$的发生使得$A$和$B$相互独立
$A$和$B$关于$C$条件独立可以记为$A \perp B \mid C$,条件独立的概念在概率图模型中被广泛使用
随机变量
普通的变量只允许取值可变,随机变量(Random Variable)是取值可变并且取每个值都有一 个概率的变量
从另外一个角度来看,随机变量是用于表示随机试验结果的变量
随机变量通常用大写斜体字母表示,如$X$, 随机变量的取值一般用小写斜体字母表示,如$x_{i}$,随机变量可分为离散型
和连续型
两种
- 离散型: 取值集合为有限集或者无限可数集,对应离散型随机事件
- 连续型: 取值集合为无限不可数集, 对应几何型随机事件
随机变量相关概念
频率分布直方图
下图左边表示的是频率分布直方图
,$x$轴是组距,而$y$轴是频数
而右边表示的是也是频率分布直方图
,只不过$y$轴是频率/组距,于是此时每个小长方形的面积是频率
右图中所有小长方形的面积之和记为$S=1$
概率密度函数
大学的概率论就是引入了微积分,而微积分很重要的一个就是极限
,当我们把这里的组距变得无限小,就会变成图中蓝色的线,此时蓝线与$x$轴围成的面积始终等于1,并将这条蓝线命名为概率密度函数
,记为$f(x)$
$X$在任意区间$(a,b]$上的概率可以表示为如下公式,代表的是$a$到$b$区间的面积
累积分布函数(分布函数)
微积分中另一个知识是积分
,当我们对下面曲线求积分时,所得到的面积记为$F(x)=\int _{-\infty}^{x} f(t) dt$,也就是累积分布函数
其中积分上限$x$为自定义的值,如下图中的橘色的线,此时$F(x)$对应的是下图中阴影部分的面积
连续型与离散型随机变量
连续型随机变量的一维情况如上面所描述,是一条线
而离散型随机变量使用表
来表示,如掷骰子出现的点数即为离散型随机变量,取值集合为1和6之间的整数
X | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
p | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 |
此时这个表可以叫做分布表
,这个表的前身是分布率(概率分布、概率函数)
,分布率每个取值记为$p(X=x)=p_i$
分布表对应的是连续型中的概率密度函数,分布表也可以叫做概率质量函数
,对其做累积,其累积分布函数如表所示
随机变量取值 | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
概率质量函数值 | 1/6 | 2/6 | 3/6 | 4/6 | 5/6 | 1 |
累积分布函数
也称为分布函数,是概率质量函数的累加,定义为
二维随机变量
对于二维的情况,从原来的一根线变为了一个面,如下图所示,表示的是联合概率密度
,记为$f(x,y)$
对这个面切两刀,求剩余的体积,就是联合分布函数
,记为$F(x,y) = \int {- \infty}^{x}{\int {- \infty}^{y} {f(u,v)dudv}}$,或者记为$p(X \leq x , Y \leq y)$
对于二维离散型随机变量,给出的是联合分布表
,前身是联合分布律
,联合分布率每个取值记为$p(X=xi,Y=y_j)=p{ij}$
X/Y | 5 | 6 | X的边缘分布表 |
---|---|---|---|
1 | 1/4 | 1/8 | 3/8 |
3 | 1/8 | 1/2 | 5/8 |
Y的边缘分布表 | 3/8 | 5/8 | 1 |
边缘概率密度(一维下没有这个概念)
对于微积分而言,有个知识点是偏导数,在这里可以引申出边缘概率
,即在计算是把另外的变量看作常数
记为$fX(x) = \int {- \infty}^{\infty} f(x,y) dy$,这里的$X$表示的是$X$的边缘概率
边缘分布函数
对应于二维的联合分布函数,这里连续型还有一个概念叫边缘分布函数
,记为$F_X(x)=p(X \leq x, Y \leq +\infty) = p(X \leq x)$
对于联合分布表,边缘化之后就是叫做边缘分布表
,上表的$X$和$Y$的边缘分布表如表所示
离散型随机变量
离散型随机变量的取值集合是离散集合,为有限集或无限可数集,可以将所有取值列举出来
例如,掷骰子出现的点数即为离散型随机变量,取值集合为1和6之间的整数
概率质量函数(Probability Mass Function, PMF)
描述离散型随机变量取值概率的是概率质量函数
,函数由随机变量取每个值的概率
排列组成,可以将简记为 $p\left(x_{i}\right)$
这里的质量与物理学中的质量相对应,可看作是一些有质量的质点,概率质量函数值对应这些点的质量
概率质量函数必须满足以下约束条件
下表是一个离散型随机变量的概率质量函数,其取值集合为${1,2,3,4}$
随机变量取值 | 概率质量函数值 |
---|---|
1 | 0.1 |
2 | 0.5 |
3 | 0.2 |
4 | 0.2 |
离散型随机变量的取值可能为无限可数集,此时要保证下面的级数收敛,并且其值为1
累积分布函数(Cumulative Distribution Function, CDF)
累积分布函数
也称为分布函数,是概率质量函数的累加,定义为
上表所示的随机变量,其累积分布函数如表所示
随机变量取值 | 累积分布函数值 |
---|---|
1 | 0.1 |
2 | 0.6 |
3 | 0.8 |
4 | 1.0 |
连续型随机变量
几何型随机事件对应的是连续型随机变量,连续型随机变量的取值集合为无限不可数集
一般为实数轴上的一个或多个区间,或者是整个实数集$\mathbb{R}$
例如,我们要观测每个时间点的温度,是一个连续值,为连续型随机变量
考虑计算一维几何型随机事件概率的例子,随机点落在$[0, x]$区间内的概率就是$x$,这是$X \leqslant x$这一随机事件的概率
其中$X$是一个连续型随机变量,是随机点的一维坐标,其允许的取值范围为$[0,1]$
累积分布函数
对上面的函数进行扩充,使得$X$的取值范围为整个实数集$\mathbb{R}$,可以得到如下的函数
该函数称为累积分布函数
概率密度函数
对累积分布函数进行求导,即可得到概率密度函数, 表示连续型随机变量在每一个取值点处的概率密度值
除去0和1这两点,上面的累积分布函数是可导的,其导数为
此函数在区间$[0,1]$内所有点处的取值相等,这意味着点$x$落在$[0,1]$内所有点处的可能性相等
概率密度函数与累积分布函数的定义
概率密度函数
(Probability Density Function, PDF)定义了连续型随机变量的概率分布
其函数值表示随机变量取该值的可能性(注意,不是概率)
概率密度函数必须满足如下约束条件
这可以看作是离散型随机变量的推广,积分值为1对应取各个值的概率之和为1
连续型随机变量落在某一点处的概率值为0
落在某一区间内的概率值为概率密度函数在该区间内的定积分
其中$F(x)$是$f(x)$的一个原函数,也称为分布函数
,近似地有
其中$\xi$是$[x, x+\Delta x]$内的一个点
概率密度函数中的密度可类比物理学中的密度,概率质量函数在每一点处的值为随机变量取该值的概率
而概率密度函数在每一点处的值并不是概率值,只有区间上的积分值才是随机变量落入此区间的概率
随机变量$X$服从概率分布$f(x)$,一般可以简记为
对于连续型随机变量,分布函数是概率密度函数的变上限积分,定义为
显然这是增函数,分布函数的意义是随机变量$X \leqslant y$的概率
根据分布函数的定义有
根据定义,分布函数单调递增
考虑指数分布,其概率密度函数为
其中$\lambda>0$ ,下面计算它的分布函数,如果$x<0$,则有
如果$x \geqslant 0$,则有
因此其分布函数为
下面以logistic回归为例说明概率密度函数与分布函数在机器学习中的应用,logistic回归的分布函数为logistic函数,定义为
其形状如图所示,该函数单调递增,且有
满足分布函数的定义要求,其概率密度函数为$F(x)(1-F(x))$,概率密度函数的图像如图所示
数学期望
定义
数学期望
(Mathematical Expectation)是平均值的推广,是加权平均值的抽象,对于随机变量,是其在概率意义下的均值
普通的均值没有考虑权重或概率,对于$n$个变量,它们的算术平均值为
这可看作变量取每个值的可能性相等,或者每个取值的权重相等
但对于很多应用,变量取每个值有不同的概率,因此这种简单的均值无法刻画出变量的性质
表为买彩票时各种奖的中多金额以及对应的概率值,中奖金额可看作离散型随机变量
如果要计算买一张彩票的平均中奖金额,直接用各种奖的中奖金额计算平均值显然是不合理的
正确的做法是考虑中各种奖的概率,以其作为权重来计算均值
这种计算方式就是求数学期望
离散型随机变量的数学期望
对于离散型随机变量数学期望定义为
数学期望也可以写成或,表示用概率分布对随机变量$X$计算数学期望
如果式$E[X]$的级数收敛,则称数学期望存在
连续型随机变量的数学期望
对于连续型随机变量,数学期望通过定积分定义
假设连续型随机变量$X$的概率密度函数是$f(x)$,它的数学期望为
根据定积分的定义,连续型是离散型数学期望的极限情况
对于连续型随机变量,其数学期望是一个泛函
根据定义,常数的数学期望为其自身,即$E[c]=c$
根据数学期望的定义, 下面的公式成立
其中$k$为常数
如果$g(X)$是随机变量$X$的函数,则由它定义的随机变量的数学期望为
一般简记为$E_{X \sim p(x)}[g(X)]$
对于连续型椭机变量$X$,其函数$g(X)$的数学期望为
根据这种定义, 下面的公式成立
以下表中的随机变量为例,$X^{2}$的数学期望为
随机变量取值 | 概率质量函数值 |
---|---|
1 | 0.1 |
2 | 0.5 |
3 | 0.2 |
4 | 0.2 |
下面以指数分布为例计算连续型概率分布的数学期望,如果$X$服从参数为$\lambda$的指数分布,则其数学期望为
物理意义
如果将随机变量看作物体各点在空间中的坐标,概率密度函数是其在空间各点处的密度,则数学期望的物理意义是物体的质心
方差与标准差
定义
方差
(Variance, var)反映随机变量取值的波动程度,是随机变量与其数学期望差值平差的数学期望
方差也可记为$D[X]$,如果不使用平方,则随机变量所有值与其数学期望的差值之和为0
离散型随机变量的方差
对于离散随机变量,方差定义为
对于下表中的随机变量,它的方差为
随机变量取值 | 概率质量函数值 |
---|---|
1 | 0.1 |
2 | 0.5 |
3 | 0.2 |
4 | 0.2 |
连续型随机变量的方差
对于连续型随机变量,方差同样通过积分定义
其中,$f(x)$为概率密度函数,根据定义,方差是非负的
计算指数分布的方差,其数学期望为$1 / \lambda$,其方差为
方差反映了随机变量偏离均值的程度,方差越小,随机变量的变化幅度越小,反之则越大
标准差(Standard Deviation)
标准差定义为方差的平方根
根据方差的定义,下面公式成立
实际计算方差时经常采用此式,在机器学习中被广泛使用
根据方差的定义,有$\operatorname{var}[k X]=k^{2} \operatorname{var}[X]$,这是因为
这意味着将随机变量的取值扩大$k$倍,其方差扩大$k^{2}$倍
物理意义
如果将随机变量看作物体各点在空间中的坐标,概率密度函数是其在空间各点处的密度,则方差的物理意义是物体的转动惯量
Jensen不等式
介绍数学期望的一个重要不等式,Jensen不等式(Jensen’s Inequality),它在机器学习某些算法的推导中起着至关重要的作用
回顾凸函数的定义,如果$f(x)$是一个凸函数,$0 \leqslant \theta \leqslant 1$,则有
将上式从两个点推广到$m$个点,如果
可以得到,对于有
如果将$x$看作是一个随机变量,是其概率分布,则有
从而得到Jensen不等式
对于凹函数,上面的不等式反号
可以根据定义式用归纳法证明式多点情况下的公式成立
首先考虑$m=2$的情况,且,即,根据凸函数的定义,对于有
假设$m=n$时不等式成立,则当$m=n+1$时有
上面第2步利用了凸函数的定义,第3步成立是因为
根据归纳法的假设,$m=n$时不等式成立
如果$f(x)$是严格凸函数且$x$不是常数,则有
这同样可以用归纳法证明,与前面的证明过程类似
如果$f(x)$是严格凸函数,当且仅当随机变量$x$是常数时,不等式取等号
下面给出证明,如果随机变量$x$是常数,则有
因此
以及
因此有
接下来证明如果不等式取等号,则有
可用反证法证明,如果,由于是严格凸函数,根据前面的结论有
Jensen不等式可以推广到随机向量的情况,在后面将利用此不等式推导出求解含有隐变量的最大似然估计问题的EM算法
常用概率分布
离散型概率分布包括均匀分布、伯努利分布、 二项分布、多项分布、几何分布
连续型概率分布包括均匀分布、正态分布, 以及$t$分布
均匀分布
定义
对于离散型随机变量$X$,如果服从均匀分布
(Uniform Distribution),则其取每个值的概率相等,即
对于连续型随机变量$X$,如果服从区间$[a, b]$上的均匀分布,则其概率密度函数为分段常数函数,定义为
在允许取值的区间内,概率密度函数值相等,等于区间长度的倒数
下面计算它的分布函数,如果$x<a$,则有
如果$a \leqslant x \leqslant b$,则有
如果$x>b$,则有
因此,其分布函数为
随机变量$X$服从区间$[a, b]$上的均匀分布,简记为$X \sim U(a, b)$
例子
下面计算服从区间$[a, b]$上均匀分布的随机变量的数学期望和方差,根据数学期望的定义
因此,均匀分布的均值为区间的中点,根据方差的定义
均匀分布的方差与区间长度的平方成正比
均匀分布是最简单的概率分布, 在程序设计中各种概率分布的随机数一般通过均匀分布随机 数构造。算法生成的随机数不是真随机而是伪随机。通常情况下, 基本的随机数生成算法生成的 是某一区间 $\left[0, n_{\max }\right]$ 上均匀分布的随机整数。
对均匀分布随机整数进行变换,可以将其变为另外一个区间上的均匀分布随机数
例如,对上均匀分布随机整数$x$除以其最大值
可以将其变换为区间$[0,1]$上的连续型均匀随机数
如果要生成某一区间上均匀分布的整数, 则可借助于取余运算实现
如果要生成$[0, k]$上均匀分布的整数,则可以将$x$除以$k+1$取余数
这里假设$k<n_{\max }$,显然,该余数在$[0, k]$上均匀分布
伯努利分布
定义
服从伯努利分布
(Bernoulli Distribution)的随机变量$X$的取值为0或1两种情况,该分布也称为$0-1$分布
取值为1的概率为$p$,取值为0的概率为$1-p$,其中$p$为$(0,1)$内的实数,是此概率分布的参数,即
概率质量函数可统一写成
其中$x \in{0,1}$,如果$x=0$,则有
如果$x=1$,则有
如果$p=\frac{1}{2}$,那么此时的伯努利分布为离散型均匀分布,为方便起见,通常将$1-p$简记为$q$
如果将随机变量取值为1看作试验成功,取值为0看作试验失败,则伯努利分布是描述试验结果的一种概率分布
随机变量$X$服从参数为$p$的伯努利分布简记为
机器学习中的二分类问题可以用伯努利分布描述,logistic回归拟合的是这种分布
根据定义,伯努利分布的数学期望为
方差为
可以看到,当$p=\frac{1}{2}$时,方差有极大值
根据服从均匀分布的随机数可以生成服从伯努利分布的随机数,对于伯努利分布
将$[0,1]$区间划分成两个子区间,第1个子区间的长度为$p$,第二个子区间的长度为$1-p$
如果有一个$[0,1]$上均匀分布的随机数,则它落在第1个子区间内的概率即为$p$,落在第2个子区间内的概率即为$1-p$
因此,可以先生成$[0,1]$上均匀分布的随机数$\zeta$,然后判定其所在的子区间,如果它落在第1个子区间,即
则输出1,否则输出0
算法输出的值即服从伯努利分布,深度学习中的Dropout机制、稀疏自动编码器都使用了伯努利分布
二项分布
定义
$n$个独立同分布的伯努利分布随机变量之和服从$n$重伯努利分布,也称为二项分布
(Binomial Distribution)
此时,随机变量$X$表示$n$次试验中有$k$次成功的概率,其概率质量函数为
其中$\mathrm{C}_{n}^{k}$为组合数,是$n$个数中有$k$个取值是1的所有可能情况数,$p$是每次试验时成功的概率,取值范围为$(0,1)$
二项分布的概率$p(X=k)$也是对$(p+(1-p))^{n}$进行二项式展开时第$k+1$个展开项,因此而得名
在$n$次试验中,$k$次成功的概率为$p^{k}$,$n-k$次失败的概率为$(1-p)^{n-k}$,而$k$次成功可以是$n$次试验中的任意$k$次,因此有组合系数$\mathrm{C}_{n}^{k}$
随机变量$X$服从参数为$n, p$的二项分布,可以简记为
下图是一个二项分布的图像,其中$n=5, p=0.5$,横轴为随机变量的取值,纵轴为取各离散值的概率
此时二项分布的展开项是对称的,因此其概率质量函数的图像是对称的
从图可以看出,二项分布在中间位置的概率值更大,在两端处的概率值更小,随着$n$的值增大,它将以正态分布为极限分布
计算二项分布的数学期望各种均值和方差的正态分布的概率密度函数
下面计算二项分布的数学期望,根据定义有
上式第6步进行了换元,令$a=k-1, b=n-1, n-k=b-a$,方差为
而
上式第2步利用了,因此
由于二项分布是多个相互独立同分布的伯努利分布之和,因此其均值与方差和伯努利分布刚好为$n$倍的关系
多项分布
定义
多项分布
(Multinomial Distribution)是伯努利分布的推广,随机变量$X$的取值有$k$种情况
假设取值为${1, \cdots, k}$内的整数,则有
对$X$的取值进行One-Hot向量编码,由$k$个分量组成,如果$X$取值为$i$,则第$i$个分量为1,其余分量均为0
假设One-Hot编码结果为,则概率质量函数可以统一写成
如果$p_{i}=\frac{1}{k}, i=1, \cdots, k$,则多项分布为离散型均匀分布,多项分布对应多分类问题,softmax回归拟合的就是这种分布
根据服从均匀分布的随机数可以生成服从多项分布的随机数,其方法与生成伯努利分布随机数相同,对于多项分布
将$[0,1]$区间划分成$k$个子区间,第$i$个子区间的长度为$p_{i}$
如果有一个$[0,1]$上均匀分布的随机数,则它落在第$i$个子区间内的概率为$p_{i}$
因此,可以先生成$[0,1]$上均匀分布的随机数$\zeta$,然后判定其所在的子区间,如果它落在第$i$子区间,即
则输出$i$,算法输出的数即服从多项分布
对多个样本按照权重抽样
借助于多项分布随机数可以实现对多个样本按照权重抽样,有$n$个样本,它们对应的归一化权重为
现在要对这些数进行抽样,保证抽中每个样本的概率为$w_{i}$,借助于内多项分布的随机数,即可实现此功能
在粒子滤波器、遗传算法中均有这样的需求
几何分布
定义
前面已经说明了无限可数样本空间的概率值,几何分布是这种取值为无限种可能的离散型概率分布
做一个试验,每次成功的概率为$p$,假设各次试验之间相互独立,事件$A_{n}$定义为试验$n$次才取得第一次成功,与其对应,定义随机变量$X$表示第一次取得成功所需要的试验次数,其概率为
如果令$q=1-p$,则上式可以写成
这就是几何分布
(Geometric Distribution),几何分布因其分布函数为几何级数而得名
随机变量$X$服从参数为$p$的几何分布,可以简记为$X \sim \mathrm{Geo}(p)$
分布函数
计算几何分布的分布函数,根据定义,有
几何分布的数学期望为
上式利用了幂级数求导公式,当$0<q<1$时,幂级数$\sum_{n=0}^{+\infty} q^{n}$收敛于$\frac{1}{1-q}$
根据方差的定义,有
而
同样,这里利用了幂级数求导公式,因此几何分布的方差为
几何分布的随机数也可以借助于均匀分布的随机数生成,方法与伯努利分布类似
算法循环进行尝试,每次生成一个伯努利分布随机数,如果遇到1,则结束循环,返回尝试的次数
正态分布
定义
正态分布
(Normal Distribution)也称为高斯分布
(Gaussian Distribution),它的概率密度函数为
其中$\mu$和$\sigma^{2}$分别为均值和方差
该函数在$(-\infty,+\infty)$上的积分为1,令$t=\frac{x-\mu}{\sqrt{2} \sigma}$,则有
显然,概率密度函数关于数学期望$x=\mu$对称,且在该点处有极大值
在远离数学期望时,概率密度函数的值单调递减
具体地,在$(-\infty, \mu)$内单调递增,在$(\mu,+\infty)$内单调递减,该函数的极限为
现实世界中的很多数据,例如人的身高、体重、寿命等,近似服从正态分布
随机变量$X$服从均值为$\mu$ 、方差为$\sigma^{2}$的正态分布,简记为$X \sim N\left(\mu, \sigma^{2}\right)$
标准正态分布
如果正态分布的均值为0,方差为1,则称为标准正态分布
,此时的概率密度函数为
该函数是一个偶函数,下图红色为标准正态分布的概率密度函数图像,其形状像钟,因此也称为钟形分布
正态分布的均值决定了其概率密度函数峰值出现的位置,方差则决定了曲线的宽和窄,方差越大,曲线越宽,反之则越窄
正态分布$N\left(\mu, \sigma^{2}\right)$的分布函数为
由于$\mathrm{e}^{-x^{2}}$的不定积分不是初等函数,因此该函数无解析表达式
假设随机变量$Z$服从标准正态分布$N(0,1)$,则随机变量$X=\sigma Z+\mu$服从正态分布$N\left(\mu, \sigma^{2}\right)$
相反,如果随机变量$X$服从正态分布$N\left(\mu, \sigma^{2}\right)$,则随机变量$Z=\frac{X-\mu}{\sigma}$服从标准正态分布$N(0,1)$
置信区间
正态分布的$k-\sigma$置信区间定义为$[\mu-k \sigma, \mu+k \sigma]$,其中$k$为一个正整数
随机变量落入该区间的概率为
随机变量在$\sigma, 2 \sigma, 3 \sigma$区间内的概率分别为
数学期望
下面计算正态分布的数学期望,使用换元法,令
则有
根据数学期望的定义,有
上式第5步成立是因为$z \mathrm{e}^{-\frac{x^{2}}{2}}$是奇函数,它在$(-\infty,+\infty)$上的积分为0
第6步利用了下面的结论
这可以用式换元法证明
方差
下面计算方差,同样令$z=\frac{x-\mu}{\sigma}$,则有
上式第5步利用了分部积分法,第6步成立是因为
正态分布的概率密度函数由均值和方差决定,这是非常好的一个性质,通过控制这两个参数,即可接制均值和方差
中心极限定理
指出正态分布是某些概率分布的极限分布
正态分布具有$(-\infty,+\infty)$的支撑区间,且在所有定义于此区间内的连续型概率分布中,正态分布的熵最大,这些优良的性质使得正态分布在机器学习中得到了大量的使用
多个正态分布的加权组合可形成高斯混合模型,是混合模型的一种,它可以逼近任意连续型
t分布
定义
$t$分布其概率密度函数为
其中$\Gamma$为伽马函数,$\nu$为自由度,是一个正整数
显然,当$x=0$时,概率密度函数有极大值且函数是偶函数,伽马函数是阶乘的推广,将其从正整数推广到正实数,通过积分定义
此函数的定义域为$(0,+\infty)$且在该定义域内连续
根据定义,有
伽马函数满足与阶乘相同的递推关系
这可以通过分部积分验证
根据这两个结果,对于$n \in \mathbb{N}$,有
$t$分布概率密度函数的形状与正态分布类似,如下图所示
啧啧啧
其分布函数为
其中为超几何函数
(Hypergeometric Function),定义为
上图显示了各种自由度取值时的$t$分布概率密度函数曲线以及标准正态分布的概率密度函数曲线
$t$分布具有长尾的特点,在远离中心点的位置依然有较大的概率密度函数值,且自由度越小,长尾性越强
随着自由度的增加,它以标准正态分布为极限分布
考虑$\nu \rightarrow+\infty$时的极限情况,有
上面第2步进行了换元,令$t=\frac{1}{\nu}$,第4步利用了等价无穷小,同时
因此$\nu \rightarrow+\infty$时$t$分布的极限分布是标准正态分布
$t$分布具有长尾的特点,远离概率密度函数中心点的位置仍然有较大的概率密度函数值,因此更易于产生远离均值的样本,它在机器学习中的典型应用是$t$-SNE降维算法