当前位置: 代码迷 >> 综合 >> 高斯分布|机器学习推导系列(二)
  详细解决方案

高斯分布|机器学习推导系列(二)

热度:22   发布时间:2024-01-28 22:10:41.0

一、概述

假设有以下数据:

X = ( x 1 , x 1 , ? ? , x N ) T = ( x 1 T x 2 T ? x N T ) N × p x i R p x i ? i i d N ( μ , Σ ) θ = ( μ , Σ ) X=(x_{1},x_{1},\cdots ,x_{N})^{T}=\begin{pmatrix} x_{1}^{T}\\ x_{2}^{T}\\ \vdots \\ x_{N}^{T} \end{pmatrix}_{N \times p}\\ 其中x_{i}\in \mathbb{R}^{p}且x_{i}\overset{iid}{\sim }N(\mu ,\Sigma )\\ 则参数\theta =(\mu ,\Sigma )

二、通过极大似然估计高斯分布的均值和方差

  1. 极大似然

θ M L E = a r g m a x θ P ( X θ ) \theta_{MLE}=\underset{\theta }{argmax}P(X|\theta )

  1. 高斯分布

p ( x ) = 1 2 π σ e x p ( ? ( x ? μ ) 2 2 σ 2 ) p ( x ) = 1 ( 2 π ) D / 2 Σ 1 / 2 e x p ( ? 1 2 ( x ? μ ) T Σ ? 1 ( x ? μ ) ) 一维高斯分布p(x)=\frac{1}{\sqrt{2\pi }\sigma }exp(-\frac{(x-\mu )^{2}}{2\sigma ^{2}})\\ 多维高斯分布p(x)=\frac{1}{(2\pi )^{D/2}|\Sigma |^{1/2}}exp(-\frac{1}{2}(x-\mu)^{T}\Sigma ^{-1}(x-\mu))

  1. 一维高斯分布下的估计
  • 关于 θ \theta 的似然函数

l o g P ( X θ ) = l o g i = 1 N p ( x i θ ) = i = 1 N l o g 1 2 π σ e x p ( ? ( x i ? μ ) 2 2 σ 2 ) = i = 1 N [ l o g 1 2 π + l o g 1 σ ? ( x i ? μ ) 2 2 σ 2 ] logP(X|\theta )=log\prod_{i=1}^{N}p(x_{i}|\theta )\\ =\sum_{i=1}^{N}log\frac{1}{\sqrt{2\pi }\sigma }exp(-\frac{(x_{i}-\mu )^{2}}{2\sigma ^{2}})\\ =\sum_{i=1}^{N}[log\frac{1}{\sqrt{2\pi }}+log\frac{1}{\sigma }-\frac{(x_{i}-\mu )^{2}}{2\sigma ^{2}}]

  • 通过极大似然估计法求解 μ M L E \mu _{MLE}

μ M L E = a r g m a x μ l o g P ( X θ ) = a r g m a x μ i = 1 N ? ( x i ? μ ) 2 2 σ 2 = a r g m i n μ i = 1 N ( x i ? μ ) 2 μ ? i = 1 N ( x i ? μ ) 2 ? μ = i = 1 N 2 ( x i ? μ ) ( ? 1 ) = 0 ? i = 1 N ( x i ? μ ) = 0 ? i = 1 N x i ? i = 1 N μ ? N μ = 0 μ M L E = 1 N i = 1 N x i \mu _{MLE}=\underset{\mu }{argmax}logP(X|\theta)\\ =\underset{\mu }{argmax}\sum_{i=1}^{N}-\frac{(x_{i}-\mu )^{2}}{2\sigma ^{2}}\\ =\underset{\mu }{argmin}\sum_{i=1}^{N}(x_{i}-\mu )^{2}\\ 对\mu求导\frac{\partial \sum_{i=1}^{N}(x_{i}-\mu )^{2}}{\partial \mu}=\sum_{i=1}^{N}2(x_{i}-\mu )(-1)=0\\ \Leftrightarrow \sum_{i=1}^{N}(x_{i}-\mu )=0\\ \Leftrightarrow \sum_{i=1}^{N}x_{i}-\underset{N\mu }{\underbrace{\sum_{i=1}^{N}\mu }}=0\\ 解得\mu _{MLE}=\frac{1}{N}\sum_{i=1}^{N}x_{i}

  • 证明 μ M L E \mu _{MLE} 是无偏估计

E [ μ M L E ] = 1 N i = 1 N E [ x i ] = 1 N i = 1 N μ = 1 N N μ = μ E[\mu _{MLE}]=\frac{1}{N}\sum_{i=1}^{N}E[x_{i}] =\frac{1}{N}\sum_{i=1}^{N}\mu =\frac{1}{N}N\mu =\mu

  • 通过极大似然估计法求解 σ M L E \sigma _{MLE}

σ M L E 2 = a r g m a x σ P ( X θ ) = a r g m a x σ i = 1 N ( ? l o g σ ? ( x i ? μ ) 2 2 σ 2 ) ? L ? L ? σ = i = 1 N [ ? 1 σ + ( x i ? μ ) 2 σ ? 3 ] ? i = 1 N [ ? σ 2 + ( x i ? μ ) 2 ] = 0 ? ? i = 1 N σ 2 + i = 1 N ( x i ? μ ) 2 = 0 σ M L E 2 = 1 N i = 1 N ( x i ? μ ) 2 μ μ M L E σ M L E 2 = 1 N i = 1 N ( x i ? μ M L E ) 2 \sigma _{MLE}^{2}=\underset{\sigma }{argmax}P(X|\theta )\\ =\underset{\sigma }{argmax}\underset{L}{\underbrace{\sum_{i=1}^{N}(-log\sigma -\frac{(x_{i}-\mu )^{2}}{2\sigma ^{2}})}}\\ \frac{\partial L}{\partial \sigma}=\sum_{i=1}^{N}[-\frac{1}{\sigma }+(x_{i}-\mu )^{2}\sigma ^{-3}]\\ \Leftrightarrow \sum_{i=1}^{N}[-\sigma ^{2}+(x_{i}-\mu )^{2}]=0\\ \Leftrightarrow -\sum_{i=1}^{N}\sigma ^{2}+\sum_{i=1}^{N}(x_{i}-\mu )^{2}=0\\ \sigma _{MLE}^{2}=\frac{1}{N}\sum_{i=1}^{N}(x_{i}-\mu )^{2}\\ \mu取\mu_{MLE}时,\sigma _{MLE}^{2}=\frac{1}{N}\sum_{i=1}^{N}(x_{i}-\mu _{MLE})^{2}

  • 证明 σ M L E 2 \sigma _{MLE}^{2} 是有偏估计

要证明 σ M L E 2 \sigma _{MLE}^{2} 是有偏估计就需要判断 E [ σ M L E 2 ] = ? σ 2 E[\sigma _{MLE}^{2}]\overset{?}{=}\sigma ^{2} ,证明如下:

V a r [ μ M L E ] = V a r [ 1 N i = 1 N x i ] = 1 N 2 i = 1 N V a r [ x i ] = 1 N 2 i = 1 N σ 2 = σ 2 N σ M L E 2 = 1 N i = 1 N ( x i ? μ M L E ) 2 = 1 N i = 1 N ( x i 2 ? 2 x i μ M L E + μ M L E 2 ) 2 = 1 N i = 1 N x i 2 ? 1 N i = 1 N 2 x i μ M L E + 1 N i = 1 N μ M L E 2 = 1 N i = 1 N x i 2 ? 2 μ M L E 2 + μ M L E 2 = 1 N i = 1 N x i 2 ? μ M L E 2 E [ σ M L E 2 ] = E [ 1 N i = 1 N x i 2 ? μ M L E 2 ] = E [ ( 1 N i = 1 N x i 2 ? μ 2 ) ? ( μ M L E 2 ? μ 2 ) ] = E [ 1 N i = 1 N ( x i 2 ? μ 2 ) ] ? E [ μ M L E 2 ? μ 2 ] = 1 N i = 1 N E [ x i 2 ? μ 2 ] ? ( E [ μ M L E 2 ] ? E [ μ 2 ] ) = 1 N i = 1 N ( E [ x i 2 ] ? μ 2 ) ? ( E [ μ M L E 2 ] ? μ 2 ) = 1 N i = 1 N ( V a r [ x i ] + E [ x i ] 2 ? μ 2 ) ? ( E [ μ M L E 2 ] ? μ M L E 2 ) = 1 N i = 1 N ( V a r [ x i ] + μ 2 ? μ 2 ) ? ( E [ μ M L E 2 ] ? E [ μ M L E ] 2 ) = 1 N i = 1 N V a r [ x i ] ? V a r [ μ M L E ] = σ 2 ? 1 N σ 2 = N ? 1 N σ 2 {\color{Blue}{Var[\mu _{MLE}]}}=Var[\frac{1}{N}\sum_{i=1}^{N}x_{i}]=\frac{1}{N^{2}}\sum_{i=1}^{N}Var[x_{i}]=\frac{1}{N^{2}}\sum_{i=1}^{N}\sigma ^{2}=\frac{\sigma ^{2}}{N}\\ {\color{Red}{\sigma _{MLE}^{2}}}=\frac{1}{N}\sum_{i=1}^{N}(x_{i}-\mu _{MLE})^{2}\\ =\frac{1}{N}\sum_{i=1}^{N}(x_{i}^{2}-2x_{i}\mu _{MLE}+\mu _{MLE}^{2})^{2}\\ =\frac{1}{N}\sum_{i=1}^{N}x_{i}^{2}-\frac{1}{N}\sum_{i=1}^{N}2x_{i}\mu _{MLE}+\frac{1}{N}\sum_{i=1}^{N}\mu _{MLE}^{2}\\ =\frac{1}{N}\sum_{i=1}^{N}x_{i}^{2}-2\mu _{MLE}^{2}+\mu _{MLE}^{2}\\ =\frac{1}{N}\sum_{i=1}^{N}x_{i}^{2}-\mu _{MLE}^{2}\\ E[{\color{Red}{\sigma _{MLE}^{2}}}]=E[\frac{1}{N}\sum_{i=1}^{N}x_{i}^{2}-\mu _{MLE}^{2}]\\ =E[(\frac{1}{N}\sum_{i=1}^{N}x_{i}^{2}-\mu ^{2})-(\mu _{MLE}^{2}-\mu ^{2})]\\ =E[\frac{1}{N}\sum_{i=1}^{N}(x_{i}^{2}-\mu ^{2})]-E[\mu _{MLE}^{2}-\mu ^{2}]\\ =\frac{1}{N}\sum_{i=1}^{N}E[x_{i}^{2}-\mu ^{2}]-(E[\mu _{MLE}^{2}]-E[\mu ^{2}])\\ =\frac{1}{N}\sum_{i=1}^{N}(E[x_{i}^{2}]-\mu ^{2})-(E[\mu _{MLE}^{2}]-\mu ^{2})\\ =\frac{1}{N}\sum_{i=1}^{N}(Var[x_{i}]+E[x_{i}]^{2}-\mu ^{2})-(E[\mu _{MLE}^{2}]-\mu_{MLE} ^{2})\\ =\frac{1}{N}\sum_{i=1}^{N}(Var[x_{i}]+\mu ^{2}-\mu ^{2})-(E[\mu _{MLE}^{2}]-E[\mu_{MLE}] ^{2})\\ =\frac{1}{N}\sum_{i=1}^{N}Var[x_{i}]-{\color{Blue}{Var[\mu _{MLE}]}}\\ =\sigma ^{2}-\frac{1}{N}\sigma ^{2}\\ =\frac{N-1}{N}\sigma ^{2}

可以理解为当 μ \mu μ M L E \mu_{MLE} 就已经确定了所有 x i x_{i} 的和等于 N μ M L E N\mu_{MLE} ,也就是说当 N ? 1 N-1 x i x_{i} 确定以后,第 N N x i x_{i} 也就被确定了,所以少了一个“自由度”,因此 E [ σ M L E 2 ] = N ? 1 N σ 2 E[{\sigma _{MLE}^{2}}]=\frac{N-1}{N}\sigma ^{2}

方差的无偏估计:

σ ^ 2 = 1 N ? 1 i = 1 N ( x i ? μ M L E ) 2 \hat{\sigma} ^{2}=\frac{1}{N-1}\sum_{i=1}^{N}(x_{i}-\mu _{MLE})^{2}

三、为什么高斯分布的等高线是个“椭圆”

  1. 高斯分布与马氏距离
  • 多维高斯分布

x ? i i d N ( μ , Σ ) = 1 ( 2 π ) D / 2 Σ 1 / 2 e x p ( ? 1 2 ( x ? μ ) T Σ ? 1 ( x ? μ ) ? ) x R p r . v . x = ( x 1 x 2 ? x p ) μ = ( μ 1 μ 2 ? μ p ) Σ = [ σ 11 σ 12 ? σ 1 p σ 21 σ 22 ? σ 2 p ? ? ? ? σ p 1 σ p 2 ? σ p p ] p × p Σ 0 x\overset{iid}{\sim }N(\mu ,\Sigma )=\frac{1}{(2\pi )^{D/2}|\Sigma |^{1/2}}exp(-\frac{1}{2}\underset{二次型}{\underbrace{(x-\mu)^{T}\Sigma ^{-1}(x-\mu)}})\\ x\in \mathbb{R}^{p},r.v.\\ x=\begin{pmatrix} x_{1}\\ x_{2}\\ \vdots \\ x_{p} \end{pmatrix}\mu =\begin{pmatrix} \mu_{1}\\ \mu_{2}\\ \vdots \\ \mu_{p} \end{pmatrix}\Sigma = \begin{bmatrix} \sigma _{11}& \sigma _{12}& \cdots & \sigma _{1p}\\ \sigma _{21}& \sigma _{22}& \cdots & \sigma _{2p}\\ \vdots & \vdots & \ddots & \vdots \\ \sigma _{p1}& \sigma _{p2}& \cdots & \sigma _{pp} \end{bmatrix}_{p\times p}\\ \Sigma一般是半正定的,在本次证明中假设是正定的,即所有的特征值都是正的,没有0。

  • 马氏距离

( x ? μ ) T Σ ? 1 ( x ? μ ) x μ Σ I \sqrt{(x-\mu)^{T}\Sigma ^{-1}(x-\mu)}为马氏距离(x与\mu之间,当\Sigma为I时马氏距离即为欧氏距离。

  1. 证明高斯分布等高线为椭圆
  • 协方差矩阵的特征值分解

任意的 N × N N \times N 实对称矩阵都有 N N 个线性无关的特征向量。并且这些特征向量都可以正交单位化而得到一组正交且模为 1 的向量。故实对称矩阵 Σ \Sigma 可被分解成 Σ = U Λ U T \Sigma=U\Lambda U^{T}

Σ Σ = U Λ U T U U T = U T U = I Λ = d i a g ( λ i ) i = 1 , 2 , ? ? , p U = ( u 1 , u 2 , ? ? , u p ) p × p Σ = U Λ U T = ( u 1 u 2 ? u p ) [ λ 1 0 ? 0 0 λ 2 ? 0 ? ? ? ? 0 0 ? λ p ] ( u 1 T u 2 T ? u p T ) = ( u 1 λ 1 u 2 λ 2 ? u p λ p ) ( u 1 T u 2 T ? u p T ) = i = 1 p u i λ i u i T Σ ? 1 = ( U Λ U T ) ? 1 = ( U T ) ? 1 Λ ? 1 U ? 1 = U Λ ? 1 U T = i = 1 p u i 1 λ i u i T , Λ ? 1 = d i a g ( 1 λ i ) , i = 1 , 2 , ? ? , p 将\Sigma进行特征分解,\Sigma=U\Lambda U^{T}\\ 其中UU^{T}=U^{T}U=I,\underset{i=1,2,\cdots ,p}{\Lambda =diag(\lambda _{i})},U=(u _{1},u _{2},\cdots ,u _{p})_{p\times p}\\ 因此\Sigma=U\Lambda U^{T}\\ =\begin{pmatrix} u _{1} & u _{2} & \cdots & u _{p} \end{pmatrix}\begin{bmatrix} \lambda _{1} & 0 & \cdots & 0 \\ 0 & \lambda _{2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda _{p} \end{bmatrix}\begin{pmatrix} u_{1}^{T}\\ u_{2}^{T}\\ \vdots \\ u_{p}^{T} \end{pmatrix}\\ =\begin{pmatrix} u _{1}\lambda _{1} & u _{2}\lambda _{2} & \cdots & u _{p}\lambda _{p} \end{pmatrix}\begin{pmatrix} u_{1}^{T}\\ u_{2}^{T}\\ \vdots \\ u_{p}^{T} \end{pmatrix}\\ =\sum_{i=1}^{p}u_{i}\lambda _{i}u_{i}^{T}\\ \Sigma ^{-1}=(U\Lambda U^{T})^{-1}=(U^{T})^{-1}\Lambda ^{-1}U^{-1}=U{\Lambda^{-1}}U^{T}=\sum_{i=1}^{p}u_{i}\frac{1}{\lambda _{i}}u _{i}^{T},其中\Lambda^{-1}=diag(\frac{1}{\lambda _{i}}),i=1,2,\cdots ,p

  • 将概率密度整理成椭圆方程的形式

Δ = ( x ? μ ) T Σ ? 1 ( x ? μ ) = ( x ? μ ) T i = 1 p u i 1 λ i u i T ( x ? μ ) = i = 1 p ( x ? μ ) T u i 1 λ i u i T ( x ? μ ) ( y i = ( x ? μ ) T u i ) = i = 1 p y i 1 λ i y i T = i = 1 p y i 2 λ i \Delta =(x-\mu )^{T}\Sigma ^{-1}(x-\mu )\\ =(x-\mu )^{T}\sum_{i=1}^{p}u _{i}\frac{1}{\lambda _{i}}u _{i}^{T}(x-\mu )\\ =\sum_{i=1}^{p}(x-\mu )^{T}u _{i}\frac{1}{\lambda _{i}}u _{i}^{T}(x-\mu )\\ (令y_{i}=(x-\mu )^{T}u _{i})\\ =\sum_{i=1}^{p}y_{i}\frac{1}{\lambda _{i}}y_{i}^{T}\\ =\sum_{i=1}^{p}\frac{y_{i}^{2}}{\lambda _{i}}

上式中 y i = ( x ? μ ) T u i y_{i}=(x-\mu )^{T}u _{i} 可以理解为将 x x 减去均值进行中心化以后再投影到 u i u _{i} 方向上,相当于做了一次坐标轴变换。

x x 的维度为2即 p = 2 p=2 Δ = y 1 2 λ 1 + y 2 2 λ 2 \Delta =\frac{y_{1}^{2}}{\lambda _{1}}+\frac{y_{2}^{2}}{\lambda _{2}} ,得到类似椭圆方程的等式,所以也就可以解释为什么其等高线是椭圆形状。二维高斯分布的图像如下所示:

二维高斯分布

四、高斯分布的局限性

  1. 参数过多

协方差矩阵 Σ p × p \Sigma _{p\times p} 中的参数共有 1 + 2 + ? + p = p ( p + 1 ) 2 1+2+\cdots +p=\frac{p(p+1)}{2} 个( Σ p × p \Sigma _{p\times p} 是对称矩阵),因此当 x x 的维度 p p 很大时,高斯分布的参数就会有很多,其计算复杂度为 O ( p 2 ) O(p^{2})

可以通过假设高斯分布的协方差矩阵为对角矩阵来减少参数,当高斯分布的协方差矩阵为对角矩阵时,特征向量的方向就会和原坐标轴的方向平行,因此高斯分布的等高线(同心椭圆)就不会倾斜。

另外如果在高斯分布的协方差矩阵为对角矩阵为对角矩阵的基础上使得其特征值全部相等(即 λ 1 = λ 2 = ? = λ i \lambda _{1}=\lambda _{2}=\cdots=\lambda _{i} ),则高斯分布的等高线就会成为一个圆形,而且不会倾斜,称为各向同性

  1. 单个高斯分布拟合能力有限

解决方案是使用多个高斯分布,比如高斯混合模型。

#五、求高斯分布的边缘概率与条件概率

  1. 概述

首先将变量、均值和方差进行划分:

x = ( x a x b ) x a m x b n μ = ( μ a μ b ) Σ = ( Σ a a Σ a b Σ b a Σ b b ) x=\begin{pmatrix} x_{a}\\ x_{b} \end{pmatrix},其中x_{a}是m维的,x_{b}是n维的。\\ \mu =\begin{pmatrix} \mu_{a}\\ \mu_{b} \end{pmatrix}\Sigma =\begin{pmatrix} \Sigma _{aa}&\Sigma _{ab}\\ \Sigma _{ba}&\Sigma _{bb} \end{pmatrix}

本部分旨在根据上述已知来求 P ( x a ) , P ( x b x a ) , P ( x b ) , P ( x a x b ) P(x_{a}),P(x_{b}|x_{a}),P(x_{b}),P(x_{a}|x_{b})

  1. 定理

以下定义为推导过程中主要用到的定理,这里只展示定理的内容,不进行证明:

x ? N ( μ , Σ ) , x R p y = A x + B , y R q y ? N ( A μ + B , A Σ A T ) 已知x\sim N(\mu ,\Sigma ),x\in \mathbb{R}^{p}\\ y=Ax+B,y\in \mathbb{R}^{q}\\ 结论:y\sim N(A\mu +B,A\Sigma A^{T})

一个简单但不严谨的证明:

E [ y ] = E [ A x + B ] = A E [ x ] + B = A μ + B V a r [ y ] = V a r [ A x + B ] = V a r [ A x ] + V a r [ B ] = A V a r [ x ] A T + 0 = A Σ A T E[y]=E[Ax+B]=AE[x]+B=A\mu +B\\ Var[y]=Var[Ax+B]\\ =Var[Ax]+Var[B]\\ =AVar[x]A^{T}+0\\ =A\Sigma A^{T}

  1. 求边缘概率 P ( x a ) P(x_{a})

x a = ( I m 0 n ) ? A ( x a x b ) ? x E [ x a ] = ( I m 0 n ) ( μ a μ b ) = μ a V a r [ x a ] = ( I m 0 n ) ( Σ a a Σ a b Σ b a Σ b b ) ( I m 0 n ) = ( Σ a a Σ a b ) ( I m 0 n ) = Σ a a x_{a}=\underset{A}{\underbrace{\begin{pmatrix} I_{m} & 0_{n} \end{pmatrix}}}\underset{x}{\underbrace{\begin{pmatrix} x_{a}\\ x_{b} \end{pmatrix}}}\\ E[x_{a}]=\begin{pmatrix} I_{m} & 0_{n} \end{pmatrix}\begin{pmatrix} \mu _{a}\\ \mu _{b} \end{pmatrix}=\mu _{a}\\ Var[x_{a}]=\begin{pmatrix} I_{m} & 0_{n} \end{pmatrix}\begin{pmatrix} \Sigma _{aa}&\Sigma _{ab}\\ \Sigma _{ba}&\Sigma _{bb} \end{pmatrix}\begin{pmatrix} I_{m}\\ 0_{n} \end{pmatrix}\\ =\begin{pmatrix} \Sigma _{aa}&\Sigma _{ab} \end{pmatrix}\begin{pmatrix} I_{m}\\ 0_{n} \end{pmatrix}=\Sigma _{aa}

所以 x a ? N ( μ a , Σ a a ) x_{a}\sim N(\mu _{a},\Sigma _{aa}) ,同理 x b ? N ( μ b , Σ b b ) x_{b}\sim N(\mu _{b},\Sigma _{bb})

  1. 求条件概率 P ( x b x a ) P(x_{b}|x_{a})

{ x b ? a = x b ? Σ b a Σ a a ? 1 x a μ b ? a = μ b ? Σ b a Σ a a ? 1 μ a Σ b b ? a = Σ b b ? Σ b a Σ a a ? 1 Σ a b ( Σ b b ? a Σ a a ) x b ? a = ( Σ b a Σ a a ? 1 I n ) ? A ( x a x b ) ? x E [ x b ? a ] = ( ? Σ b a Σ a a ? 1 I n ) ( μ a μ b ) = μ b ? Σ b a Σ a a ? 1 μ a = μ b ? a V a r [ x b ? a ] = ( ? Σ b a Σ a a ? 1 I n ) ( Σ a a Σ a b Σ b a Σ b b ) ( ? Σ a a ? 1 Σ b a T I n ) = ( ? Σ b a Σ a a ? 1 Σ a a + Σ b a ? Σ b a Σ a a ? 1 Σ a b + Σ b b ) = ( 0 ? Σ b a Σ a a ? 1 Σ a b + Σ b b ) ( ? Σ a a ? 1 Σ b a T I n ) = Σ b b ? Σ b a Σ a a ? 1 Σ a b = Σ b b ? a 构造\left\{\begin{matrix} x_{b\cdot a}=x_{b}-\Sigma _{ba}\Sigma _{aa}^{-1}x_{a}\\ \mu _{b\cdot a}=\mu_{b}-\Sigma _{ba}\Sigma _{aa}^{-1}\mu_{a}\\ \Sigma _{bb\cdot a}=\Sigma _{bb}-\Sigma _{ba}\Sigma _{aa}^{-1}\Sigma _{ab} \end{matrix}\right.\\ (\Sigma _{bb\cdot a}是\Sigma _{aa}的舒尔补)\\ x_{b\cdot a}=\underset{A}{\underbrace{\begin{pmatrix} \Sigma _{ba}\Sigma _{aa}^{-1}& I_{n} \end{pmatrix}}}\underset{x}{\underbrace{\begin{pmatrix} x_{a}\\ x_{b} \end{pmatrix}}}\\ E[x_{b\cdot a}]=\begin{pmatrix} -\Sigma _{ba}\Sigma _{aa}^{-1}& I_{n} \end{pmatrix}\begin{pmatrix} \mu _{a}\\ \mu _{b} \end{pmatrix}=\mu_{b}-\Sigma _{ba}\Sigma _{aa}^{-1}\mu_{a}=\mu _{b\cdot a}\\ Var[x_{b\cdot a}]=\begin{pmatrix} -\Sigma _{ba}\Sigma _{aa}^{-1}& I_{n} \end{pmatrix}\begin{pmatrix} \Sigma _{aa}&\Sigma _{ab}\\ \Sigma _{ba}&\Sigma _{bb} \end{pmatrix}\begin{pmatrix} -\Sigma _{aa}^{-1}\Sigma _{ba}^{T}\\ I_{n} \end{pmatrix}\\ =\begin{pmatrix} -\Sigma _{ba}\Sigma _{aa}^{-1}\Sigma _{aa}+\Sigma _{ba}& -\Sigma _{ba}\Sigma _{aa}^{-1}\Sigma _{ab}+\Sigma _{bb} \end{pmatrix}\\ =\begin{pmatrix} 0& -\Sigma _{ba}\Sigma _{aa}^{-1}\Sigma _{ab}+\Sigma _{bb} \end{pmatrix}\begin{pmatrix} -\Sigma _{aa}^{-1}\Sigma _{ba}^{T}\\ I_{n} \end{pmatrix}\\ =\Sigma _{bb}-\Sigma _{ba}\Sigma _{aa}^{-1}\Sigma _{ab}\\ =\Sigma _{bb\cdot a}\\

现在可以得到 x b ? a ? N ( μ b ? a , Σ b b ? a ) x_{b\cdot a}\sim N(\mu _{b\cdot a},\Sigma _{bb\cdot a}) 。根据 x b x_{b} x b ? a x_{b\cdot a} 的关系可以得到 x b x a x_{b}|x_{a} 的分布:

x b = x b ? a ? x + Σ b a Σ a a ? 1 x a ? B ( P ( x b x a ) x a x b Σ b a Σ a a ? 1 x a B ) E [ x b x a ] = μ b ? a + Σ b a Σ a a ? 1 x a V a r [ x b x a ] = V a r [ x b ? a ] = Σ b b ? a x_{b}=\underset{x}{\underbrace{x_{b\cdot a}}}+\underset{B}{\underbrace{\Sigma _{ba}\Sigma _{aa}^{-1}x_{a}}}\\ (在求条件概率P(x_{b}|x_{a})时x_{a}对于x_{b}来说可以看做已知,因此上式中\Sigma _{ba}\Sigma _{aa}^{-1}x_{a}看做常量B)\\ E[x_{b}|x_{a}]=\mu _{b\cdot a}+\Sigma _{ba}\Sigma _{aa}^{-1}x_{a}\\ Var[x_{b}|x_{a}]=Var[x_{b\cdot a}]=\Sigma _{bb\cdot a}

因此可以得到 x b x a ? N ( μ b ? a + Σ b a Σ a a ? 1 x a , Σ b b ? a ) x_{b}|x_{a}\sim N(\mu _{b\cdot a}+\Sigma _{ba}\Sigma _{aa}^{-1}x_{a},\Sigma _{bb\cdot a}) ,同理可以得到 x a x b ? N ( μ a ? b + Σ a b Σ b b ? 1 x b , Σ a a ? b ) x_{a}|x_{b}\sim N(\mu _{a\cdot b}+\Sigma _{ab}\Sigma _{bb}^{-1}x_{b},\Sigma _{aa\cdot b})

六、求高斯分布的联合概率分布

  1. 概述

p ( x ) = N ( x μ , Λ ? 1 ) p ( y x ) = N ( y A x + b , L ? 1 ) Λ L p r e c i s i o n ? m a t r i x p r e c i s i o n ? m a t r i x = ( c o v a r i a n c e ? m a t r i x ) T p(x)=N(x|\mu ,\Lambda ^{-1})\\ p(y|x)=N(y|Ax+b ,L ^{-1})\\ \Lambda和L是精度矩阵(precision\,matrix), precision\,matrix=(covariance\,matrix)^{T}。

本部分旨在根据上述已知来求 p ( y ) , p ( x y ) p(y),p(x|y)

  1. 求解 p ( y ) p(y)

由上述已知可以确定 y y x x 的关系为线性高斯模型,则 y y x x 符合下述关系:

y = A x + b + ε , ε ? N ( 0 , L ? 1 ) y=Ax+b+\varepsilon ,\varepsilon\sim N(0,L ^{-1})

然后求解y的均值和方差:

E [ y ] = E [ A x + b + ε ] = E [ A x + b ] + E [ ε ] = A μ + b V a r [ y ] = V a r [ A x + b + ε ] = V a r [ A x + b ] + V a r [ ε ] = A Λ ? 1 A T + L ? 1 y ? N ( A μ + b , L ? 1 + A Λ ? 1 A T ) E[y]=E[Ax+b+\varepsilon]=E[Ax+b]+E[\varepsilon]=A\mu+b\\ Var[y]=Var[Ax+b+\varepsilon]=Var[Ax+b]+Var[\varepsilon]=A\Lambda ^{-1}A^{T}+L ^{-1}\\ 则可以得出y\sim N(A\mu+b,L ^{-1}+A\Lambda ^{-1}A^{T})

  1. 求解 p ( x y ) p(x|y)

求解 p ( x y ) p(x|y) 需要首先求解 x x y y 的联合分布,然后根据上一部分的公式直接得到 p ( x y ) p(x|y)

z = ( x y ) ? N ( [ μ A μ + b ] , [ Λ ? 1 Δ Δ T L ? 1 + A Λ ? 1 A T ] ) Δ Δ = C o v ( x , y ) = E [ ( x ? E [ x ] ) ( y ? E [ y ] ) T ] = E [ ( x ? μ ) ( y ? A μ ? b ) T ] = E [ ( x ? μ ) ( A x + b + ε ? A μ ? b ) T ] = E [ ( x ? μ ) ( A x ? A μ + ε ) T ] = E [ ( x ? μ ) ( A x ? A μ ) T + ( x ? μ ) ε T ] = E [ ( x ? μ ) ( A x ? A μ ) T ] + E [ ( x ? μ ) ε T ] x ε ( x ? μ ) ε E [ ( x ? μ ) ε T ] = E [ ( x ? μ ) ] E [ ε T ] = E [ ( x ? μ ) ( A x ? A μ ) T ] + E [ ( x ? μ ) ] E [ ε T ] = E [ ( x ? μ ) ( A x ? A μ ) T ] + E [ ( x ? μ ) ] ? 0 = E [ ( x ? μ ) ( A x ? A μ ) T ] = E [ ( x ? μ ) ( x ? μ ) T A T ] = E [ ( x ? μ ) ( x ? μ ) T ] A T = V a r [ x ] A T = Λ ? 1 A T z = ( x y ) ? N ( [ μ A μ + b ] , [ Λ ? 1 Λ ? 1 A T A Λ ? 1 L ? 1 + A Λ ? 1 A T ] ) x y ? N ( μ x ? y + Λ ? 1 A T ( L ? 1 + A Λ ? 1 A T ) ? 1 y , Σ x x ? y ) 构造z=\begin{pmatrix} x\\ y \end{pmatrix}\sim N\left ( \begin{bmatrix} \mu \\ A\mu+b \end{bmatrix} , \begin{bmatrix} \Lambda ^{-1} & \Delta \\ \Delta ^{T} & L ^{-1}+A\Lambda ^{-1}A^{T} \end{bmatrix}\right )\\ 现在需要求解\Delta\\ \Delta=Cov(x,y)\\ =E[(x-E[x])(y-E[y])^{T}]\\ =E[(x-\mu )(y-A\mu-b)^{T}]\\ =E[(x-\mu )(Ax+b+\varepsilon-A\mu-b)^{T}]\\ =E[(x-\mu )(Ax-A\mu+\varepsilon)^{T}]\\ =E[(x-\mu )(Ax-A\mu)^{T}+(x-\mu)\varepsilon^{T}]\\ =E[(x-\mu )(Ax-A\mu)^{T}]+E[(x-\mu)\varepsilon^{T}]\\ (因为x\perp \varepsilon,所以(x-\mu)\perp \varepsilon,所以E[(x-\mu)\varepsilon^{T}]=E[(x-\mu)]E[\varepsilon^{T}])\\ =E[(x-\mu )(Ax-A\mu)^{T}]+E[(x-\mu)]E[\varepsilon^{T}]\\ =E[(x-\mu )(Ax-A\mu)^{T}]+E[(x-\mu)]\cdot 0\\ =E[(x-\mu )(Ax-A\mu)^{T}]\\ =E[(x-\mu )(x-\mu )^{T}A^{T}]\\ =E[(x-\mu )(x-\mu )^{T}]A^{T}\\ =Var[x]A^{T}\\ =\Lambda ^{-1}A^{T}\\ 由此可得z=\begin{pmatrix} x\\ y \end{pmatrix}\sim N\left ( \begin{bmatrix} \mu \\ A\mu+b \end{bmatrix} , \begin{bmatrix} \Lambda ^{-1} & \Lambda ^{-1}A^{T} \\ A\Lambda ^{-1} & L ^{-1}+A\Lambda ^{-1}A^{T} \end{bmatrix}\right )\\ 套用上一部分的公式可以得到x|y\sim N(\mu _{x\cdot y}+\Lambda ^{-1}A^{T} (L ^{-1}+A\Lambda ^{-1}A^{T})^{-1}y,\Sigma _{xx\cdot y})