当前位置: 代码迷 >> 综合 >> 数学知识——概率统计(9):概率论的应用:随机过程、信息熵、图论
  详细解决方案

数学知识——概率统计(9):概率论的应用:随机过程、信息熵、图论

热度:74   发布时间:2023-12-15 05:54:30.0

概率论的各类应用

  • 回归分析和多变量分析
  • 随机过程
  • 信息论
    • 意外程度 = 信息量
    • 信息熵
    • 小结

回归分析和多变量分析

随机过程

信息论

意外程度 = 信息量

意外程度越大,消息包含的信息量也越大。
为了用数学方式描述这一理论,我们需要设计出一种概率越低值反而越大的指标。可选的方案有很多,我们最终选的是以下的方案:

得知该消息时的意外程度 = log 1 概 率 \frac{1}{概率} 1?

注意:① 这里的 log 都表示以2为底数
② log 具有以下的性质

在这里插入图片描述

这种意外程度与计算机内存容量及通信量中使用的比特数概念关系密切。实际上,通过log2 定义的意外程度的单位正是比特(bit)。

信息熵

对于一个事件 Y ,其意外程度的期望为:
在这里插入图片描述
其中,i=1,2,…k 为事件 Y 的k个可能结果;pi 为每个结果发生的概率。

小结

可以看出,我们对于 log( 1 p \frac{1}{p} p1?)可以有多种理解:
可以看做是信息的度量——信息量,也可以看做是意外程度的度量,还可以是不纯度得度量,其具体的值还可以看做是具体的比特(bit);而所有可能结果的集合事件,用期望计算的结果即是信息熵
意外程度的期望 = 信息熵 = 信息的不确定性

参考:

  1. 《程序员的数学》
  2. 机器学习算法/模型——决策树
  相关解决方案