熵(英语:entropy)是接收的每条消息中包含的信息的平均量。
熵的概念最早起源于物理学,用于度量一个热力学系统的无序程度。在信息论里面,熵是对不确定性的测量
结论:熵越大不确定性越大,熵最小是0
———摘自《维基百科》
公式
$$ H(X|Y)=- \sum_{i,j} p(x_{i},y_{j}) \log \frac {p(x_{i},y_{j})} {p(y_{j})} $$
范例
应用场景
参考: wikipedia-条件熵