Информационная энтропия: различия между версиями

м
(отмена правки 31759769 участника 91.77.21.222 (обс))
#: <math>H\underbrace{\left(\frac{1}{n},\;\ldots,\;\frac{1}{n}\right)}_n= H\left(\frac{b_1}{n},\;\ldots,\;\frac{b_k}{n}\right)+\sum_{i=1}^k\frac{b_i}{n}H\underbrace{\left(\frac{1}{b_i},\;\ldots,\;\frac{1}{b_i}\right)}_{b_i}.</math>
 
Шеннон показал,{{Источник}} что единственная функция, удовлетворяющая этим требованиям, имеет вид:
: <math>-K\sum_{i=1}^np(i)\log_2 p(i),</math>
где <math>K</math> — константа (и в действительности нужна только для выбора единиц измерения).