LINUX.ORG.RU

История изменений

Исправление quasimoto, (текущая версия) :

Чем выше энтропия, тем меньше информации

Множество A = {a_1, ..., a_n}, |A| = n, функция вероятности с неким распределением на элементах {p_1, ..., p_n}, sum p_i = 1.

Энтропия Шеннона = H(A) = - sum p_i log(p_i) = sum p_i log(1/p_i); 0 <= p_i <= 1, так что H(A) >= 0.

Равномерное распределение: n * p_i = 1; (максимальная относительно прочих распределений) энтропия на A = H(A) = (sum p_i log(1/p_i) = n * 1/n log(n) =) log(n) = информация измеренная в количестве (base-)бит нужное для кодирования элементов A.

Больше величина (максимальной) энтропии H(A) — больше бит и наоборот.

http://en.wikipedia.org/wiki/Shannon_information

Shannon entropy is the average unpredictability in a random variable, which is equivalent to its information content.

Исходная версия quasimoto, :

Чем выше энтропия, тем меньше информации

Множество A = {a_1, ..., a_n}, |A| = n, функция вероятности с неким распределением на элементах {p_1, ..., p_n}, sum p_i = 1.

Энтропия Шеннона = H(A) = - sum p_i log(p_i) = sum p_i log(1/p_i); 0 <= p_i <= 1, так что H(A) >= 0.

Равномерное распределение: n * p_i = 1; (максимальная относительно прочих распределений) энтропия на A = H(A) = log(n) = информация измеренная в количестве (base-)бит нужное для кодирования элементов A.

Больше величина (максимальной) энтропии H(A) — больше бит и наоборот.

http://en.wikipedia.org/wiki/Shannon_information

Shannon entropy is the average unpredictability in a random variable, which is equivalent to its information content.