Ольга Корнеева
Для чего измеряют меру информационной энтропии?
Объясните, какой толк в измерении меры информационной энтропии по формуле Шеннона H = Sum_i ( p(i)log_2 p(i) ) (т. е. для чего нам знать какой символ появится с наибольшей вероятностью) , если и так ясно, что на какой-либо символ алфавита Источника Сообщений (со стандартным объемом в 256 символов) приходится I = log_2 256 = 8 бит (формула Хартли)?