Системное администрирование

В системе имеется 8 равновероятных событий укажите энтропию такой системы.

Подскажите, пожалуйста, дураку...
AO
Adilet Orozakunov
103
Сумма (n=1;8) (-⅛•lb⅛) = 3.
СБ
Сергей Бельский
28 648
Лучший ответ
.Степень дезорганизованности (то есть энтропия системы) зависит не только от числа состояний n, но и от соотношения между вероятностями P(Ai) нахождения системы в каждом из этих состояний. Поясним на примере. Предположим, что система может находиться в трех состояниях A1, A2 и A3. Пусть известны вероятности нахождения системы в этих состояниях Р (А1); Р (А2); Р (А3), причем Р (А1) = 0,96; Р (А2) = 0,02; Р (А3) = 0,02. Очевидно, в такой ситуации заранее можно утверждать, что система вероятнее всего будет находиться в состоянии А1.

Если Р (А1) = Р (А2) = Р (А3), то дезорганизованность системы будет выше, и следовательно, энтропия больше, чем в первом случае.

Если Р (А1) = 1, а Р (А2) = Р (А3) = 0, то ни о какой дезорганизованности системы говорить не имеет смысла и в этом случае энтропия системы должна быть равна 0.

С учетом этих требований в теории информации энтропия системы А, которая может находиться вN состояниях с вероятностями Р (Аi), определяется следующим соотношением :

, (3.1)

где log2 - двоичный логарифм.

Рассмотрим основные свойства энтропии, которые в дальнейшем будут использоваться для определения количества информации.

1. Так как вероятность появления события Ai величина положительная и заключена в интервале от нуля до единицы, то есть, то энтропия системы величина также положительная, то есть.

2. Целесообразность использования двоичного логарифма следует из теории связи, поскольку сообщение в одной ячейке памяти может принимать два значения: нуль (событие A1) или единица (событие A2) с одинаковой вероятностью, то есть Р (А1) = Р (А2) = 0,5. Для такой системы

.

Эта единица измерения называется двоичной единицей или битом. Таким образом, в качестве единицы измерения энтропии принимается степень неопределенности системы, имеющей два возможных равновероятных состояния.

3. Можно ввести понятие энтропии для отдельного состояния Аi:

.

Тогда энтропия системы в целом представляет собой среднее значение энтропии отдельных состояний:

.

Отсюда следует важный вывод, что в случае введения понятия энтропии i-го состояния энтропию всей системы можно вычислять как среднее значение энтропии отдельных состояний:

.

4. Если вероятность одного из состояний Р (Аk) = 1, то энтропия всей системы H(A) равна 0. Этот вывод вытекает из следующих соображений. Во-первых, в сумме, определенной выражением (4.1), будет слагаемое с индексом k, равное нулю, то есть

.

Все остальные слагаемые при будут иметь неопределенное значение следующего вида:

.

Однако можно доказать, что эта неопределенность в пределе при стремлении к нулю принимает значение, равное нулю:

.

Таким образом, в соответствии с выражением (4.1) полная энтропия системы равна нулю: . Это условие очевидно и из физических соображений, так как в подобной системе нет никакой неопределенности.

5.Пусть система может находиться в N равновероятных состояниях, то есть

.

Тогда энтропия системы определится следующим образом:

.

Отсюда следует вывод, что если система может находиться в N равновероятных состояниях, то её энтропия равна логарифму двоичному из числа состояний, то есть H(A) = log2 N, где N - число состояний.

6.Если система A может находиться в N состояниях, то энтропия системы максимальна в том случае, когда все состояния равновероятны, то есть

,

при .

Поясним последний вывод на следующем примере. Пусть имеется система А, которая может находиться в двух состояниях (так называемая бинарная система). Известно Р (А1) , а . Рассмотрим, как будет менятьсяэнтропия системы при различных сочетаниях вероятностей P(A1) и P(A2).

В первом варианте примем P(A1) = 0.

Н (А) Тогда P(A2) = 1 и, следовательно,

H(A) = 0 (рис. 3.1).

Во втором варианте примем P(A1) =1.

Тогда P(A2) = 0 и, следовательно,

0,5 H(A) также равна нулю (рис. 4.1).