Системное администрирование
В системе имеется 8 равновероятных событий укажите энтропию такой системы.
Подскажите, пожалуйста, дураку...
Сумма (n=1;8) (-⅛•lb⅛) = 3.
.Степень дезорганизованности (то есть энтропия системы) зависит не только от числа состояний n, но и от соотношения между вероятностями P(Ai) нахождения системы в каждом из этих состояний. Поясним на примере. Предположим, что система может находиться в трех состояниях A1, A2 и A3. Пусть известны вероятности нахождения системы в этих состояниях Р (А1); Р (А2); Р (А3), причем Р (А1) = 0,96; Р (А2) = 0,02; Р (А3) = 0,02. Очевидно, в такой ситуации заранее можно утверждать, что система вероятнее всего будет находиться в состоянии А1.
Если Р (А1) = Р (А2) = Р (А3), то дезорганизованность системы будет выше, и следовательно, энтропия больше, чем в первом случае.
Если Р (А1) = 1, а Р (А2) = Р (А3) = 0, то ни о какой дезорганизованности системы говорить не имеет смысла и в этом случае энтропия системы должна быть равна 0.
С учетом этих требований в теории информации энтропия системы А, которая может находиться вN состояниях с вероятностями Р (Аi), определяется следующим соотношением :
, (3.1)
где log2 - двоичный логарифм.
Рассмотрим основные свойства энтропии, которые в дальнейшем будут использоваться для определения количества информации.
1. Так как вероятность появления события Ai величина положительная и заключена в интервале от нуля до единицы, то есть, то энтропия системы величина также положительная, то есть.
2. Целесообразность использования двоичного логарифма следует из теории связи, поскольку сообщение в одной ячейке памяти может принимать два значения: нуль (событие A1) или единица (событие A2) с одинаковой вероятностью, то есть Р (А1) = Р (А2) = 0,5. Для такой системы
.
Эта единица измерения называется двоичной единицей или битом. Таким образом, в качестве единицы измерения энтропии принимается степень неопределенности системы, имеющей два возможных равновероятных состояния.
3. Можно ввести понятие энтропии для отдельного состояния Аi:
.
Тогда энтропия системы в целом представляет собой среднее значение энтропии отдельных состояний:
.
Отсюда следует важный вывод, что в случае введения понятия энтропии i-го состояния энтропию всей системы можно вычислять как среднее значение энтропии отдельных состояний:
.
4. Если вероятность одного из состояний Р (Аk) = 1, то энтропия всей системы H(A) равна 0. Этот вывод вытекает из следующих соображений. Во-первых, в сумме, определенной выражением (4.1), будет слагаемое с индексом k, равное нулю, то есть
.
Все остальные слагаемые при будут иметь неопределенное значение следующего вида:
.
Однако можно доказать, что эта неопределенность в пределе при стремлении к нулю принимает значение, равное нулю:
.
Таким образом, в соответствии с выражением (4.1) полная энтропия системы равна нулю: . Это условие очевидно и из физических соображений, так как в подобной системе нет никакой неопределенности.
5.Пусть система может находиться в N равновероятных состояниях, то есть
.
Тогда энтропия системы определится следующим образом:
.
Отсюда следует вывод, что если система может находиться в N равновероятных состояниях, то её энтропия равна логарифму двоичному из числа состояний, то есть H(A) = log2 N, где N - число состояний.
6.Если система A может находиться в N состояниях, то энтропия системы максимальна в том случае, когда все состояния равновероятны, то есть
,
при .
Поясним последний вывод на следующем примере. Пусть имеется система А, которая может находиться в двух состояниях (так называемая бинарная система). Известно Р (А1) , а . Рассмотрим, как будет менятьсяэнтропия системы при различных сочетаниях вероятностей P(A1) и P(A2).
В первом варианте примем P(A1) = 0.
Н (А) Тогда P(A2) = 1 и, следовательно,
H(A) = 0 (рис. 3.1).
Во втором варианте примем P(A1) =1.
Тогда P(A2) = 0 и, следовательно,
0,5 H(A) также равна нулю (рис. 4.1).
Если Р (А1) = Р (А2) = Р (А3), то дезорганизованность системы будет выше, и следовательно, энтропия больше, чем в первом случае.
Если Р (А1) = 1, а Р (А2) = Р (А3) = 0, то ни о какой дезорганизованности системы говорить не имеет смысла и в этом случае энтропия системы должна быть равна 0.
С учетом этих требований в теории информации энтропия системы А, которая может находиться вN состояниях с вероятностями Р (Аi), определяется следующим соотношением :
, (3.1)
где log2 - двоичный логарифм.
Рассмотрим основные свойства энтропии, которые в дальнейшем будут использоваться для определения количества информации.
1. Так как вероятность появления события Ai величина положительная и заключена в интервале от нуля до единицы, то есть, то энтропия системы величина также положительная, то есть.
2. Целесообразность использования двоичного логарифма следует из теории связи, поскольку сообщение в одной ячейке памяти может принимать два значения: нуль (событие A1) или единица (событие A2) с одинаковой вероятностью, то есть Р (А1) = Р (А2) = 0,5. Для такой системы
.
Эта единица измерения называется двоичной единицей или битом. Таким образом, в качестве единицы измерения энтропии принимается степень неопределенности системы, имеющей два возможных равновероятных состояния.
3. Можно ввести понятие энтропии для отдельного состояния Аi:
.
Тогда энтропия системы в целом представляет собой среднее значение энтропии отдельных состояний:
.
Отсюда следует важный вывод, что в случае введения понятия энтропии i-го состояния энтропию всей системы можно вычислять как среднее значение энтропии отдельных состояний:
.
4. Если вероятность одного из состояний Р (Аk) = 1, то энтропия всей системы H(A) равна 0. Этот вывод вытекает из следующих соображений. Во-первых, в сумме, определенной выражением (4.1), будет слагаемое с индексом k, равное нулю, то есть
.
Все остальные слагаемые при будут иметь неопределенное значение следующего вида:
.
Однако можно доказать, что эта неопределенность в пределе при стремлении к нулю принимает значение, равное нулю:
.
Таким образом, в соответствии с выражением (4.1) полная энтропия системы равна нулю: . Это условие очевидно и из физических соображений, так как в подобной системе нет никакой неопределенности.
5.Пусть система может находиться в N равновероятных состояниях, то есть
.
Тогда энтропия системы определится следующим образом:
.
Отсюда следует вывод, что если система может находиться в N равновероятных состояниях, то её энтропия равна логарифму двоичному из числа состояний, то есть H(A) = log2 N, где N - число состояний.
6.Если система A может находиться в N состояниях, то энтропия системы максимальна в том случае, когда все состояния равновероятны, то есть
,
при .
Поясним последний вывод на следующем примере. Пусть имеется система А, которая может находиться в двух состояниях (так называемая бинарная система). Известно Р (А1) , а . Рассмотрим, как будет менятьсяэнтропия системы при различных сочетаниях вероятностей P(A1) и P(A2).
В первом варианте примем P(A1) = 0.
Н (А) Тогда P(A2) = 1 и, следовательно,
H(A) = 0 (рис. 3.1).
Во втором варианте примем P(A1) =1.
Тогда P(A2) = 0 и, следовательно,
0,5 H(A) также равна нулю (рис. 4.1).
Похожие вопросы
- Операнды арифметического выражения записаны в системах счисления с основаниями 8 и 12:
- хочу похвастаться насчёт 32 битной систему
- Здравствуйте, помогите пожалуйста с тремя вопросами по программированию и операционным системам
- По установке системы.
- Купил новый ноутбук, стоит операционная система Windows 10. Похоже Microsoft сует её теперь везде.
- Как загрузить систему с другого раздела жд?
- Почему бы не легализовать в стране пиратство и не удалить с прог всякие системы защиты?
- Почему файловая система линукса такая чувствительная? При малейшей ошибке происходят сбои.
- Какая самая лучшая файловая система и CMS для работы с файлами и большими архивами?
- Двоичная система исчисления