Естественные науки

Что такое энтропия?

Это мера случайности?
Энтропия - это мера неопределенности или неопределенности системы. Это общее понятие, которое применяется в различных областях науки, включая статистику, механику, теорию информации, теорию игр и теорию эволюции. Она измеряет степень хаоса, неопределенности или неизвестности в системе. Энтропия не означает никакой определенности или случайности, а лишь отражает уровень неопределенности в системе.
НЕ
Нат@ша Ермакова
1 929
Лучший ответ
Ровно то, что написано в словаре или справочнике. Что тебе помешало туда заглянуть?
Александр Лепетюхин Что тебе помешало пропустить мой вопрос?
Употребление в различных дисциплинах
Термодинамическая энтропия — термодинамическая функция, характеризующая меру необратимой диссипации энергии в ней.
В статистической физике — характеризует вероятность осуществления некоторого макроскопического состояния системы.
В математической статистике — мера неопределённости распределения вероятностей.
Информационная энтропия — в теории информации мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче.
Энтропия динамической системы — в теории динамических систем мера хаотичности в поведении траекторий системы.
Дифференциальная энтропия — формальное обобщение понятия энтропии для непрерывных распределений.
Энтропия отражения — часть информации о дискретной системе, которая не воспроизводится при отражении системы через совокупность своих частей.
Энтропия в теории управления — мера неопределённости состояния или поведения системы в данных условиях.
Александр Лепетюхин Это всё можно обобщить одним определением
мера хаоса
Алик Игнатович
Алик Игнатович
77 911
Типа того, но не всегда так формально получается.
Например, если X ~U[a, b], то энтропия X равна ln(b - a),
Какая уж тут мера при b - a < 1.
да
аааааааааааааааааа