Естественные науки

Что такое энтропия?

SA
Saneka Aidarhanova
86 027
Энтропия как определение состояния системы была введена в 1865 году немецким физиком Рудольфом Клаузиусом, чтобы описать способность теплоты превращаться в другие формы энергии, главным образом в механическую. С помощью этого понятия в термодинамике описывают состояние термодинамических систем. Приращение этой величины связано с поступлением тепла в систему и с температурой, при которой это поступление происходит.

Википедия даёт краткое определение для нескольких областей, в которых этот термин используется:«Энтропия (от др.-греч. ἐντροπία «поворот»,«превращение») — часто употребляемый в естественных и точных науках термин. В статистической физике характеризует вероятность осуществления какого-либо макроскопического состояния. Помимо физики, этот термин широко используется в математике: теории информации и математической статистике».
Татьяна Резник (Хакназарова)
Татьяна Резник (Хакназарова)
93 333
Лучший ответ
Ровно то, что написано в словаре или энциклопедии. Что тебе помешало туда заглянуть?
В широком смысле - показатель степени неопределённости случайной величины.
"Энтропия - натуральный логарифм статистического веса макроскопического состояния системы"
Ландау, Лифшиц "Курс теоретической физики" т.5, § 7
Nurtilek Asilbekov
Nurtilek Asilbekov
68 113
Энтропия - это второй закон Термодинамики. Первый закон - это сохранение энергии. А Энтропия это по простому - всё что есть материальное в этом мире рано или поздно распадётся на элементарные частицы (энергии).
Лида Анучкина
Лида Анучкина
47 747
мера беспорядочности
ИИ
Икон Иконай
47 582
У тебя было две монетки, десятирублевая и сторублевая, десятирублевая лежала орлом вверх, а сторублевая - решкой. И другая инфа о монетках тебя вообще не колебет.
Ты закрыл глаза, Маша их подкинула, они упали. Ты теперь не знаешь, какая из монет какой стороной вверх лежит. Ты проимел два бита информации - мера неопределенности системы составляет теперь два бита. Это и есть энтропия случайного распределения с четырьмя равновероятными элементарными исходами - 2 бита.

И термодинамическая энтропия из физики, которую проходят в школе, при предельном переходе от термодинамики к статистической физике тоже превращается в информационную.
Информационная энтропия - мера неопределенности системы.
А термодинамическая - это другая мера, о неопределенности в ТД речи нет. Но это тоже конечно-аддитивная мера, подсистемы, на котрые ты разбиваешь систему, полагаются независимыми.
СК
Сергей Клин
34 449
Рассеивание энергии. Финал энтропии - исчезновение всего существующего.
Мера неупорядоченности системы.
Бардак
хаос
Виталий Обухов
Виталий Обухов
23 088
это разрушение материи в следствие накачки её энергией. например трением мы разрушаем молекулы дверных петел, кислородом окисляем дрова и разрушаем его. разрушаем атомы урана в АЭС.

Все тяжелые элементарные частицы снова станут водородами в следствие Большого взрыва.

Кушаем еду и разрушаем его химически. Наши клетки разрушаются в следствие износа и мы умираем.