Естественные науки

Объясните чайнику физический смысл энтропии

Уже десять раз перечитал определение и всё равно не могу понять. С начало казалось, что энтропия это крайне наукообразное название обыкновенной теплоёмкости, но теплоёмкость это Дж/К а энтропия Дж/(моль*К). Что вообще описывает энтропия? У неё вообще есть физический смысл? И почему она у разных веществ имеет различное значение?
Мне метафора "перемешанность" нравится, потому что про меру хаоса и меру неопределенности все равно многие говорят, смысла подливать масла в огонь мало.

Вот сложили аккуратно монетки стопкой на пол, большие и маленькие, пирамидкой. Они не перемешаны, энтропия маленькая. А потом землетрясение случилось. Они все на фиг разлетелись по полу и перемешались, энтропия возросла.

А можно еще что-нибудь перемешать. Например, энергию по стакану воды. Или случайную величину по множеству возможных значений. Чем лучше что-то перемешать, тем бестолковее и бесполезнее оно себя ведет, тем БОЛЬШЕ деталей мы о нем НЕ знаем, тем меньше пользы от него можем получить.
Рамазан Елеусин
Рамазан Елеусин
25 105
Лучший ответ
Надежда Крахина Тоесть если у нас есть два моля разных не смешанных веществ при одинаковой температуре. Для каждого вещества мы точно знаем среднекинетическую энергию молекул. Так вот если у второго вещества энтропия больше то возможные значения кинетической энергии какой то конкретной молекулы этого вещества имеют больший разброс чем у первого вещества?
Это мера хаоса.
Надежда Крахина Как хаос может иметь энергию? Что такое хаос? Это религиозное понятие?
Объясните чайнику смысл слов "физический смысл".
Про энтропию. Можете в первом приближении считать энтропию качеством энергии. Чем энтропия меньше, тем энергию легче использовать в нужных вам целях.
Valya L
Valya L
65 100
Екатерина Колодий ( Борисова ) Физический смысл — это способ измерения и ничего, кроме того.
...энтропия - мера вашего дуального разума - пустота... дуальность - это война внутри себя...
Когда я проходил теплофизику, я так не врубился до конца, что это за функция состояния. Да, есть определение dS=dQ/T. Да, есть энергия Гиббса. А вот суть? Мне сейчас лень читать учебник и вникать. А ты почитай: я сделал выборку.
Читай и вникай, потом нам расскажешь :)
(На картинку можно нажать, и она развернется).
Понятие энтропии является достаточно тонким: чтобы понять энтропию, необходимо сначала иметь представления о таких понятиях как равновесие, макросостояние, микросостояние, фазовое пространство, ансамбль и микроканоничность, каждое из которых само по себе является тонким понятием. Также необходимо знать, что такое логарифм, но это понятие простое.
Ввиду тонкости понятия энтропии, были разработаны многочисленные аналогии в попытке подать данное понятие конкретнее. Среди метафорических иллюстраций, посвящёные энтропии, имеются следующий: "беспорядок", "случайность", "гладкость", "дисперсия", "однородность", "хаос" и "свобода". В последние моменты своей жизни Джозайя Уиллард Гиббс упоминал "энтропию как перемешанность". Чтобы оценить эти метафоры, можно взять несколько кубиков льда из морозильника, разбить их, бросить осколки в миску, а затем пронаблюдать за таянием льда. Куча из ледяных осколков, определённо, представляется более беспорядочной, чем гладкий шар жидкой воды, хотя вода имеет большую энтропию.
Надежда Крахина Я тут подумал. Вот если представить металлическую решётку как доску с глубокими лунками в которых лежат шарики. Тогда при нуле градусов все шарики занимают наинизшее положение. Тогда при (тряске) нагревании шарики начнут колебаться. Если взять эту раскаченную доску в один момент времени то каждый шарик немного "подлетает" над самой низкой точкой своей лунки, какой то шарик отлетел в это момент сильней, какой то слабей но всегда можно взять сумму длин "отлёта" всех шариков (это и есть энтропия) и в любой момент времени она будет равна?
Энтропия - мера корреляции (причинности, связности) флуктуаций (отклонений) в системах, оцененная путем сопоставления двух вероятностей - совмещения независимых и объединения несовместных событий. Поэтому энтропия закрытых и открытых систем отличается. То, что энтропия определяется через корреляции, вероятности и приготовленные состояния означает, что знание человека вероятностно. Смешивание увеличивает энтропию, корреляции уменьшают. Общая энтропия может быть меньше, чем энтропия частей. Это объясняет, почему полное знание о системе не дает позитивных результатов о подсистемах, а знание подсистем позволяет выводить причинности через корреляции без необходимости познания системы в целом. Это объяснительный фундамент для эмерджентнтых систем, который приносит результаты в практической деятельности. Например, в термодинамике, химии, биологии или социологии. Энтропия (через комбинаторику и вероятности) имеет отношение к метаматематике, машинам Тьюринга (основаниям информатики) и теореме Геделя.
Ренат Ренат
Ренат Ренат
8 955
ну чем мельче частицы, тем им свободней находиться в одном объеме, тем больше энтропия.
Anzor Timaev
Anzor Timaev
6 283
Anzor Timaev Иногда химические реакции произвольно протекают потому, что частицам внутри становится свободней (атомы объединяются в молекулы и они при этом как бы обваливаются внутрь), а иногда потому, что снаружи становится свободней (молекулы рассыпаются на атомы, потому, что у них снаружи становится больше места и степеней свободы для подвижек).
Энтропия - описывает скорее хаотичность состояния атомов в веществе.
По логике - чем холоднее материал или ближе к кристалическому состоянию, тем меньше энергии он содержит. Если сравнить два куска одного металла, один из которых теплее другого, то можно сказать, что энтропия тёплого куска выше холодного. Как всем известно, чем больше тепловой энергии вводить в металл, тем ближе его состояния к жидкому (не кристалическому) - а это и есть хаотичное состояние атомов. Для описания термодинамических процессов, при которых происходит невольный обмен тепловой энергии и используется этот термин.
Надежда Крахина А в чём тогда отличие от теплоёмкости?
Павел Шевченко Если взять емкость литр воды и рядом банку с 3 литграми воды, то каждая емкость имеет свою вместимость,. Если эти сосуды соединить, то уровни сравняются. А как описать, что происходит в нашем случае?
Энтропия и указывает направление движения энергии до состояния "уровня"
Надежда Крахина Я тут подумал. Вот если представить металлическую решётку как доску с глубокими лунками в которых лежат шарики. Тогда при нуле градусов все шарики занимают наинизшее положение. Тогда при (тряске) нагревании шарики начнут колебаться. Если взять эту раскаченную доску в один момент времени то каждый шарик немного "подлетает" над самой низкой точкой своей лунки, какой то шарик отлетел в это момент сильней, какой то слабей но всегда можно взять сумму длин "отлёта" всех шариков (это и есть энтропия) и в любой момент времени она будет равна?
Термодинамическая энтропия это функция, которая описывает меру необратимого рассеяния энергии в системе. То есть описывает ту часть энергии, которая из энергии упорядоченных процессов (кинетической энергии движущегося тела, энергии электрического тока и т. п.) необратимо переходит в энергию неупорядоченных процессов (чаще всего в теплоту).
AK
Andrey Karaschuk
1 470

Похожие вопросы