Естественные науки

энтропия это хаос? Если нет, то что это?

Нука Есенов
Нука Есенов
1 412
Когда где то высокое давление а рядом низкое, в сторону низкого давления дует ветер, и этот ветер можно заставить работать (получить из него полезную энергию). Когда где то горячо, а рядом холодно, то из горячего в холодное перемещается энергия, и поставив умное устройство на пути этой энергии, можно получить полезную работу.
Мы приходим к тому, что состояние, когда где то густо а где то пусто - очень полезно, только из него можно что то извлечь и как то заставить работать.
А бывает так, что нет густо и пусто, везде однородно распределенная серая масса, однородно распределенная энергия и однородно распределенная информация. Ничего не извлечешь. Что бы ты не попытался сделать, тебе прийдется затратить энергию. Получить энергию и заставить ее работать невозможно. Это не хаос, это серое, холодное, однородное болото. Такое состояние и носит название "Энтропия".
Анара Ярышева
Анара Ярышева
5 812
Лучший ответ
нет, не хаос

очень просто

как пример = разожгли костер, горит костер, ждем когда сгорит костер

если кратко
энтропия = затухание, угасание, утихание, прекращение, старость, осень, умирание, растворение, замолкание, пресечение, выключение, завершение, потеря,...

если умными научными словами = функция состояния или мера вероятности какого либо процесса
Энтропия - отношение переданного количества теплоты к температуре, при которой произошла эта передача. Это не очень строго, но суть, думаю, ясна. Подробнее можно прочитать в учебниках.
ЭНТРОПИЯ это мера неопределенности (неупорядоченности), хаоса и она растет (все стремится от порядка к хаосу)
Aян Рахимбаев
Aян Рахимбаев
34 544
Лена Березовская Энтропия растет только в закрытых системах.
Энтропи́я (от др. -греч. ἐντροπία — поворот, превращение) — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия является мерой вероятности осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы (например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации. Другой интерпретацией этого понятия является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации Клод Шеннон сначала хотел назвать эту величину информацией. В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности системы; чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.
Оля Павлють
Оля Павлють
5 363
Нука Есенов в вики каждый залезет, но не каждый поймет