Энтропия - широко распространенный научный термин, используемый для указания на дефицит информации о рассматриваемой системе тел (или информационной системе, математической модели, их несорешенсте) . Ее можно противопоставлять знанию и информации.
Не следует разделять полностью физический смысл энтропии и информационный.
Они тесно связаны например в раскрытии парадокса демонов Максвелла. Это значит, что без теории информации в физике обойтись невозможно, и это очевидно. Но в обоих науках проявляется энтропия.
Это мера хаоса, беспорядка системы
большему изменению энтропии рабочего тела за цикл соответствует меньший коэффициент полезного действия машины. Так как изменение энтропии холодильника одинаковое, то начальное значение энтропии больше для рабочего тела второй машины.
При этом, заведомо можно сказать, что КПД второй машины меньше. Таким образом, чем больше энтропия, тем меньше коэффициент полезного действия.
...в общем ВСЕ УМЕРЛИ!!!
Энергия не передается от холодного тела к горячему (чтобы горячее стало горячее, а холодное-холоднее) . Процесс идет только в направлении выравнивания температур от горячего к холодному.
если систематически не наводить порядок, всё придет в запустение