У меня есть ЖК монитор, в нем можно поставить от 50 до 144 ГЦ, Меня волнует можно ли с экономить на свете если менять герцовку.
Есть ли разница потребления электроэнергии между настройкой в 60 гц и в 144 гц?
И сколько разница между герцовками в энергопотреблением ?
Имеет ли смысл специально для игр настраивать монитор на 144 герца, а в повседневнем серфинге в интернете и просмотре youtube - 60 гц ?

На рабочем столе - разницы почти нет.
В играх - видеокарте надо рендерить больше кадров, процу готовить для видяхи больше кадров. Поэтому нагрузка на них возрастает и энергопотребление будет выше заметно.
Это при условии, что проц и видяха эти 144 герца тянут и используется вертикальная синхронизация.
это не чайник, не влияет.
Разница естественно есть, но не такая что бы было на чём экономить...
Не думаю, что это сильно влияет. Но что сильно влияет, это нагрузка на твою видеокарту. Если твоя видеокарта выдает 60 фпс или 140 фпс это большая разница.
нет, вы ведь заплатили уже за дорогой монитор, а всё дорогое бывает качественным, это как унитаз из керамика и из золота, та что из золота, стоит дороже и выглядит красиво)
вот к примеру я взял 2 монитора, один на 60, другой на 144. оба 24 дюйма.

Да примерно в 4 раз больше энергии при 144 тратит. Так как в квадрате с частотой больше транзисторов нужно.
Влияет только яркость и фпс в играх. Хочешь экономить в играх ставь ограничение 60 фпс
Ты серьезно у тебя такой крутой монитор и ты не ставишь 144гц? Не ссыкономишь это бред полный. Ты еще подсветку на мышке выключи, не дай бох 15 копеек переплатить
там разница вообще милипиздрическая, даже если денег мало ты будешь на копейку переплачивать ( в прямом смысле)