Компьютерное железо
Правда ли то, что на мониторах с герцовкой в 144 события видны раньше чем на мониторах в 60 герц. ?
Нет, не правда. Даже если правда ты все равно это не почувствуешь. Есть фильмы 25/30 кадров в сек. И есть фильмы в 50/60 кадров. Ощущение такое что фильмы с 50/60 кадров идут быстрее. Но в итоге все равно длительность фильма не меняется от кол-ва к/с. И тут так же
Это смотря кто смотрит.
Если осциллоскоп - то да, будет заметно.
А если глаз - то частота обновления в глазу где-то 25 Гц, поэтому пофигу.
Смысл высокой частоты в том, чтобы меньше было заметно мерцание изображения, а не в том, чтобы что-то раньше увидеть.
Если осциллоскоп - то да, будет заметно.
А если глаз - то частота обновления в глазу где-то 25 Гц, поэтому пофигу.
Смысл высокой частоты в том, чтобы меньше было заметно мерцание изображения, а не в том, чтобы что-то раньше увидеть.
Сергей Татаринцев
:)
Нет, конечно, монитор не может заглядывать в будущее.
Ильхам Хайрутдинов
Зато он может задерживать кадры. И если один монитор задерживает их на меньшее время, чем второй, это как раз и даст эффект, о котором пишет автор вопроса.
Да, на миллисекунды. В общем, это не такая большая разница, чтобы на что-то ощутимо повлиять.
Сергей Татаринцев
Странно, что ты один так считаешь)
Не совсем. Первый кард будет виден и там и там одинаково. Просто 144 гц покажет тебе ещё 2 кадра пока 60гц отрисует следующий. В шутерах всё отлично заметно.
конечно раньше, на полчаса примерно.
В теории да - объясню почему и почему:
- когда ты включаешь монитор он меняет кадры со своей частотой.
- инертность цветовых колбочек на твоем глазе порядка 58гц +-5.
- инертность палочек в глазах - больше 100гц.
- Палочки не различают цвета, только движение и ч. б. изображение.
- теперь приходим к самому интересному, глаз считывает картинку получается определенное количество раз за секунду.
- монитор обновляет кадр определенное кол-во раз.
между обновлением глаза и обновлением кадра монитор существует временной отрезок, в который входит:
1) Десинхронизация между частотой глаза и монитора, грубо говоря ваш глаз не синхронизирован с обновлением кадров на мониторе и этот промежуток будет тем меньше чем больше кадров спамит монитор.
Тобишь у нас есть отрезок 1,2,3,4,5
На 2 кадре изображение вывел монитор, на 4ом его прочитал глаз этот отрезок - это время прошедшее между выводом изображения + десинхронизация и обработка с вашей стороны.
Но чем чаще монитор обновляет картинку, тем меньше будет отрезок, тем больше шанс что картинка окажется ближе к 4ем (успеет обновится еще раз, будет более свежей скажем так), чем к 2ум.
2) время на прохождение света и обработку изображения мозгом + нервные импульсы, это статичное время.
По факту все меняется на 10ые доли миллисекунд, на глаз это будет не заметно - а значит на практике вы не почувствуете никакого эффекта...
Но большее кол-во кадров благотворительно скажется на плавности движения.
Но предвидеть будущее вы не сможете, физически не возможно + добавьте к этому задержку вывода на самом мониторе.
+ 144гц покрывают лишь топовые сборки и то не на долго (2 года и ультра не потянут в 144 фпс на двух 2080TI в Nv Link), поэтому как по мне - юзлесс приобретение.
- когда ты включаешь монитор он меняет кадры со своей частотой.
- инертность цветовых колбочек на твоем глазе порядка 58гц +-5.
- инертность палочек в глазах - больше 100гц.
- Палочки не различают цвета, только движение и ч. б. изображение.
- теперь приходим к самому интересному, глаз считывает картинку получается определенное количество раз за секунду.
- монитор обновляет кадр определенное кол-во раз.
между обновлением глаза и обновлением кадра монитор существует временной отрезок, в который входит:
1) Десинхронизация между частотой глаза и монитора, грубо говоря ваш глаз не синхронизирован с обновлением кадров на мониторе и этот промежуток будет тем меньше чем больше кадров спамит монитор.
Тобишь у нас есть отрезок 1,2,3,4,5
На 2 кадре изображение вывел монитор, на 4ом его прочитал глаз этот отрезок - это время прошедшее между выводом изображения + десинхронизация и обработка с вашей стороны.
Но чем чаще монитор обновляет картинку, тем меньше будет отрезок, тем больше шанс что картинка окажется ближе к 4ем (успеет обновится еще раз, будет более свежей скажем так), чем к 2ум.
2) время на прохождение света и обработку изображения мозгом + нервные импульсы, это статичное время.
По факту все меняется на 10ые доли миллисекунд, на глаз это будет не заметно - а значит на практике вы не почувствуете никакого эффекта...
Но большее кол-во кадров благотворительно скажется на плавности движения.
Но предвидеть будущее вы не сможете, физически не возможно + добавьте к этому задержку вывода на самом мониторе.
+ 144гц покрывают лишь топовые сборки и то не на долго (2 года и ультра не потянут в 144 фпс на двух 2080TI в Nv Link), поэтому как по мне - юзлесс приобретение.
нет
Нет просто плавность и глаза не болят + топовая видюха нужна
Похожие вопросы
- Для чего нужны в мониторе 75 герц если с ними ещё хуже играть чем с 60 герц?
- HDMI, VGA (D-SUB), DVI. 60+ герц для монитора.
- 60 Герц на видеокарте GTS 450 ( 2013 года ) ПОМОЩЬ С ГЕРЦОВКОЙ МОНИТОРА
- Почему практически все профессиональные мониторы для работы с цветом и графикой работают на 60 герц?
- Вы правда думаете что Вы можете отличить 60 герц на мониторе от 100 герц например?
- Взаимосвязаны ли между собой герцы в мониторе и фпс? если монитор 60 герц, может ли он выдавать 120 фпс к примеру
- 60 герц или больше? =)
- Говорят что если купить монитор где больше герц будешь играть лучшее И болят ли глаза от мониторов где меньше герц ?
- монитор 60 герц, можно ли его разогнать до 75 или больше? тока точно скажите а то он очень дорогой, жалко его))
- Стоит ли брать RTX 3070 для FHD монитора? 60 герц.