Компьютерное железо

Почему нынче не используют адаптивную синхронизации кадров?

Адаптивная синхронизация кадров - работает правильно только в том случае, если каждый следующий кадр визуализируется менее чем за 1/60 секунды. Если подготовка кадра занимает больше времени, то при следующем цикле обновления дисплея он просто не будет готов к визуализации. Соответственно видеокарте придется визуализировать его снова. К сожалению, это случается с большинством современных видеокарт – даже самого высокого класса, а видимым результатом всего этого становятся раздражающие задержки изображения и другие неприятные побочные эффекты.
Для реализации адаптивной синхронизации монитор компьютера нуждается в дополнительном модуле, который динамически регулирует частоту обновления в соответствии с количеством кадров в секунду. Этот модуль дорогостоящий и, что еще хуже – требует достаточно много энергии, что делает его нецелесообразным дополнением, по крайней мере, в ноутбуках, для которых вопросы, связанные с потреблением энергии являются особенно болезненными.
Karlen Sogomonyan
Karlen Sogomonyan
85 479
Лучший ответ
Евгений Воронцов Что за дурь!
NVIDIA G-SYNC требует специальный модуль в монитор. Цена моника вырастает примерно на 100 баксов, продать сложнее - производители таких уродцев массово делать не спешат.

AMD FreeSync таким не болеет, монитор просто нужно программно заточить под эту фишку. Но это тоже не панацея - как минимум придется еще и видик новый покупать, ибо не на всех оно работает.

Ну и в целом, единого стандарта нет, делать три вида моников (без, нвидия, амд) никого не прет. Выжидают. Вроде в августе Интел поддержала АМД, поэтому можно ждать устаканивания и стандарт пойдет в массы.
Максим Назаров
Максим Назаров
25 795
Евгений Воронцов G-Sync это уже другое и мониторы такие есть...