не важно.
хотя могу сказать вот шо. радеон делаит сваи карты как то не правильно.
скажу за последнюю 7970, у неё ROP - 32, а TMU- 128(у старой 6970 было ROP - 32, TMU - 96). По идее всё должно быть относительно равно. И это недаразуменее у многих видиокартах радеон 6ххх, 5ххх серии.
И в добавок скажу чьто 7970 сильнее от 580-й в среднем на 35%, а я более чем уверен чьто новая 680-я будет сильней от 580-й на 50% точно. потому чьто нВидия увеличивает ВСЁ в сваих чипах, а не частями как радеон.
И при всё этом я бы не сказал чьто радеон плохая видиокарта.
Компьютерное железо
Какой производитель видеокарт лучше? И Почему? nVidia GeForce или ATI Radeon ?
Тут дело вкуса, мне больше nVidia нравится. У каждой из фирм есть как удачные модели, так и не очень
Нвидиа лучше потомучто сосет производителям игр
Ну да и дрова у амд ебут
Ну да и дрова у амд ебут
Dr. Webber
УХАХАХАХАХ.. .ёбааать капать.. .(извините, без матов просто не могу... )
ты сравниваешь карты 3-х летней (если не больше) давности, какие нафик 4870x2 и GTX295.
просвещу же я тебя, так уж и быть, что сегодня 2012 год. да, прикинь, уже 4 года прошло....а все так же нихрена нового не выпустили
отвечу на нападку про температуру "Так грелись видеокарты nVidia и Radeon всю жизнь" - ПЕЧ480 разогревалась до 110!!! градусов и просто-напросто СГОРАЛА. читайте не только сайты нвидеофилов и радеононенавистников. тенденция такова, что нвидео жрет электроэнергии больше, чем аналоги от радеон http://www.3dnews.ru/video/Review-of-the-GeForce-GTX-580/index2.htm (радеон 5970 - двухчиповая карта, печ580/480 - одночиповая. у кого там больше, ты говоришь? )
"многоядерность в видеокартах" - да ты вообще нуб, заткнись и учи историю!! !нвидео просто КУПИЛА 3dfx, КОТОРАЯ ПЕРВУЮ двухчипувую видеокарту на базе SLI (это не та Nvidia SLI, а другая аббревиатура) - Voodoo2 - выпустила ещё в 1998 году!! !нвидео заявила поддержку СЛИ в 2004-м, а уже в 2005м был анонсирован кроссфаер
Ageia PhysX - да ну нах. р эта физикс? да будет тебе известно, радеоны как минимум не хуже обрабатывают физику, просто нвидео (грубо говоря) зассала, что радеоны будут их рвать - и отключила возможность использования GPU ускорения физики, если в системе обнаружена карта Радеон. вот и все
pure video - заткни ее в одно место. AMD Avio не хуже. да и эти "улучшалки изображения" и нафик не нужны - не на IPS/PVA мониторах на расстоянии 30 сантиметров различие не заметишь в оригинале. а всякие "подстройки цвета, яркости и тэдэ" можно сделать в ЛЮБОМ приложение. вот только эффект от них - абсолютно противоположный. тебе это скажет любой человек, занимающийся профессионально видео
DirectX 10 - согласен. а ничё, что первыми видеокартами для дирекс 11 были радеоны 58хх? ! это норм, ну нах. ер нам 11й дирекс?
"А ихний GDDR5 только добавляет жару видеокарте и повышеное напряжение" - ты сам понял что сказал? ! не используй комбинацию "умных слов", если не понимаешь, что за ними стоит
"Кто хоть раз видел Radeon со 16х сгладкой. " - я видел, и чё? ну производительность падает немного быстрее, не спорю. FXAA в помощь
"Я бы мог ещё написать кучу примеров, кучу фактов, кучу всего. Но нужно ли? ! Тут и так всё понятно. " - аналогично. мне понятно одно - ты НУБ, который боготворит нвидео. заткнись и не пудри мозги всякой .уйней!! !
аффтор вопроса - надеюсь, ты это прочитаешь и критично взглянешь на ситуацию. однозначного ответа нет - где-то лучше радеоны, где-то - джифорсы. выбирай видеокарту в зависимости от ее реальной производительности и системе охлаждения, почитай хотя бы http://www.thg.ru/graphic/graphic_card_gamer_january_2012/index.html
PS надеюсь, я не зря убил 20 минут своей жизни
УХАХАХАХАХ.. .ёбааать капать.. .(извините, без матов просто не могу... )
ты сравниваешь карты 3-х летней (если не больше) давности, какие нафик 4870x2 и GTX295.
просвещу же я тебя, так уж и быть, что сегодня 2012 год. да, прикинь, уже 4 года прошло....а все так же нихрена нового не выпустили
отвечу на нападку про температуру "Так грелись видеокарты nVidia и Radeon всю жизнь" - ПЕЧ480 разогревалась до 110!!! градусов и просто-напросто СГОРАЛА. читайте не только сайты нвидеофилов и радеононенавистников. тенденция такова, что нвидео жрет электроэнергии больше, чем аналоги от радеон http://www.3dnews.ru/video/Review-of-the-GeForce-GTX-580/index2.htm (радеон 5970 - двухчиповая карта, печ580/480 - одночиповая. у кого там больше, ты говоришь? )
"многоядерность в видеокартах" - да ты вообще нуб, заткнись и учи историю!! !нвидео просто КУПИЛА 3dfx, КОТОРАЯ ПЕРВУЮ двухчипувую видеокарту на базе SLI (это не та Nvidia SLI, а другая аббревиатура) - Voodoo2 - выпустила ещё в 1998 году!! !нвидео заявила поддержку СЛИ в 2004-м, а уже в 2005м был анонсирован кроссфаер
Ageia PhysX - да ну нах. р эта физикс? да будет тебе известно, радеоны как минимум не хуже обрабатывают физику, просто нвидео (грубо говоря) зассала, что радеоны будут их рвать - и отключила возможность использования GPU ускорения физики, если в системе обнаружена карта Радеон. вот и все
pure video - заткни ее в одно место. AMD Avio не хуже. да и эти "улучшалки изображения" и нафик не нужны - не на IPS/PVA мониторах на расстоянии 30 сантиметров различие не заметишь в оригинале. а всякие "подстройки цвета, яркости и тэдэ" можно сделать в ЛЮБОМ приложение. вот только эффект от них - абсолютно противоположный. тебе это скажет любой человек, занимающийся профессионально видео
DirectX 10 - согласен. а ничё, что первыми видеокартами для дирекс 11 были радеоны 58хх? ! это норм, ну нах. ер нам 11й дирекс?
"А ихний GDDR5 только добавляет жару видеокарте и повышеное напряжение" - ты сам понял что сказал? ! не используй комбинацию "умных слов", если не понимаешь, что за ними стоит
"Кто хоть раз видел Radeon со 16х сгладкой. " - я видел, и чё? ну производительность падает немного быстрее, не спорю. FXAA в помощь
"Я бы мог ещё написать кучу примеров, кучу фактов, кучу всего. Но нужно ли? ! Тут и так всё понятно. " - аналогично. мне понятно одно - ты НУБ, который боготворит нвидео. заткнись и не пудри мозги всякой .уйней!! !
аффтор вопроса - надеюсь, ты это прочитаешь и критично взглянешь на ситуацию. однозначного ответа нет - где-то лучше радеоны, где-то - джифорсы. выбирай видеокарту в зависимости от ее реальной производительности и системе охлаждения, почитай хотя бы http://www.thg.ru/graphic/graphic_card_gamer_january_2012/index.html
PS надеюсь, я не зря убил 20 минут своей жизни
nVidia GeForce - лучше.
Начнём с тепловидения. Всю жизнь Radeon были горячее nVidia и чем новее видеокарты тем они горячее особенно новая линейка Radeon 4 siries горячее видеокарт за всю историю жизни не было. Да я вообще удивился как они после краха своей 3800 siries и краха Phenom смогли выпустить 4 серию и подняться в топах. Вообще м как они это сделали известно только одному Богу.
На личном опыте было такое. Когда купил Radeon HD3870 512 DDR4 - то после тестирования 3D Mark 06 или любого сильного приложения как Crysis видеокарта плювалась с заду ( в полном смысле этого слова ). А история с Radeon HD4850 - которая охлаждение что бы было, а не что бы охлаждало. Проверено на личном опыте. В качестве примера пару фактов.
NVIDIA GeForce
ATI Radeon
GeForce GTX 295 имеет эффективную систему охлаждения и умудряется держать температуру ниже, чем Radeon.
Для нагрева обеих видеокарт, автор этих картин использовал Pixel Shader испытания 3DMark06 в режиме петли. Так грелись видеокарты nVidia и Radeon всю жизнь. Это показует то что Radeon не могут совладать в температуре с nVidia.
Теперь приступим к скорости видеокарт в играх и тестах. Начну с личного опыта.. . Я думаю что все знаю что все разработчики игр свои творения затачивают под GeForce карты. Это уже большой плюс для игроманов с выбором карты от nVidia. Скорость для игроманов это самое важное что может быть, они готовы отдать всё что бы их любима игра шла на максимальной графике с максимум комфорта т. е. без тормозов. Во что я только не играл и на каких картах я только не играл.
Но быстродействие nVidia не какая карточка не заменит. Разве что Radeon 4870x2 но и то с выходом новых флагманов от nVidia - GeForce GTX285 и GeForce GTX295 и будущего чипа GT300 можно забыть о той мощности что в Radeon 4870x2. Ещё на личном опыте знаю что качество картинки на ATI'шных картах хуже. Кривые уголки не сглаженое поверхности, не естественные цвета и т. д. Подёргивание картинки. Пропадание текстур, и очень очень много глюков о которых можно говорить очень долго.
А теперь немного подумаем. Кто первым придумал технологию многоядерности в видеокартах? ! Ответ: nVidia.
Название технологии SLI, а за ними уже через пару месяцев появилась технология CrossFire.
Кто первый придумал технологию двухчиповых видеокарт? ! Ответ: nVidia: 7950GX2.
Кто работал совместно с Ageia PhysX - nVidia. А так же pure video, куда и много всего кто первым придумал nVidia, а атишники красиво скатывали эти технологии. Вспомним например первый DirectX 10 где появился на nvidia, разработчики смогли первыми внедрить технологию DirectX 10.1 и то.. . кому он нужен? !
А ихний GDDR5 только добавляет жару видеокарте и повышеное напряжение. А сглаживание? Кто хоть раз видел Radeon со 16х сгладкой. Да ни кто.. . да и проблемы у них с этим.. .
Я бы мог ещё написать кучу примеров, кучу фактов, кучу всего. Но нужно ли? ! Тут и так всё понятно.
Начнём с тепловидения. Всю жизнь Radeon были горячее nVidia и чем новее видеокарты тем они горячее особенно новая линейка Radeon 4 siries горячее видеокарт за всю историю жизни не было. Да я вообще удивился как они после краха своей 3800 siries и краха Phenom смогли выпустить 4 серию и подняться в топах. Вообще м как они это сделали известно только одному Богу.
На личном опыте было такое. Когда купил Radeon HD3870 512 DDR4 - то после тестирования 3D Mark 06 или любого сильного приложения как Crysis видеокарта плювалась с заду ( в полном смысле этого слова ). А история с Radeon HD4850 - которая охлаждение что бы было, а не что бы охлаждало. Проверено на личном опыте. В качестве примера пару фактов.
NVIDIA GeForce

ATI Radeon

GeForce GTX 295 имеет эффективную систему охлаждения и умудряется держать температуру ниже, чем Radeon.
Для нагрева обеих видеокарт, автор этих картин использовал Pixel Shader испытания 3DMark06 в режиме петли. Так грелись видеокарты nVidia и Radeon всю жизнь. Это показует то что Radeon не могут совладать в температуре с nVidia.
Теперь приступим к скорости видеокарт в играх и тестах. Начну с личного опыта.. . Я думаю что все знаю что все разработчики игр свои творения затачивают под GeForce карты. Это уже большой плюс для игроманов с выбором карты от nVidia. Скорость для игроманов это самое важное что может быть, они готовы отдать всё что бы их любима игра шла на максимальной графике с максимум комфорта т. е. без тормозов. Во что я только не играл и на каких картах я только не играл.
Но быстродействие nVidia не какая карточка не заменит. Разве что Radeon 4870x2 но и то с выходом новых флагманов от nVidia - GeForce GTX285 и GeForce GTX295 и будущего чипа GT300 можно забыть о той мощности что в Radeon 4870x2. Ещё на личном опыте знаю что качество картинки на ATI'шных картах хуже. Кривые уголки не сглаженое поверхности, не естественные цвета и т. д. Подёргивание картинки. Пропадание текстур, и очень очень много глюков о которых можно говорить очень долго.
А теперь немного подумаем. Кто первым придумал технологию многоядерности в видеокартах? ! Ответ: nVidia.
Название технологии SLI, а за ними уже через пару месяцев появилась технология CrossFire.
Кто первый придумал технологию двухчиповых видеокарт? ! Ответ: nVidia: 7950GX2.
Кто работал совместно с Ageia PhysX - nVidia. А так же pure video, куда и много всего кто первым придумал nVidia, а атишники красиво скатывали эти технологии. Вспомним например первый DirectX 10 где появился на nvidia, разработчики смогли первыми внедрить технологию DirectX 10.1 и то.. . кому он нужен? !
А ихний GDDR5 только добавляет жару видеокарте и повышеное напряжение. А сглаживание? Кто хоть раз видел Radeon со 16х сгладкой. Да ни кто.. . да и проблемы у них с этим.. .
Я бы мог ещё написать кучу примеров, кучу фактов, кучу всего. Но нужно ли? ! Тут и так всё понятно.
Это извечный спор, Как и между Intel и AMD
ИМХО Nvidia. Всегда брал эти карточки, не разочарован, сейчас стоит GTX 570.
Кста, через пару лет будут карточки от Nvidia на чипе Maxvel, вот тогда Радеону будет очень не сладко.
Кста, через пару лет будут карточки от Nvidia на чипе Maxvel, вот тогда Радеону будет очень не сладко.
для игр лучше GeForce для программ ATI но не намного!
Оба
NVidia GeForce only)
на данный момент самый быстрый одночип от АТИ, но это пока Kelper не вышел....как только выйдет - АМД вновь будет в роли догоняющих... причем особо и не справятся
на данный момент самый быстрый одночип от АТИ, но это пока Kelper не вышел....как только выйдет - АМД вновь будет в роли догоняющих... причем особо и не справятся
хз.. думаю оба достойный производители.. говорят что у Ati с дровами проблемы и т. д... .
Сам сижу на ATI HD6770 никаких проблем с дровами никогда не наблюдал.. может у людей руки корявые или просто не повезло..
Сам сижу на ATI HD6770 никаких проблем с дровами никогда не наблюдал.. может у людей руки корявые или просто не повезло..
видиа офк
Похожие вопросы
- nVidia GeForce или ATI Radeon?
- Может быть буду банален, но вот не могу определится что лучше из видеокарт - Nvidia (geforce) или ATI Radeon?
- Скажите почему вы считаете что Nvidia Geforce лучше ATI radeon или наоборот. Заходите все!
- NVIDIA GeForce или ATI Radeon? Что по-Вашему лучше? Какой из этих брендов Вы бы выбрали? И почему?
- NVIDIA GeForce vs ATi Radeon
- Видеокарта для игр. Какую видеокарту купить для игр Nvidia GeForce GTX460 1Gb/256 bit или ATI Radeon HD 5770
- Какая видеокарта лучше Nvidia GTX260 или ATI Radeon HD5750 ?
- Какая видеокарта лучше??? Что лучше Nvidia GeForce GTX 560 Ti или ATI Radeon HD ???(Не писать: Смотри по цене и т.д)
- С какими видеокартами дружат лучше intelовские процессоры: NVidia (GeForce) или ATI (AMD Radeon)?
- Расскажите мне о самых мощных видекартах фирм GeForce и ATI Radeon и что лучше?Почему все берут GeForce у меня личноATI