Радеон или джифорс


Что лучше — Radeon или Geforce?

Игровое сообщество уже не первый год спорит о том, какая из видеокарт лучше — Radeon или Geforce. Одна часть геймеров уверена, что компания Nvidia (производит карты под маркой Geforce) лучше всех, другие же игроки отдают предпочтение AMD (видеокарты Radeon – их детище).

Скажем сразу, хороших и плохих в этом вопросе нет, каждая компания имеет долгую историю и авторитет в компьютерном мире, их задача делать качественные видеокарты, которые бы удовлетворяли потребности геймеров, просто эти компании выбрали различные пути развития, сделав ставки на разные технологии.

Из истории AMD и Nvidia

Многие удивятся, но компания AMD существует на 25 лет больше, чем их конкуренты – Nvidia, хотя мне лично всегда казалось что наоборот. Однако именно «Нвидиа» захватила роль флагмана в производстве видеокарт, в конце 90-х – начале 2000-х годов почти каждый компьютер был оснащен картой Geforce, цены на них были умеренные, а производительность из года в год быстро росла.

Но монополист недолго оставался «на коне», компания ATI начала планомерное наступление на рынок видеоадаптеров. Продукция этой фирмы была очень качественной и производительной, а цена меньше, чем у конкурента. В связи с этим  ATI и их Radeon-ы отвоевали свое место на рынке. В 2007 году ATI купила корпорация AMD, вследствие чего Radeon стали выпускаться под этой маркой.

Есть сведения, что операционная система Linux «дружит» лучше с картами Geforce, а компьютеры от Apple также ее используют из-за ее стабильности в связке с другими компонентами. Однако это сомнительные минусы, ведь кто использует Linux для игр – очень малый процент геймеров, обладателей компьютеров на Mac OS также не очень много в наших краях.

Разница между Radeon и Geforce

Radeon и Geforce имеют некоторые различия в структурах своих графических процессорах, а также некоторые уникальные технологии. Например, «Джифорс» обладает PhysX – технологией, которая значительно «оживляет» картинку в играх благодаря обилию частиц, которые перемещаются по всем законам физики. Если игра поддерживает данную функцию, то взрывы, осколки, пыль, поведение жидкостей и т.д. в ней будет смотреться намного эффектней.

Также Geforce славится технологией CUDA, которая позволяет использовать графический процессор для вычислений (данная функция больше подходит не геймерам, а программистам, дизайнерам и т.д.). В целом, Nvidia использует еще множество разработок, например, 3D vision (позволяет получить эффект 3D) и многие другие «помельче», на которых мы не будем останавливаться.

Компания AMD также имеет ряд разработок в своем арсенале, например, Mantle, которая позволяет упростить процесс оптимизации игр для разработчиков (уже появились игровые тесты, которые демонстрируют более высокую производительность игр с применением Mantle).

Оптимизация под видеокарты

Стоит понимать, что обе компании могут похвастаться мощными видеокартами, однако немалое значение имеют и разработчики игр. Одна игра может быть больше оптимизирована под карты Radeon, а другая под Geforce. Т.е. игра может идти без тормозов на не очень мощной Radeon, но при этом тормозить на довольно производительной Geforce. Однако в большинстве своем разработчики стремятся к «равноправию», чтобы их игра прекрасно шла на всех видеокартах.

Вывод

В целом, можно подвести итог – нельзя сказать определенно, что лучше – Radeon или Geforce, это как выбрать между Ламборджини и Феррари, обе машины по-своему хороши. Вторая позволит вам получить более реалистичную разрушаемость (но не все игры поддерживают эту технологию), однако стоит дороже своего конкурента. Первая имеет чуть более низкую стоимость, но при этом не уступает в производительности своему оппоненту (но не имеет поддержки PhysX).

Если вы выбираете новую видеокарту, но в игры играть не собираетесь, то не мучайтесь в выборе и берите то, что больше нравится, разницы вы не почувствуете. Разница между этими видеокартами не так уж и велика, кто-то использует Джифорс уже много лет, поэтому не желает переходить на Радеон, кому-то больше нравится продукция AMD за ее более низкую стоимость, каждый находит для себя какое-то определенное преимущество. Точного совета в данном вопросе дать нельзя, тут, скорее, роль играют субъективные факторы, если вы готовы чуть-чуть переплатит, то можете покупать продукцию Nvidia, если же деньги для вас важны, то берите видеокарту от AMD.

windows-9.net

Какая видеокарта лучше AMD или Nvidia

Конкуренция на рынке видеоадаптеров между двумя крупнейшими производителями – компаниями AMD и NVidia длится уже почти 20 лет. И всё это время не утихают споры на тему, какая видеокарта и от какой компании лучше.

Внимание! На самом деле, фирма AMD в это противостояние включилась в 2007 году, когда приобрела компанию ATI, занимавшуюся выпуском 3D ускорителей.

За этот период пальма первенства переходила от одной компании к другой несколько раз. Причём лидерство касалось не только вопросов производительности или эффективности тех, или иных решений, но зачастую и каких-то дополнительных функций, обеспечивающих более комфортные условия для обыкновенных пользователей.

В компьютерной среде компанию NVidia называют «зелёными», а AMD – «красными». Такая шутливая цветовая дифференциация не имеет под собой никакой серьёзной составляющей – просто логотипы компаний имеют соответствующие цвета.

Попытаемся разобраться в вопросе, что же лучше для обычного пользователя – адаптеры от AMD или Nvidia.

Общее сравнение видеокарт для ноутбуков и ПК от nvidia и radeon

Сравнение видеокарт nvidia и radeon по каким-то отдельным параметрам будет не совсем корректным. Видеоадаптер является достаточно сложным устройством, все характеристики которого так или иначе влияют на его привлекательность для покупателя.

Поэтому любая сравнительная характеристика карт будет представлять собой множество оговорок и условностей. Даже в таком, казалось бы, универсальном методе проверки быстродействия, как игровые тесты, наблюдаются явные неоднозначности, поскольку в разных приложениях карты показывают совершенно разные результаты. Да что говорить о приложениях, даже если разные версии драйверов способны представить результаты быстродействия с точностью до наоборот.

В настоящее время все последние поколения видеокарт, как «красных» так и «зелёных» обладают набором абсолютно одинаковых функций, используют одинаковые процедуры обработки изображения и даже одинаково конфигурируют мониторы!

Стоит только кому-то изобрести что-то новое, как оно тут же появляется у конкурента. Так было и с Eyefinity, и с DirectX-12, и с API Vulcan, да и практически со всеми технологиями, применяемыми в современном выводе изображения.

Когда NVidia придумали концепцию CUDA, заставившую графические процессоры переключиться исключительно на математику, AMD меньше, чем за полгода создали свои унифицированные шейдеры, которые, по сути, были теми же самыми CUDA, хоть и с меньшей производительностью, но на чипе их было больше…

Ситуация на рынке видеокарт для ноутбуков практически полностью повторяет картину на рынке «десктопных» решений. Разница заключается лишь в меньшем быстродействии мобильных версий видеоадаптеров. При этом уменьшение быстродействия в связи с переходом в мобильный сегмент у обоих производителей происходит в одинаковой степени, поскольку законы физики едины для всех.

Совместимость

С аппаратной точки зрения все карты amd или nvidia совместимы с любыми устройствами, входящими в состав ПК. Стандартные точки входа (адреса в памяти, порты и прерывания) у всех видеокарт одинаковые с момента появления технологи PnP, поэтому никаких конфликтов в аппаратной части у видеокарт нет и быть не может.

Мало того, карты NVidia и AMD могут прекрасно работать в одном компьютере и при соответствующем программном обеспечении совместно выполнять одну задачу.

Важно! Карты обоих производителей используют стандартный интерфейс PCIE, имеющий в настоящее время версию 3.0

Энергопотребление и тепловыделение

В последнее время продукция AMD является более «горячей». Средние мощности видеокарт во всех ценовых сегментах у них выше на величину от 10 до 30%. Объясняется это в первую очередь более крупным техпроцессом (14 нм а то и 28 нм у серии AMD Fury в сравнении с 12 нм у RTX от NVidia).

Если AMD идёт по проторенной дорожке GCN, где рост степени интеграции имеет примерно одинаковый темп, то две радикальных смены архитектуры у NVidiа позволили существенно снизить энергопотребление.

Тесты производительности

Тесты производительности видеокарт одинаковых сегментов у конкурентов примерно одинаковые. Всегда найдётся такая модель одной фирмы, у которой есть свой «аналог» у конкурента.

Эти видно даже на примере последнего поколения. Например, RTX 2070, имеющая производительность в 7500 ГФлопс имеет прямого «визави» в виде R9 FuryХ. Однако, к чести 2070 можно сказать, что она обладает современными технологиями трассировки лучей, а модели Fury уже почти 4 года. Но на момент её выхода у NVidia не было вообще ничего подобного. И так далее…

Каждое последующее поколение чем-то незначительно отличается от предыдущего и не всегда производительность является решающим фактором.

Одной из интересных характеристик, по которым оценивают видеоадаптеры, является процентное соотношение производительности компонентов к цене для типичного реального использования. То есть, насколько эффективен каждый потраченный на приобретение видеокарты доллар (или рубль) в пересчёте на единицу производительности.

И здесь наблюдается если не подавляющее, то уверенное преимущество продукции от «красных». В «топ-тен» рейтинге самых оптимальных с точки зрения финансовых затрат карт представители AMD занимают 6 мест из 10. Тройка лидеров распределилась следующим образом:

  • AMD Vega 56.
  • AMD RX 580.
  • Nvidia RTX 2060.

Примечательным является тот факт, что первые две позиции существуют на рынке уже около двух лет, а 2060 является новинкой от 15 января 2019 года. Мало того, RX 580 – это вообще устаревшая архитектура GCN 1.3

Налицо явный прокол маркетологов «зелёных», не захотевших немного снизить цену на свой самый новый товар для увеличения его объёмов продаж.

Размер, внешний вид и технологии видеокарты

Технически карты AMD и NVidia производятся по абсолютно одинаковым методикам и технологическим условиям. Различия в производстве относятся только к способу изготовления чипа.

Размеры подложек видеокарт имеют, как правило, 3 варианта исполнения:

  • Полноразмерная. Длиной до 24 см, высотой 13 см.
  • Slim-фактор. Высота остаётся такой же, длина уменьшается в 1.5-2 раза.
  • Низкопрофильная. Высота 6.5 см, длина 12-15 см.
Важно! Иногда выделяют ещё и 4-й тип – экстрим-версии. Их высота составляет стандартные 13 см, но длина может доходить до 30 см. Такие видеоадаптеры занимают место 2-х или даже иногда 3-х слотов PCIE.

Внешний вид карты и технология её исполнения зависят от фирмы-производителя. Обычно используются многослойные подложки с числом слоёв от 8 до 16.

Особо массивные карты снабжаются либо задней пластиной (backplate), либо полной защитой по периметру всей видеокарты. В карты с повышенным тепловыделением (1080, 2080, Fury, Vega и т.д.) может быть интегрирована система водяного охлаждения.

Вместо заключения

Также существует немалая группа пользователей, всегда приобретающих исключительно продукцию AMD. И дело здесь вовсе не в производительности, поскольку при желании можно использовать SLI/CrossFire. И не в энергопотреблении, поскольку блоки питания на фоне остальных комплектующих не так дороги. И не в оптимизации драйверов или кода, поскольку этот процесс будет идти постоянно.

Продукция AMD будет приобретаться лишь потому, что видеовыход сигнала у карт «красных» имеет большую насыщенность, то есть, визуально он более красочный.

Группу пользователей, всегда покупающую продукцию NVidia, также можно легко найти. Но они всегда покупают карты NVidia только лишь потому, что у «зелёных» есть PhysX…

А ещё есть фанаты Vulcan-a, а ещё есть фанаты 16-ти мониторов на одном столе… И так далее. Выбор производителя видеокарты всегда субъективен.

По большому счёту, ответить на вопрос, что лучше nvidia geforce или amd radeon невозможно, поскольку каждый производитель может предложить в любом сегменте для любой аппаратной части соответствующее адекватное решение. А незначительная разница в деталях этого решения носит исключительно характер личных предпочтений.

Ссылка на источник: https://wi-tech.ru/videokarty/sravnenie-nvidia-i-radeon/

zen.yandex.ru

Nvidia против AMD: Какой будет ваша следующая видеокарта?

Война видеокарт никогда не прекращается.

Если вы спросите консольного игрока, он вам подробно расскажет о бесконечном соперничестве между Xbox One X и PS4 Pro, а также о том, на какой консоли вы должны играть в Fortnite. Тем не менее, ПК-геймеры являются свидетелями похожей вражды: Nvidia против AMD. И, даже если вы никогда не слышали об этом раньше, чудовищная конкуренция породила просто удивительные инновации.

С другой стороны, если вы не готовы клясться в верности одному из этих технологических бегемотов, может быть сложно выбрать лучшую видеокарту для ваших нужд. Не переживайте, мы решили раз и навсегда разобраться в том, кто же победитель в конкуренции Nvidia против AMD.

Сегодня противостояние Nvidia и AMD пришло к неловкому положению. Спустя почти два года после выпуска серии Nvidia GTX 10, производитель запустил архитектуру Turing с GeForce RTX 2080 Ti, RTX 2080, RTX 2070 и RTX 2060 – видеокартами, которые стали существенно дороже предшественников.

И пока AMD отличилась запуском Vega в 2017 года, а AMD Navi пока не готова к потребительскому релизу, выходит AMD Radeon VII, прямой конкурент RTX 2080. Но это не значит, что AMD забыла о бюджетном рынке, производитель продолжает выпускать новые карты Polaris, среди которых Radeon RX 590, ориентированный на бюджетный сегмент 1080р.

Независимо от того, что это значит для вас, видеокарты Nvidia и AMD не созданы одинаковыми, поэтому мы подготовили руководство – чтобы погрузиться в тонкости и разобраться, в чем же разница. От их эксклюзивных функций к соотношению цены к производительности, драйверам и снова эксклюзивным функциям, которые порядком надоели пользователям.

Видеокарта на каждый день.

| NVIDIA VS AMD: ЦЕНА

Любой, кто просматривает 4pda или комментирует разделы на технических сайтах, скажет вам, что AMD широко известна своей доступностью, а Nvidia – высокой производительностью и высокими ценами. Но действительно ли они правы?

Ну, похоже на то. Цена Nvidia GeForce RTX 2080 Ti составляет 1199$ (78000р + НДС), что практически вдвое превышает розничную стоимость GTX 1080 Ti последнего поколения. И одной видеокартой рост цен не заканчивается, RTX 2080 стоит 799$ (52000р + НДС), а RTX 2070 – 599$ (39000р + НДС).

Во время основного доклада Nvidia заявила, что видеокарты придут с приемлемым ценником, например, 2080 Ti должна была стартовать с 999$, но мы пока не видели ни одной карты за эту цену.

На данный момент наиболее доступной видеокартой RTX является Nvidia GeForce RTX 2060, которая продается за 349$ (23000р + НДС). И пока данный ценник астрономически далек от сногсшибательного ценника 2080 Ti, это всё ещё дорого для видеокарты среднего класса.

Что касается AMD, вы найдете последнюю видеокарту Radeon RX 500 за копейки, сопоставляя с Nvidia. Но AMD возвращается в конкуренцию высокопроизводительного сегмента с новой AMD Radeon VII, которая обойдется вам в 699$ (45500р + НДС) за производительность, эквивалентную RTX 2080 в большинстве случаев.

В конце концов, лучшая цена будет зависеть от того, насколько вам повезет со скидками.

| NVIDIA VS AMD: ПРОИЗВОДИТЕЛЬНОСТЬ

Когда вы пытаетесь собрать наиболее мощный ПК, чем у вашего заклятого врага (зачастую, лучшего друга), покупка видеокарты – вопрос не цены, а производительности. Наличие максимальной производительности при минимальных затратах становится, пожалуй, главным фактором, стимулирующим продажи видеокарт по всему миру.

Прямо сейчас RTX 2080 Ti играючи вытесняет любую другую видеокарту потребительского уровня с 11 Гб видеопамяти GDDR6 и высокопроизводительными тензорными и RT ядрами, которые реализуют технологию управляемого ИИ суперсэмплинга и трассировку лучей в реальном времени. AMD просто не может предложить чего-то подобного – но насколько это важно?

AMD всегда была известна своей подавляющей популярностью, тогда как Nvidia обычно предлагала наиболее мощное оборудование. Но на выставке CES 2019 компания AMD представила Radeon VII. И теперь, когда мы получили видеокарту для самостоятельного обзора, мы можем сказать, что она работает на равных с RTX 2080 – по крайней мере, пока вы не включаете DirectX 12. Тем не менее, благодаря 16 Гб видеопамяти HBM2, AMD Radeon VII предназначена не только для геймеров, но и творческих специалистов.

Самая «легкая» видеокарта текущего поколения в урожае Nvidia – GeForce RTX 2060, производительность которой превосходит AMD Vega 56 за те же деньги. И пока цены двух видеокарт по большей части сопоставимы, в настоящее время AMD доминирует на рынке продуктов диапазона бюджетный-средний с такими картами, как AMD Radeon RX 580.

В конце концов, AMD и Nvidia сейчас занимают совершенно разные стороны рынка, поэтому лучший выбор – полагаться на то, в какие игры вы пытаетесь играть, и в каком разрешении.

Если вы пытаетесь играть в такие игры, как Assassin’s Creed Odyssey в разрешении 4К, вам наверняка захочется попробовать Nvidia. Но если вы предпочитаете Overwatch в формате 1080р с высокой частотой обновления – выбирайте AMD. Тем не менее, Radeon VII также выглядит многообещающей видеокартой в задачах с разрешением 4К, особенно с 16 Гб видеопамяти HBM2.

| NVIDIA VS AMD: ПО, ДРАЙВЕРЫ И ФУНКЦИИ

Ключевым преимуществом выбора видеокарт Nvidia против AMD становится программное обеспечение GeForce Experience от Зеленой Команды.

Nvidia GeForce Experience это своего рода игровое приложение для ПК, которое управляет всеми играми, реализует обновление драйверов и оптимизацию игр, а также позволяет транслировать игровой процесс и делать скриншоты, вплоть до записи видеороликов по средствам простого в использовании интерфейса.

Между тем, недавно анонсированная AMD-версия Radeon Software Adrenalin 2019 Edition направлена на то, чтобы оспорить первенство ПО от Nvidia. Последнее обновление предоставляет набор функций, среди которых автоматический разгон (для которого не нужны тензорные ядра) и передача игр на ваше мобильное устройство.

Новейший программный комплекс AMD для видеокарт своего производства позволит вам настроить виртуальную трансляцию игр на телефон или автономный шлем виртуальной реальности. Таким образом, вы можете использовать возможности вашей видеокарты AMD, чтобы играть в лучшие VR-игры без промедления. Главным преимуществом Radeon Software, конечно же, становится последовательное обновление драйверов, учитывающее все главные игровые выпуски.

Ещё в декабре 2016 года вы могли транслировать игровой процесс в прямом эфире с помощью Radeon Crimson ReLive, но теперь вы можете наладить серьезную трансляцию через Xplit / OBS от AMD и многоканального управления звуком.

Тем не менее, GeForce Experience отличается функцией оптимизации игр, от которой все без ума. Поэтому, когда вы не знаете, какие настройки лучше всего подходят для вашего компьютера в 3-м Ведьмаке, Nvidia позаботится об этом.

Пользователи видеокарт AMD смогут загрузить и установить программный пакет Raptr’s Gaming Evolved для оптимизации игрового процесса. Тем не менее, решение не идеально, учитывая, что пользователи главного конкурента могут сделать практически всё из GeForce Experience. То есть они смогут использовать Nvidia Ansel, чтобы снимать крутые внутриигровые снимки с разрешением, превышающим 63К (в 16 раз больше, чем у 4К монитора).

Nvidia занимает сильную позицию, когда мы заговариваем о потоковых играх, будь то другой игровой ПК с графическим процессором не менее Maxwell, а также планшеты или приставки. Не говоря уже о том, что Nvidia предлагает собственный облачный игровой сервис GeForce Now, доступный для пользователей Windows 10 и MacOS.

| NVIDIA VS AMD: УНИКАЛЬНОСТЬ

Когда-то ходили слухи, что AMD и Nvidia пользуются сомнительным подходом, «расплачиваясь» с разработчиками игр за то, последние открыто демонстрировали индивидуализированный подход к одному или другом производителю. Если бы это было так, мы бы нашли простое объяснение тому, что некоторые игры лучше работают с видеокартами GeForce, а другие с Radeon’ами.

К счастью, помимо новых технологий, таких как трассировка лучей и суперсэмплинг с глубоким обучением новых видеокарт Nvidia архитектуры Turing, мы больше не видим проблем совместимости – но они всё ещё существуют.

После мероприятия Capsaicin & Cream с прямой трансляцией на GDC 2017, мы обсудили с AMD стратегию конкуренции с Nvidia. Новость о том, что компания заключает партнерские отношения с Bethesda Softworks для оптимизации своих игр под Radeon и Ryzen, была, по меньшей мере, тревожной.

Несмотря на потенциальную возможность увеличения количества игр, которые станут плавно работать на системах AMD, что является хорошей новостью, подобный ход может вынудить Nvidia ответить сотрудничеством с другим крупным издателем. И пока такого маневра ещё не случилось, ранние сравнения производительности Wolfenstein II, показали лучшую производительность и сокращение температуры, полученные с AMD Radeon RX 64 в сравнении против GeForce GTX 1080 от Nvidia.

Мы не говорим о предвзятости к AMD в условиях технического проектирования Bethesda, но мы пока не готовы снять наши шляпы из фольги.

Конечно, Bethesda – едва ли единственная компания, которая демонстрирует приверженность одному производителю. Если вы когда-нибудь видели заставку AMD или Nvidia во время титульной заставки при запуске игры, вы можете быть уверены, что она работает лучше с аппаратным обеспечением этой компании.

| NVIDIA VS AMD: ИТАК, ЧТО ЛУЧШЕ?

Есть множество причин любить и даже ненавидеть видеокарты обоих производителей. В конце концов, Nvidia против AMD полагаются на конкуренцию ради процветания. Достаточно сказать, что дебаты на тему «Nvidia против AMD» требуют понимания причины, по которой видеокарты Radeon и GeForce так похожи с точки зрения производительности.

Каждая компания делает всё возможное, чтобы не отставать от другой, и это хорошо для конечного пользователя, прежде всего. В основном производители борются за наши деньги, учатся на ошибках друг друга и постоянно улучшают свои продукты по пути.

Вам решать, кто победит в схватке Nvidia против AMD, хотя мы готовы высказаться следующим образом: Nvidia не имеет аналогов на рынке 4К в данный момент. Если это поможет, RTX 2080 Ti, вероятно, станет лучшим выбором, если вы преследуете наилучшее воспроизведение Ultra HD – до тех пор, пока вы можете себе это позволить. Однако, если вы ограничены в деньгах, видеокарты Nvidia и AMD становятся примерно одинаковыми в среднем сегменте, по крайней мере, до тех пор, пока не выйдут бюджетные видеокарты Turing.

Вот лучшие компьютерные игры, которые вы можете запустить на новой видеокарте.

www.howtablet.ru

Какая видеокарта лучше: NVIDIA или AMD

Если вы ищете сравнительную таблицу производительности, можете сразу нажать эту кнопку

Давным-давно, ещё в прошлом тысячелетии, основным предназначением видеокарт была возможность вывода изображения из памяти компьютера на экран дисплея. Среди производителей девайсов наблюдался лютый разброд и шатание. Игры выходили со своим набором драйверов под разнообразные устройства (включая видеокарты). Потом пришёл он: S3 Trio64 V+, который стал своеобразным стандартом. Практически полная копия — S3 Trio64 V2 — была выпущена чуть позднее. А ещё позже появился S3 Virge, укопмлектованный аж 4 МБ видеопамяти.

S3 Trio64 V2 с 1 МБ видеопамяти на борту. Как видно, видеоплату можно проапгрейдить, добавив ещё две штуки SOJ DRAM EDO 512 КБ для получения 2 МБ памяти.

1 МБ видеопамяти достаточно для создания 3 буферов при разрешении экрана 640×480 пикселей с 256 цветами. Герои 3 требовали 2 МБ, т. к. использовалось разрешение 800×600 пикселей и 65536 цветов.

И всё было просто и понятно: процессор обсчитывал и отправлял данные в память, а видеокарта передавала картинку на дисплей. И тут в компьютерный мир буквально ворвался 3dfx со своей революционной технологией Voodoo.

Справедливости ради нужно сказать, что до появления решений от 3dfx были и другие технологии. В частности, чип NV1 от NVIDIA (который провалился).

Так что же являл собой Voodoo? Это был так называемый 3D-ускоритель; дополнительная плата для создания качественной высокопроизводительной графики. Важное отличие от современных решений — данный ускоритель требовал наличие обычной (2D) видеокарты. Для своих видеокарт компания 3dfx разработала API — Glide — удобное средство работы с Voodoo (для разработчиков игр, в первую очередь).

Ускоритель трёхмерной графики на основе 3Dfx Voodoo 2. Именно с этим чипсетом появилась технология SLI: можно было подключить два ускорителя, которые работали в тандеме, при этом, один ускоритель обрабатывал чётные строки изображения, другой — нечётные, чем достигался, теоретически, двукратный прирост производительности

Осознав преимущество нового рынка, в борьбу за потребителя включились и другие крупные игроки, представляя свои продукты. Среди основных можно вспомнить: 3D RAGE от ATI, RIVA от NVIDIA, а также произносимый благоговейным шёпотом Millennium от Matrox. Масла в огонь подлили и разработчики программного обеспечения, в благородном стремлении стандартизировать (и, как следствие, избавить программистов от необходимости портировать свой код для поддержки видеокарт разных производителей) работу используемых функций: Microsoft выпускает Direct3D (часть библиотеки DirectX), Silicon Graphics — OpenGL.

Пожалуй, последним успехом 3dfx стал Voodoo3. На тот момент данная видеокарта была самой производительной в плане 3D графики, но ей «на пятки» наступала RIVA TNT2 от NVIDIA. Стремясь превзойти конкурентов, 3dfx бросила все силы на разработку нового чипсета. И в это время вышел GeForce 256 от NVIDIA, который, фактически, забил последний гвоздь в «крышку противостояния». Новый чипсет от 3dfx не был конкурентом GeForce 256. Чтобы всё-таки вернуть лидерство, было принято решение выпустить многопроцессорную конфигурацию обновлённого чипсета — VSA-100 — Voodoo5. Однако время оказалось упущено, и на момент появления новых ускорителей на базе процессоров от 3dfx, конкуренты снизили цены на свои предыдущие продукты, а вскоре и представили новые, которые были не только дешевле, но и производительнее Voodoo 5.

NVIDIA GeForce 256

Для бывшего лидера 3D-ускорителей всё было закончено. Большую часть активов приобрела NVIDIA, и за этим последовало полное искоренение всего, что было связано с 3dfx, включая узнаваемые названия — Voodoo и Glide API. С этого момента, фактически, осталось лишь два производителя высокоскоростных решений для домашних пользователей: ATI и NVIDIA.

В 2000 году компания ATI выпускает культовый процессор нового поколения — Radeon. Бренд оказался настолько популярным, что используется до сих пор. Данный графический процессор был первым решением, целиком поддерживающим DirectX 7. Чуть ранее NVIDIA предоставила свой культовый чипсет, положивший на обе лопатки Voodoo5, и явившийся началом брендированной линейки — GeForce. Оба названия прочно закрепились в умах пользователей, и на вопрос «Какая у тебя видеокарта?» вполне можно услышать ответ: «Radeon» или «GeForce».

В разное время пальма первенства переходила то к одной, то к другой компании. Невозможно сказать однозначно, на каком же чипсете видеокарта будет лучше: многое зависит и от производителей видеокарт. Но давайте оставим «священные войны», и кратко пробежимся по основным линейкам решений.

Итак, 2000 год. ATI выпускает линейку «семитысячников» — Radeon 7000 и 7200, а через год — 7500, использующий для изготовления более «тонкий» техпроцесс. Карты поддерживали DirectX 7.0 и OpenGL 1.3. NVIDIA выкидывает на рынок GeForce 2 и GeForce 3, поддерживающие DirectX 7 и OpenGL 1.2.

Следующее поколение видеокарт от ATI «восьми-» (представлены Radeon 8500 и его облегчённый вариант — Radeon 8500 LE) и «девятитысячники» (Радеоны 9000, 9100, 9200, 9250 с дополнительными суффиксами), с поддержкой DirectX 8.1 и OpenGL 1.4. В 2002 году появляются очередные «девятитысячники»: Radeon 9500 — Radeon 9800, а также положено начало икс-серии: X300 — X850 и X1050 — X1950. Поддерживаемые API — DirectX 9.0 b OpenGL 2.0.

NVIDIA выпускает GeForce4 в версиях MX — для систем начального уровня, и Ti (Titanium) — для систем среднего и топового диапазонов, поддерживающих DirectX 8.1 и OpenGL 1.3. Со следующей линейкой — GeForce FX, случился небольшой скандал. Компания выпустила чипсеты с поддержкой шейдеров, версии 2.0a и активно пиарила эту технологию. Но, как показали тесты, шейдеры работали гораздо медленнее, чем у конкурента (ATI). Чтобы как-то спасти положения, NVIDIA изменила код своих драйверов так, чтобы в популярных бенчмарках код шейдеров подменялся на свой, более производительный. Как бы то ни было, но следующая линейка вернулась к цифровому обозначению — GeForce 6, и видеопроцессоры стали поддерживать DirectX 9.0c и OpenGL 2.0. Седьмое поколение — GeForce 7, было прямым наследником предыдущего, и ничего нового не привнесла.

В 2006 году компания ATI приобретается корпорацией AMD. Однако старый бренд сохраняется и выпускаемая продукция продолжает маркироваться как ATI Radeon. В очередной раз меняется торговое наименование, и вместо серии X появляются серии HD (которые, к слову, выпускаются по сей день). Новые «двухтысячники» — HD2000 — поддерживают DirectX 10.0 и OpenGL 3.3. Серия HD3000, фактически, ничем особенным не отличается (разве что в некоторых моделях появляется поддержка DirectX 10.1). Следующая линейка — HD4000 — тоже эксплуатировала предыдущие решения: уменьшение техпроцесса привело к снижению тепловыделения и позволило безболезненно нарастить количество потоковых процессоров, отвечающих за обработку графики. Наиболее топовые решения получают память GDDR5 (младшие модели используют GDDR3).

PhysX и CUDA

А вот компания NVIDIA совершает прорыв в вычислениях, выпустив восьмое поколение своего продукта — GeForce 8. Помимо поддержки DirectX 10 и OpenGL 3.3, поддерживается технология CUDA, с помощью которой можно часть вычислений переложить с основного процессора на процессоры видеокарты. Вместе с данной технологией была представлена ещё одна — PhysX — которая для вычислений могла использовать либо центральный процессора, либо процессор видеокарты с поддержкой CUDA.

Видеокарта Zotac 9800GT с 512 МБ памяти. Крайне неудачная модель в плане теплоотвода, пришлось установить дополнительный кулер для лучшего охлаждения

Девятое поколение — GeForce 9 — фактически являлось развитием предыдущих успехов. В продолжении развития было изменено обозначение — новая линейка маркировалась как GeForce 100. В десятом поколении — GeForce 200 — обновилась версия CUDA до 2.0. Также была добавлена аппаратная поддержка H.264 и MPEG-2. Некоторые модели видеокарт начинают комплектоваться быстрой памятью — GDDR5.

В конце 2009 года ATI обновляет линейку — выходят в свет HD5000. Помимо обновлённого техпроцесса, видеокартам достаётся поддержка DirectX 11 и OpenGL 4.1. В 2010 году AMD решает отказаться от бренда ATI в будущих картах. Новая серия — HD6000 — уже выходит под названием AMD Radeon. Так же становится доступен вывод видеоизображения в 3D.

У NVIDIA тоже меняется техпроцесс и появляются новые графические процессоры — GeForce 400, поддерживающие DirectX 11 и OpenGL 4.1. Над чипом была проделана громадная работа, и посредством MIMD удалось значительно увеличить производительность. Продолжение развития линейки — GeForce 500 — по традиции имеет сниженное (за счёт оптимизации) энергопотребление и улучшенную производительность.

Наши дни

В 2012 году обе корпорации представили обновлённые линейки своих продуктов: GeForce 600 от NVIDIA и HD7000 от AMD.

Графические процессоры от NVIDIA получили обновлённую начинку, основанную на архитектуре Kepler, благодаря чему увеличилась производительность и снизилось тепловыделение. 28 нм техпроцесс также пошёл на пользу (в картах начального уровня используется 40 нм). Доступные технологии — DirectX 11.1 и OpenGL 4.3. По маркировке можно в высокой степенью вероятность определить, какая же из видеокарт быстрее: для этого нужно посмотреть 2 последние цифры серии:

  • GTX610–640 — т. н. офисные карты, обладают посредственной производительностью (менее 100$);
  • GTX 650 и GTX 650 Ti — игровые карты начального уровня производительности (менее 150$);
  • GTX 660 — игровые карты среднего уровня производительности (менее 250$);
  • GTX 660 Ti, GTX670–690 — игровые карты высшего уровня производительности и топовые видеокарты (стоимость может достигать 1000$ и более);
  • GTX Titan, GTX 780 — топовые игровые карты.
Самая быстрая двухпроцессорная видеокарта AMD Radeon HD 7990. При полной нагрузке потребляет 500 Вт, что требует наличия мощного блока питания с одной стороны и фактически ставит крест на докупку второй карты для режима CrossFire

Чипсеты AMD получили архитектуру Graphics Core Next, производство ведётся по 28 нм процессу. Доступные технологии — DirectX 11.1 и OpenGL 4.2. Назначение видеокарты можно определить по 3 последним цифрам:

  • HD77x0–77×0 — игровые видеокарты начального ценового диапазона (менее 200$);
  • HD78x0–78×0 — игровые видеокарты среднего ценового диапазона (менее 300$);
  • HD79x0–79×0 — продвинутые и топовые игровые видеокарты (стоимость может достигать 1000$ и более).

На российском рынке в качестве «x» в названии моделей представлены цифры 5, 7 и 9. Цифра 5 соответствует самой низкой производительности в классе, но и самой низкой цене. 9, напротив, показывает, что данная карта в классе является самой производительной.

Казалось бы, обозначение моделей просты и понятны, и можно быть уверенным, что видеокарта на «старшем» чипсете будет однозначно быстрее более «младшей» коллеги. К сожалению, это далеко не всегда так. И даже производительность карт, построенных на одном чипсете, может отличаться на 20% (при почти одинаковой стоимости). Почему такое случается? Некоторые производители могут решить сэкономить на комплектующих, в частности, установить более дешёвую память, либо использовать шину меньшей разрядности. Другие, напротив, делают ставку на качественные компоненты, разгоняют и тестируют видеокарты. Не нужно забывать и про систему охлаждения: быстрая карта с жужжащим вентилятором может отбить всё удовольствие от игр (особенно ночью). Поэтому не нужно лениться, а стоит посетить авторитетные сайты и прочитать обзоры тестирования, чтобы подобрать не только быструю, но и тихую видеокарту с хорошим охлаждением. Хорошие ресурсы: ixbt, ferra, easycom. Отзывы можно почитать здесь.

Обе фирмы — AMD и NVIDIA — предлагают решения, способные удовлетворить практически любого пользователя. У обоих корпораций есть решение для 3D — поддержка в играх и фильмах, это: AMD HD3D и 3D VISION от NVIDIA. Видеокарты данных фирм способны выводить изображение на несколько мониторов, вплоть до того, что можно использовать несколько мониторов для одной игры. А ещё, у AMD и NVIDIA есть технологии, позволяющие объединяться несколько видеокарт: CrossFire и SLI соответственно, благодаря чему производительность в некоторых играх, фактически, удваивается (и даже утраивается при установке 3 карт). По сути, это очень хороший способ увеличить производительность своей видеосистемы в будущем.

Игра на 3 экранах благодаря технологии NVIDIA® 3D Vision™. Налицо значительно расширение области видимости

Осталось лишь определиться, какие из функций нужны и сколько денег на это готовы потратить. Так, для 3D потребуется соответствующий монитор и очки. PhysX является технологией NVIDIA, а перекладывание части задач с центрального процессора на процессор видеокарты может положительно сказаться на производительности в целом.

Наверняка у вас назрел вопрос: какая же видеокарта на данный момент является самой быстрой? Это двухпроцессорный флагман, AMD Radeon HD 7990, построенной на 2-ух графических процессорах AMD Radeon HD 7970.

А как выбрать карту по своему бюджету и не прогадать? На этот вопрос поможет ответить специальная табличка, которая высчитывает абсолютную стоимость 1% «идеальной» производительности.

Открыть таблицу производительности видеокарт (в новом окне)

Дополнение 1

NVIDIA выпустила новую серию видеокарт — 7xx. Сейчас большая часть плат этой серии закрывает (как по ценовому диапазону, так и по производительности) «дыры», неизбежно возникающие в процессе развития. GTX 690 очень быстрая, GTX Titan — крайне тихая и самая быстрая однопроцессорная видеокарта. Но по сравнению с GTX 680 они оторвались довольно сильно. Разницу в производительности должны погасить GTX 770 и GTX 780. Совсем недавно была анонсирована GTX 760. Основная черта новой серии — бо́льшие (по сравнению с предыдущими картами) частоты авторазгона.

Дополнение 2

AMD выпустила в продажу нового монстра — двухчиповую видеокарту Radeon R9 295X2. Отличается от своего одночипового «родителя» — Radeon R9 290X — слегка повышенной частотой ядра и удвоенными характеристиками остальных компонентов — шины памяти 2×512 бит, и двойным тепловыделением — целых 500 Вт! Для охлаждения используется водяной радиатор с выносным блоком. Заявленная стоимость данной «игрушки» — 1500$, что более 2.5 раз дороже одночиповой карты. Цена, конечно, высокая, но и производительность запредельная — конкурентов на данный момент просто нет. Единственная карта, способная выдавать в Metro: Last Light при разрешении Full HD и максимальных настройках более 60 FPS, а точнее 71 FPS (для сравнения — GeForce GTX 780 Ti выдаёт менее 53 FPS).

«Размочить» ситуацию вроде как призван GeForce GTX TITAN Z — двухчиповик от NVIDIA, про который пока известно, что он выйдет. Заявленная цена — 3000$. Скорее всего, видеокарта будет быстрее своего конкурента от AMD, однако стоит учесть, что уже сейчас связка из 2-ух GeForce GTX 780 Ti обойдётся даже дешевле Radeon R9 295X2, в свете чего покупка флагмана от NVIDIA если и выглядит перспективной, то только в случае наличия лишних 100.000+ рублей и диким желанием собственноручно «пощупать» новинку.

(8 голосов, в среднем: 4,38 из 5) Загрузка...

a-panov.ru

AMD против Nvidia: сравнение линеек Radeon RX 460-480 и GeForce 1060-1080 / Железо / XCOM-HOBBY

Кошки или собаки, покемоны или телепузики, айфоны или андроиды — благодаря наличию выбора люди всегда находят для себя лучшее сочетание качеств, важных именно для них. Ну а если какой-либо продукт набирает лояльную аудиторию, та неизменно находит себе «недруга» в лице любителей конкурирующего решения. Именно поэтому вот уже много лет в Интернете не стихают сетевые баталии между поклонниками AMD (а ранее — ATI) и Nvidia — двух крупнейших разработчиков видеокарт для компьютерной техники. 

Попробуем разобраться, в чем заключаются отличия между недавно выпущенными новинками двух извечных конкурентов: линейками Nvidia GeForce GTX 1060, 1070, 1080 и AMD Radeon RX 460, 470, 480. А также дадим рекомендации, какое решение будет более оптимальным и в каком случае.

СЕМЕЙСТВО AMD RADEON RX 460-480

Новая линейка видеокарт от AMD, если говорить о ней в целом, продолжает традиционный подход компании к позиционированию своих продуктов: выдавать несколько более слабые, но и более дешевые, чем у конкурента, видеоускорители. Таким образом AMD пытается отыграть назад утраченные за несколько лет позиции, и упор, как мы видим, делается на последовательный рост доли рынка. 

Также стоит разобраться в наименовании видеокарт от AMD, которое несколько усложнилось с выходом последней линейки. Для примера возьмем Radeon RX 480. 

Radeon — это общее маркетинговое название всех видеокарт, когда-то вытеснившее все остальные названия у данного производителя. Оно и лучше для покупателей — проще разобраться, что к чему.

RX — это линейка продуктов, продолжающая «дело» R9. X здесь, судя по всему, обозначает число «10» (просто буква «X» очень популярна в среде маркетологов, да и самих покупателей). Принадлежность к линейке (R5, R7, R9) позволяет сразу определить, насколько производительным считается такое решение. Например, R5 — это бюджетный вариант, который подойдет скорее для онлайн-игр, R7 — уже достаточно мощное решение, с которым хорошо пойдут игры в разрешениях HD и Full HD, а R9 — самые быстрые чипы. 

В случае с новой линейкой этот принцип почему-то был нарушен, и теперь некоторые видеокарты линейки R9 могут быть мощнее таковых из RX, что вызывает недоумение.

480 — последняя часть наименования состоит из двух: первая цифра, «4», означает поколение видеокарт. То есть 300-я серия вышла раньше 400-й, а 200-я, соответственно, еще раньше. Ну а вторая часть, «80», показывает позиционирование по производительности видеокарты в рамках одного поколения. То есть 480 будет мощнее 470, а та, в свою очередь, будет мощнее 460.

На этом закончим ликбез по маркировке устройств и перейдем к рассмотрению конкретных видеокарт.

AMD Radeon RX 480

Radeon RX 480 — это нынешний флагман новой линейки RX (до выхода RX 490, которой, очевидно, и оставили соответствующую маркировку). Видеокарта основывается на графическом процессоре Polaris 10, относящемся к самому современному поколению архитектуры Graphics Core Next (GCN). Ядро работает на заявленной частоте 1120 МГц, можно разогнать до 1266 МГц. Видеокарта оснащается высокоскоростной памятью типа GDDR5 с минимальной тактовой частотой 1750 МГц. Шина памяти — 256 бит, что для такой цены вполне нормально. Общая производительность оценивается в 5,8 терафлопс. Поддержка DirectX 12 в наличии.

Отдельно стоит отметить, что Radeon RX 480 производится по новому техпроцессу — 14-нанометровому FinFET (напомним, почти 5 лет до этого видеокарты выпускались по 28-нанометровому). И это, пожалуй, является главным отличием новых ядер, несмотря на очевидные плюсы от проведенной разработчиком работы в плане оптимизации и использования новых технологий. Также нужно сказать про энергопотребление: несмотря на заявленные 150 Вт, в реальности при средней нагрузке и без разгона видеокарта «кушает» примерно на 20% меньше.

В версии с 4 ГБ памяти RX 480 имеет цену в 200 долларов за референсную плату (18800-18900 рублей в России). Это такая «золотая середина», которая позволит играть на максимальных настройках с разрешением вплоть до 2560х1440. Есть и версия с 8 ГБ памяти, что позволит раскрыться карте в будущем и не менять ее дольше. Такой вариант обойдется покупателю уже в 230 долларов (21300-22500 рублей).

AMD Radeon RX 470

Radeon RX 470 можно назвать более дешевой версией RX 480. Почему не «более дорогой RX 460»? Все просто — в данной видеокарте используется то же ядро, что и в старшей версии — Polaris 10, также выполненное по 14-нанометровому техпроцессу. Рабочая тактовая частота здесь снижена до 926 МГц, с ускорением можно получить 1206 МГц. 

Здесь все та же шустрая память GDDR5, но уже с чуть меньшей тактовой частотой — 1650 МГц. Что важно — интерфейс памяти здесь не урезан и составляет 256 бит, как у старшей версии. В итоге RX 470 выдает при пиковой нагрузке примерно 4,9 терафлопс. Конечно, ниже, чем у RX 480, но в целом сопоставимо. Среднее энергопотребление здесь заявлено как 120 Вт, в реальности значение чуть меньше. За счет уменьшенной производительности такую видеокарту можно советовать при использовании в Full HD разрешении, поскольку при более высоком уже может проседать значение FPS.

Что касается цен, тут все демократичнее: версия с 4 ГБ стоит 150 долларов (17500-18000 рублей в РФ), а с 8 ГБ — 180 долларов (20300-22700 рублей). Речь, конечно, снова идет о референсных платах, версии от сторонних производителей традиционно будут стоить на прилавке несколько бОльших денег.

AMD Radeon RX 460

Radeon RX 460 — однозначно «слабое звено» линейки. Эту видеокарту обделили процессором, установив Polaris 11. Пусть вас не обманывает большее число в наименовании — это самое слабое ядро в серии, несмотря на то, что тоже имеет поддержку DirectX 12 и прочих программных наворотов. 

Уже в самом этом ядре есть ограничения по размеру шины передачи данных — до 128 бит, именно столько и установлено в RX 460. Память здесь все того же типа (GDDR5) с частотой 1750 МГц. Тактовая частота видеопроцессора — 1090 МГц (1200 с разгоном). Энергопотребление составляет до 75 Вт, что весьма немного для видеокарты. Кстати, из всей троицы только у RX 460 нет дополнительного разъема для питания. К сожалению, все эти урезания серьезно сказались на производительности «младшего брата», и он выдает скромные 2,2 терафлопс, разница с RX 470 — более чем двукратная. Логично, что такое решение больше подойдет для сетевых игр с не самой сложной графикой.

Референсная плата с 2 ГБ памяти на борту стоит 100 долларов (8300-8700 рублей у нас), с 4 ГБ — 120 долларов (10100-11300 рублей на данный момент). 

СЕМЕЙСТВО NVIDIA GEFORCE 1060-1080

Самое время обратить взор в зеленый угол ринга и посмотреть, что собой представляют конкурирующие видеокарты от Nvidia. Если говорить о нейминге, здесь все выглядит схожим с AMD образом. Для примера возьмем Nvidia GeForce GTX 1080.

GeForce — общее маркетинговое наименование, как и Radeon. В настоящий момент подразделения на другие линейки, помимо GeForce, просто не существует.

GTX, как и GTS, означает наличие заводского разгона устройства. GT — стандартный графический чип, а версии GS и GSO — «урезанные» решения с меньшей производительностью.

1080 — эта часть названия тоже состоит из двух: «10» — поколение видеокарт, а «80» обозначает позиционирование в рамках этого самого поколения.

Итак, переходим к рассмотрению наших «подопытных».

Nvidia GeForce GTX 1080

GTX 1080 — это старшая модель, как видно из наименования. Основывается она на архитектуре Pascal и новом 16-нанометровом техпроцессе FinFET+, который ну очень долго (практически 5 лет) добирался на замену откровенно устаревшему 28-нанометровому. Проблемой оказалось то, что не получилось добиться высокого качества итогового продукта при переходном техпроцессе (20 нм) — имеющиеся производственные мощности подрядчика TSMC были заточены на производство лишь небольших чипов. 

Проще говоря, почти двукратный рывок в техпроцессе обеспечивает либо снижение потребляемой мощности на 70%, либо повышение тактовых частот на 65%. И то, и другое звучит очень здорово и выглядит действительно большим скачком вперед.

Видеокарта GTX 1080 основывается на новом ядре GP104, и это самое мощное решение в линейке из продающихся на рынке. Относительно предшественника 980 новинка логично выросла в тактовых частотах почти вдвое: 1607 МГц в обычном режиме против 1126, а в режиме разгона — 1733 МГц против 1216. Шина здесь 256-разрядная, а память — еще более быстрая, чем у AMD: теперь это 8 ГБ GDDR5X с частотой 1250 МГц. Кстати, такой тип памяти на текущий момент уникален для рынка, поскольку другие решения этого производителя GDDR5X пока не получили. Основное отличие от GDDR5 — увеличенная пропускная способность: 320 ГБ/с против 256. Энергопотребление здесь составляет до 180 Вт.

Даже нет смысла говорить, что GeForce GTX 1080 получила поддержку DirectX 12 и «до кучи» несколько новых технологий от Nvidia. А вот что может неприятно шокировать, так это цена нашей новинки. 600 долларов за обычную карту (49000-53000 рублей в РФ на момент написания обзора) и 700 долларов (52500-60000 рублей) — за версию Founders Edition (референсный дизайн от Nvidia) выглядят на фоне двукратного падения курса рубля огромной суммой. Однако нужно понимать, что эти деньги вы отдадите за огромную производительность — около 9 терафлопс.

Nvidia GeForce GTX 1070

GTX 1070 — «младшая сестра» 1080 с тем же ядром GP104 на архитектуре Pascal и 16-нанометровым техпроцессом. Частота видеочипа здесь — 1506 МГц, а при разгоне — 1683 МГц. Шина памяти 256-битная, объем — 8 ГБ, на ближайшие несколько лет этого точно будет достаточно. Как мы уже отмечали, тип памяти — GDDR5, приставки «X» она не получила. 

Энергопотребление чуть более скромное — до 150 Вт. Любопытно, что эта карта уже ощутимо ближе по производительности к AMD Radeon RX 480 и выдает около 6,5 терафлопс. Этот показатель все равно выше, чем у решения от AMD, но они хотя бы сравнимы. А вот если говорить о ценах, то Nvidia здесь снова не радует: за GTX 1070 просят 380 долларов (33000-34000 рублей) за обычную версию и 450 долларов (36000-38500 рублей) — за Founders Edition.

Nvidia GeForce GTX 1060

Как и в случае с Radeon RX 460, эта видеокарта оказалась не просто самой слабой из троицы, но и в определенной степени обделенной характеристиками. В частности, базируется это решение на более слабом ядре GP106 с основной рабочей частотой 1506 МГц и 1708 — при разгоне. 

Память здесь все еще типа GDDR5, но шина уже 192-битная, а объем памяти составляет 6 ГБ. Потребление энергии резонно более низкое — 120 Вт. Цена этой младшей версии составляет 250 долларов (21500-24000 рублей в РФ) и 300 долларов (27000-28500 рублей) за Founders Edition. Производительности набирается около 4 терафлопс.

СРАВНЕНИЕ ЛИНЕЕК AMD RADEON RX 460-480 И NVIDIA GEFORCE 1060-1080

Вот мы и подошли к моменту, когда нужно расставить все точки над «i». Как вы могли заметить, мы не брали за цель сделать подробный обзор каждой видеокарты, поэтому намеренно опустили многие подробности о количестве универсальных процессоров и текстурных блоков, разъемах и применяемых для вычислений технических решениях. 

Техногики в любом случае уже наверняка решили, что покупать, нашей же целью было дать возможность разобраться с выбором обычным пользователям. Чтобы максимально упростить вам задачу, представим в таблице самые важные показатели: названия, общую производительность и цены видеокарт. У видеокарт AMD выделим отдельно версии с разным количеством памяти, а у карт Nvidia выделять отдельно Founders Edition не имеет смысла — с технической точки зрения это идентичные устройства.

Модель видеокартыМаксимальная производительность,терафлопсМинимальная цена,руб.
Nvidia GeForce GTX 10809От 49 000
Nvidia GeForce GTX 10706,5От 33 000
Nvidia GeForce GTX 10604От 21 500
AMD Radeon RX 480 (8 ГБ)5,8От 21 300
AMD Radeon RX 470 (8 ГБ)4,9От 20 300
AMD Radeon RX 480 (4 ГБ)5,8От 18 800
AMD Radeon RX 470 (4 ГБ)4,9От 17 500
AMD Radeon RX 460 (4 ГБ)2,2От 10 100
AMD Radeon RX 460 (2 ГБ)2,2От 8300

В таблице выше мы представили видеокарты по уменьшению цены. Как легко можно заметить, решения от Nvidia занимают верхние строчки, имея наибольшие ценники. Разве что Nvidia GeForce GTX 1060 и AMD Radeon RX 480 (8 ГБ) стоят практически одинаково. Однако если представить эту же таблицу несколько иначе — по максимальной производительности, — то все станет куда интереснее.

Модель видеокартыМаксимальная производительность,терафлопсМинимальная цена,руб.
Nvidia GeForce GTX 10809От 49 000
Nvidia GeForce GTX 10706,5От 33 000
AMD Radeon RX 480 (8 ГБ)5,8От 21 300
AMD Radeon RX 480 (4 ГБ)5,8От 18 800
AMD Radeon RX 470 (8 ГБ)4,9От 20 300
AMD Radeon RX 470 (4 ГБ)4,9От 17 500
Nvidia GeForce GTX 10604От 21 500
AMD Radeon RX 460 (4 ГБ)2,2От 10 100
AMD Radeon RX 460 (2 ГБ)2,2От 8300

www.xcom-hobby.ru

Что выбрать - Nvidia или Radeon? Видеокарты

Плюсы. Плюсы в том, что Nvidia всегда хорошо оптимизирует свои драйвера под игры. То есть у этих карт обнаруживается меньше различных глюков и багов в игровых приложениях. Но меньше — не значит, что их нет!

Тому, кто собирается проводить на своих компьютерах математические вычисления, пригодится технология CUDA. Но большинство пользователей покупает карту, чтобы играть, а не просчитывать какие-либо алгоритмы.

Раньше несомненным достоинством видеокарт Nvidia было наличие физического движка Nvidia PhysX, однако теперь игр с ним практически не выпускают, а играть в «старьё» хотят немногие. Еще одним достоинством на тот момент являлась поддержка Nvidia 3D Vision. Вот, на мой взгляд, и все достоинства данных видеокарт. Теперь о недостатках.

Минусы. Первый и, пожалуй, самый решающий минус — это цена. В сегменте конкурирующих продуктов, например. Когда я выбирал между Nvidia GTX 470 и ATI Radeon 5850, Nvidia стоил почти 17 тысяч рублей, а Radeon — всего 10 700. И это практически при равной производительности!

Но в то время видеокарты ATI не поддерживали 3D, и тем, кто хотел играть в более интересном режиме, волей-неволей приходилось брать GTX 470. Сейчас же ситуация изменилась, и при выборе, например, между ATI Radeon 6970 и Nvidia GTX 580 я бы однозначно остановился на первой.

Второй, не менее удручающий минус — это температура. Моя GTX 470 в ресурсоёмких играх прогревалась до 97 градусов! Вы только подумайте! Такая печка подпортит температурный режим любого компьютера. Из-за неё очень сильно грелся процессор и материнская плата. На производительности это, конечно, не отражалось, но на разгон влияло очень сильно.

И повлияло еще на «долгожительство» в летнее время года. Карта «спеклась» в августе месяце и восстановлению не подлежала. Печально, не правда ли?

Потом мною была куплена Sapphire Radeon HD5850, которая летом в самых тяжелых синтетических тестах не прогрелась даже до 90 градусов. В играх же, как правило, температура её была не выше 62 градусов. Живёт она у меня и по сей день, уже год и два месяца.

Radeon

Плюсы. У этих карт более низкая цена при равной, а зачастую и большей производительности. Лично мне больше понравилось качество картинки на картах Radeon, чем на Nvidia. У Radeon более реалистичные и мягкие цвета, но это только моё мнение.

Более низкая температура по отношению к конкуренту. Энергопотребление карт от Radeon, как правило, ниже, чем у карт от Nvidia.

На картах референсного дизайна есть функция управления питанием, что привлечет любителей разгона. Можно играть и смотреть фильмы сразу на шести мониторах, соединив их в один огромный.

Минусы. Один из главных минусов — это работа видеокарты с тенями. Во многих играх тени просто ужасные. Они угловатые и теряют свою четкость буквально в двух метрах от того места, где вы находитесь. Когда я это увидел, ужаснулся.

Кривые в доску драйвера. Зачастую приходится долго ждать патчей для какой-нибудь игры, чтобы та, наконец, запустилась без багов, или самому копаться в настройках драйвера, чтобы хоть как-то поиграть. Это всё сильно утомляет и даже бесит.

Вот, кажется, и всё. Для себя я выбрал Radeon. Для меня не критичны его минусы, хоть иногда и утомляют. А вот минусы Nvidia кажутся недопустимыми. Хотя такое положение дел может измениться с выходом новых продуктов Nvidia.

Однако это всего лишь личное мнение на основе личного опыта, и я никого не призываю к нему прислушиваться. Тем более, что спор в стиле «Nvidia или Radeon» будет идти до тех пор, пока одна из компаний не перестанет существовать. Теги: компьютеры, видеокарта, комплектующие, выбор, покупка

shkolazhizni.ru


Смотрите также