Cекретные материалы от ATi. Обзор новых видеокарт серии Radeon X800. Обзор видеокарты ATI RADEON VE Результаты тестов: сравнение производительности

каких-то загадочных проектах...
Теперь мы можем снять завесу секретности. В период майских праздников, когда все отдыхали, ATi анонсировала новую линейку графических карт на базе GPU Radeon X800 с кодовым названием R420 . Если вы подумали, что “X ” в названии чипа означает поддержку DirectX 10 , то вы ошибаетесь. Х - обычная римская цифра “10”. Просто после линейки 9xxx надо было придумать новое обозначение. Вот и появился X800.

R420: старый новый знакомый
Монстр от nVidia по имени NV40 состоит из 222 млн. транзисторов. R420 оказался куда скромнее - “всего” 160 млн. транзисторов. Графический процессор ATi производится по 0,13 мкм техпроцессу. Пока в новой линейке видеокарт от ATi будут всего две модели - X800 Pro и X800 XT Platinum Edition (PE ). Они отличаются между собой частотами ядра и памяти, а также количеством пиксельных конвейеров - 12 у X800 Pro и 16 у X800 XT PE. Карты серии X800 используют память GDDR3 , которая отличается пониженным тепловыделением. В отличие от GeForce 6800 Ultra видеокарты на базе X800 потребляют энергии не больше, чем Radeon 9800XT и GeForce 5950 Ultra . Поэтому для питания видеокарты нужен только один дополнительный разъем. Графический процессор не сильно греется, поэтому для X800 используется та же система охлаждения, что и для Radeon 9800XT. Напомним, что она занимает только один соседний слот.
Рядом с разъемом питания на плате находится видеовход, который можно вынести на переднюю панель системного блока, разъем видеовхода (3,5 - или 5,25 -дюймовый отсек). Как вы уже догадались, функция захвата и вывода видео (VIVO ) теперь стандартная. За нее отвечает чип ATi Rage Theater .

Технологические характеристики видеокарт от ATi и nVidia
Карта ATi Radeon 9800XT ATi X800 Pro ATi X800 XT Platinum Edition nVidia GeForceFX 5950 Ultra nVidia GeForce 6800 Ultra
Кодовое название R360 R420 R420 NV38 NV40
Технология чипа 256 бит 256 бит 256 бит 256 бит 256 бит
Техпроцесс 0,15 мкм 0,13 мкм low-k 0,13 мкм low-k 0,13 мкм 0,13 мкм
Число транзисторов ~107 млн. 160 млн. 160 млн. 130 млн. 222 млн.
Шина памяти 256 бит GDDR 256 бит GDDR3 256 бит GDDR3 256 бит GDDR 256 бит GDDR3
Пропускная способность 23,4 Гбайт/с 28,8 Гбайт/с 35,84 Гбайт/с 30,4 Гбайт/с 35,2 Гбайт/с
AGP 2x/4x/8x 2x/4x/8x 2x/4x/8x 2x/4x/8x 2x/4x/8x
Память 256 Мбайт 128/256 Мбайт 128/256 Мбайт 128/256 Мбайт 128/256/512 Мбайт
Частота GPU 412 МГц 475 МГц 520 МГц 475 МГц 400 МГц
Частота памяти 365 МГц (730 DDR) 450 МГц (900 МГц DDR) 560 МГц (1120 МГц DDR) 475 МГц (950 DDR) 550 МГц (1100 DDR)
Число блоков вершинных программ 4 6 6 Массив FP 6
Число пиксельных конвейеров 8x1 12x1 16x1 4x2 / 8x0 16x1 / 32x0
Версия вершинных/пиксельных программ 2.0/2.0 2.0/2.0 2.0/2.0 2.0/2.0 3.0/3.0
Версия DirectX 9.0 9.0 9.0 9.0 9.0c
Число выходов на дисплей 2 2 2 2 2
Дополнительно ТВ-кодер на чипе;
FullStream;
адаптивная фильтрация;
F-Buffer
ТВ-кодер на чипе;
FullStream;
адаптивная фильтрация;
F-Buffer;
сжатие карт нормалей 3Dc;
временное сглаживание;
VIVO;
SmartShader HD;
Smoothvision HD;
Hyper Z HD
ТВ-кодер на чипе;
FullStream;
адаптивная фильтрация;
F-Buffer;
сжатие карт нормалей 3Dc;
временное сглаживание;
VIVO;
SmartShader HD;
Smoothvision HD;
Hyper Z HD
ТВ-кодер на чипе;
адаптивная фильтрация;
UltraShadow
Видеопроцессор и ТВ-кодер на чипе;
расширенная программируемость;
адаптивная фильтрация; настоящая трилинейная фильтрация;
UltraShadow II
Цена на момент выхода $499 $399 $499 $499 $499
Розничная цена $440 $420

Новых функций у X800 не так много. ATi решила пойти по пути дальнейшего улучшения проверенной архитектуры R3xx . Рецепт успеха прост: больше вершинных и пиксельных блоков плюс некоторые оптимизации в ядре. У R420 есть две по-настоящему новые функции: 3Dc и временное сглаживание (Temporal FSAA ). О них мы поговорим позже.
Radeon X800 Pro появится в продаже в мае-июне, чуть позже ATi выпустит старшую модель - X800 XT Platinum Edition. В версии Pro используется тот же графический чип, что и в XT PE. Но у нее отключены 4 конвейера.
ATi High Definition Gaming - Hi-Fi в мире игр
В мире телевидения сегодня наблюдается переход в сторону HDTV (High Definition Television ) - телевидения высокого разрешения. ATi решила использовать термин HD в своих обновленных технологиях: SmartShader HD , Smoothvision HD и Hyper Z HD .
По сути, ядро R420 является развитием удачного и мощного DX9-чипа R300 (Radeon 9700 Pro ). Подобно предшественникам, X800 поддерживает DirectX 9.0 и пиксельные-вершинные программы версии 2.0 . В то время как nVidia добавила в GeForce 6800 Ultra поддержку пиксельных и вершинных шейдеров 3.0 . Кроме того, точность вычислений с плавающей запятой у R420 ограничена 24 битами (напомним, что блоки пиксельных программ у NV40 теперь могут быстро работать с 32 -битными числами). X800 Pro/XT PE использует 256-битную шину, разделенную на четыре канала по 64 бита. ATi увеличила число вершинных блоков с четырех (в Radeon 9800XT) до шести (в X800). Получается, что X800 технологически отстает от GeForce 6800, однако сегодня вряд ли возможно достоверно заявлять о слабости ATi, пока не появятся DirectX 9.0c и игры с использованием программ-шейдеров 3.0.

3Dc - новая технология для сжатия карт нормалей
В новом R420 инженеры ATi использовали новую технологию - 3Dc (более подробно о картах нормалей смотрите в разделе “Карты нормалей и 3Dc”). Она позволяет уменьшить размер файла карты нормалей, экономя память. Теперь у разработчиков есть два пути: они могут повысить производительность игр, введя поддержку сжатия этих карт, или увеличить детализацию игрового мира, используя более сложные и детализованные карты с применением компрессии. Добавление поддержки новой

технологии в игры не должно составить большого труда разработчикам.
3Dc аппаратно поддерживается всеми картами на ядре R420. Но о поддержке этой функции в старых чипах придется забыть. Есть большая вероятность, что в новой версии DirectX появится поддержка 3Dc. В любом случае, компания продвигает новую технологию как открытый стандарт, и в скором времени мы увидим несколько игр с поддержкой 3Dc (DOOM III , Half-Life 2 и Serious Sam 2 ).

К примеру, сжатие текстур (S3TC , DXTC ) используется уже достаточно давно и позволяет уменьшить размер текстур с высоким разрешением. При этом
текстуры хранятся в сжатом формате.
Многие современные игры, например Far Cry, используют улучшенный метод отображения неровностей под названием “карты нормалей ” (Normal Mapping ). Они представляют собой специальные текстуры, содержащие информацию о деталях объекта. Использование карт нормалей, как и карт
неровностей, позволяет увеличить детализацию объекта, не прибегая к увеличению количества полигонов в моделях. В X800 компания решила использовать новую технологию аппаратного сжатия текстур карт нормалей - 3Dc .
Суть технологии карт нормалей заключается в том, что сначала разработчику игры необходимо создать очень детализованную модель персонажа с использованием большого числа полигонов. Затем создается реальный игровой персонаж с помощью упрощенной модели с меньшим количеством полигонов. После этого просчитываются различия между двумя моделями, которые записываются в виде своеобразной текстуры (карты нормалей). В них содержатся детали, потерянные при переходе от одной модели к другой. Карта нормалей затем может быть применена к упрощенной
модели, заставляя ее выглядеть точно так же, как и модель с большим количеством полигонов. Стопроцентного сходства с оригиналом добиться невозможно, поскольку карта нормалей не содержит геометрической информации.
В левой верхней части изображена модель головы, состоящая из 15000 полигонов. В левой нижней части построена упрощенная модель (всего 1000 полигонов). Между двумя моделями просчитывается разница и записывается отдельно в качестве карты нормалей (справа вверху). В игре или программе графический процессор берет за основу простую модель и накладывает на нее карту нормалей с использованием пиксельных программ для эффектов освещения. В итоге мы получили качественную модель головы, используя всего 1000 полигонов!
Однако с использованием карт нормалей связано несколько недостатков. Во-первых, увеличивается нагрузка на графический процессор, поскольку карты нормалей, по сути, являются еще одной текстурой, накладываемой на полигоны. Во-вторых, требуется больше данных. Чем больше деталей желает использовать разработчик, тем выше будет разрешение используемой карты нормалей - и тем больше потребуется пропускной способности памяти. Хотя карта нормалей может сжиматься с помощью алгоритма DXTC, обычно при этом возникают заметные дефекты изображения. Подобно тому, как S3 разработала собственную технологию S3TC, когда появились проблемы с большими текстурами, ATi предложила новую технологию сжатия 3Dc, специально предназначенную для карт нормалей. По данным ATi, новый метод способен уменьшать размер карт нормалей в четыре раза без заметного влияния на качество.
Smoothvision HD - новое полноэкранное сглаживание
Видеокарты от ATi всегда славились качественной реализацией полноэкранного сглаживания (FSAA - Full Screen Anti-Aliasing ). Графические чипы компании способны поддерживать уровень сэмплирования вплоть до 6x в комбинации с гамма-коррекцией цвета по краям объектов. Это дает великолепное
качество картинки.
С выпуском линейки X800 компания реализовала новую технологию сглаживания, которая названа “временным сглаживанием” (или “темпоральным” - Temporal AA ).
Глаз человека воспринимает последовательность кадров на экране как постоянно движущуюся картинку, так как глаз не может заметить смену кадров, происходящую за миллисекунды.
При прорисовке кадра TAA меняет расположение субпикселей - оно изменяется с учетом инерционности нашего глаза. Это позволяет получить изображение более высокого качества, чем при
использовании обычного FSAA.
Но у временного сглаживания есть определенные ограничения. Начнем с того, что при его использовании вертикальная синхронизация (V-Sync ) должна быть включена. Минимальная скорость обновления кадров должна составлять 58 fps . Если частота кадров упадет ниже этого ограничения, то временное сглаживание автоматически сменится на обычное, до тех пор пока fps вновь не вырастут. Все дело в том, что при меньшей частоте обновления различия между кадрами станут заметны глазу. Это приведет к ухудшению качества картинки.
Идея новой функции очевидна. 2xTAA (временное сглаживание) обеспечивает тот же уровень качества, что и 4xFSAA . Но самое главное то, что при этом затрачивается немного ресурсов видеокарты (не более, чем для 2xAA ). Временное сглаживание уже реализовано в новых драйверах. Возможно, эта функция будет также поддерживаться и в картах поколения 9x00 в будущих версиях драйверов Catalyst (за исключением 9000 и 9200 , которые не обладают поддержкой DX9).

Тестовая конфигурация
Не будем дальше углубляться в теорию, а перейдем к тестированию самих видеокарт. Для проведения тестов мы использовали драйвер Catalyst 4.4 для карт от ATi, а для продукции nVidia - драйвер ForceWare 60.72 .

Тестовая система
Процессор Intel Pentium 4 3,2 ГГц
Частота FSB 200 МГц (800 МГц QDR)
Материнская плата Gigabyte GA-8IG 1000 PRO (i865)
Память 2x Kingston PC3500, 1024 Мбайт
Жесткий диск Seagate Barracuda 7200.7 120 Гбайт S-ATA (8 Мбайт)
DVD Hitachi GD-7000
LAN Netgear FA-312
Блок питания Antec True Control 550 Вт
Драйверы и настройки
Графика ATI Catalyst 4.4
NVIDIA 60.72
Чипсет Intel Inf. Update
ОС Windows XP Prof. SP1a
DirectX DirectX 9.0b
Используемые графические карты
ATi Radeon 9800XT (Sapphire)
Radeon X800 Pro (ATi)
Radeon X800 XT Platinum Edition (ATi)
nVidia GeForce FX 5950 Ultra (Nvidia)
GeForce 6800 Ultra (Nvidia)

Результаты тестирования
Видеокарты мы тестировали в самых разных играх и тестовых приложениях, включая AquaMark3 , Call of Duty , Colin McRae Rally 04 , Far Cry , Unreal Tournament 2004 , X2: The Threat . Все тесты мы провели как в обычном режиме, так и в “тяжелом” - с включением анизотропной фильтрации и полноэкранного сглаживания (кроме AquaMark3).
В тесте AquaMark3 от Massive Development абсолютным победителем стал GeForce 6800 Ultra. Продолжая победный темп, NV40 показал лучшие результаты и в игре Call of Duty. При этом обогнал X800 XT PE во всех тестах, даже в “тяжелых” режимах.
Результаты тестов
Radeon 9800XT Radeon X800 Pro Radeon X800 XT PE GeForce FX 5950 Ultra GeForce 6800 Ultra
AquaMark - Normal Quality
Score 46569 54080 58006 44851 61873
Call of Duty - Normal Quality
1024x768 146,5 218,5 253,4 141,0 256,4
1280x1024 101,2 156,0 195,8 97,4 219,5
1600x1200 70,7 113,5 145,5 69,6 175,2
Call of Duty - 4xFSAA, 8x Aniso
1024x768 70,1 110,2 146,9 63,1 157,4
1280x1024 47,6 75,7 100,4 42,8 110,8
1600x1200 33,1 53,7 71,3 30,5 82,1
Colin McRae Rally 04 - Normal Quality
1024x768 130,5 172,5 174,8 91,2 166,0
1280x1024 95,8 133,8 172,8 68,5 163,2
1600x1200 67,6 95,1 141,4 49,5 132,1
Colin McRae Rally 04 - 4xFSAA, 8x Aniso
1024x768 70,5 107,6 142,2 52,3 118,0
1280x1024 53,3 81,1 105,7 40,6 92,5
1600x1200 39,1 59,9 76,7 30,5 70,2
FarCry Outdoor 1024x768
Normal Quality 55,0 75,3 81,2 48,6 66,8
FSAA High, Aniso 4 30,3 49,0 68,8 30,7 50,5
FarCry Indoor 1024x768
Normal Quality 45,1 69,6 90,8 28,5 74,7
FSAA High, Aniso 4 25,9 41,5 59,6 20,9 53,1
Unreal Tournament 2004 - Normal Quality
1024x768 106,9 104,6 105,3 104,1 103,7
1280x1024 94,4 105,0 104,9 95,7 103,6
1600x1200 69,1 97,1 104,5 72,8 102,9
Unreal Tournament 2004 - 4xFSAA, 8x Aniso
1024x768 75,1 104,6 105,0 80,5 102,7
1280x1024 52,5 92,2 101,9 54,7 84,9
1600x1200 38,2 68,5 82,3 39,1 64,1
X2 - The Threat - Normal Quality
1024x768 67,9 80,0 83,4 74,3 84,6
1280x1024 54,7 68,5 76,7 61,1 75,3
1600x1200 44,2 58,9 68,4 50,5 67,1
X2 - The Threat - 4xFSAA, 8x Aniso
1024x768 48,9 62,4 69,7 53,9 73,2
1280x1024 36,1 51,1 58,9 40,1 61,1
1600x1200 28,4 42,6 49,8 30,6 51,8

В следующем тесте ATi отыгралась сполна. В игре Colin McRae Rally 04 видеокарта X800 XT PE оказалась на голову выше своих соперников, особенно это было заметно в режиме с включенной анизотропной фильтрацией и полноэкранным сглаживанием. Ситуация повторилась и в игре Far Cry - победа осталась вновь за флагманом от ATi. Следующей игрой, в которой мы тестировали видеокарты, был Unreal Tournament 2004. В обычном режиме все три карты показали примерно равные результаты. Включение ANISO и FSAA полностью изменило картину: X800 Pro и X800 XT PE просто ушли в отрыв! При этом даже Pro-версия умудрилась обогнать GeForce 6800 Ultra. В последнем тесте - X2: The Threat - результаты тестов у NV40 и X800 XT PE оказались примерно равны.

Заключение
Мы не успели еще толком оправиться после впечатляющих результатов, показанных nVidia GeForce 6800 Ultra, как теперь нас удивила ATi. Radeon X800 XT Platinum Edition показал очень высокую производительность, даже X800 Pro с 12 конвейерами в некоторых тестах обошел GeForce 6800 Ultra.
Канадцы из ATi поработали на славу. Энергопотребление у карт серии X800 оказалось почти на том же уровне, что и у предшественника в лице 9800XT. Именно поэтому новым картам от ATi требуется всего один разъем питания, в отличие от GeForce 6800 Ultra, которому нужно два. Ядро R420 оказалось и менее горячим. Для его охлаждения используется стандартный кулер, который занимает только один соседний слот (у GeForce 6800 Ultra - два). У ядра R420 оказалось много нововведений, среди которых - чип ATi Rage Theater с поддержкой VIVO, инновационная технология 3Dc, которая способна улучшить качество графики в играх, а также оригинальная технология временного полноэкранного сглаживания (Temporal FSAA).

Каким бы удачным ни было ядро R420, и у него есть свои недостатки. Карты серии X800 по-прежнему ограничены 24-битной точностью вычислений с плавающей запятой и поддержкой версии программ-шейдеров 2.0. В то время как GeForce 6800 Ultra использует 32-битную точность вычислений без потери скорости и поддержку шейдеров версии 3.0.
X800 XT Platinum Edition и GeForce 6800 Ultra показывают невероятную производительность. Но X800 XT PE выглядит предпочтительнее. Эта видеокарта от ATi показала очень высокую производительность именно в высокотехнологичных современных играх, таких как Unreal Tournament 2004, Far Cry и Colin McRae Rally 04.
Новый виток противостояния двух компаний только начался, и еще рано подводить окончательные итоги. В ближайшее время появятся бюджетные варианты видеокарт от двух компаний, а также карты с поддержкой PCI Express . Так что к теме противостояния канадской компании ATi и американской nVidia мы обязательно вернемся, и не один раз.
Энергопотребление
В статье про NV40 мы говорили о большой прожорливости GeForce 6800 Ultra. В этой статье мы провели тестирование, в котором выяснили, как много энергии потребляют современные видеокарты. Поскольку отдельно для карт это сделать нельзя, в нашей таблице приведены значения энергопотребления всего компьютера. Мы использовали одинаковую конфигурацию системы для всех карт.
Результаты измерений
Radeon 9600 XT 203
Radeon 9800 XT 261
Radeon X800 Pro 242
Radeon X800 XT 263
GeForce 4 Ti 4800 230
GeForce FX 5700U GDDR3 221
GeForce FX 5950 Ultra 264
GeForce 6800 Ultra 288
Приведенные значения показывают максимальное энергопотребление во время прохождения тестов в 3DMark03 . Пиковое энергопотребление у X800 XT PE оказывается чуть выше, чем у Radeon 9800XT. А X800 Pro требует и того меньше. Титул самой “прожорливой” карты достался GeForce 6800 Ultra.

ВведениеКак Вы помните, минувшим летом компания ATI выпустила сразу два новых графических чипа - RADEON 8500 и RADEON 7500.
В RADEON 8500 были собраны новейшие наработки ATI, и я не ошибусь, если скажу, что за последнее время этот графический чип стал самым богатым на новые функции и возможности, особенно на фоне появления "как-бы новых" чипов серии Titanium от NVIDIA. RADEON 8500 оказался очень быстрым, интересным, не без недостатков, конечно, но вызов, брошенный топовыми моделями от "заклятого друга", он принял достойно.
Младший братец из нового семейства - RADEON 7500 - находящийся в тени RADEON 8500, не привлек такого внимания, не был с такой же силой обласкан или обруган на страницах Сети, хотя внимания он, как новый продукт, заслуживает не меньшего.
ATI RADEON 7500 изготавливается по 0.15мкм-технологии, его 3D-часть целиком унаследована от ATI RADEON, а 2D часть - от RADEON VE.
Таким образом, в RADEON 7500 оказались собраными уже давно отлаженные, прошедшие проверку временем, детали архитектуры. А переразводка чипа и перевод его на более тонкий техпроцесс позволили добиться работы на очень высоких частотах - до 300 МГц и выше. В результате появился новый чип, имеющий архитектуру ATI RADEON, но почти вдвое более быстрый, и заодно имеющий качественную поддержку двухмониторных конфигураций. Цель выпуска ATI RADEON 7500 - потеснить "заклятого друга" в секторе видеокарт среднего уровня - NVIDIA GeForce2 Pro, GeForce2 Ti и, отчасти, GeForce3 Ti200.

Сейчас платы на базе чипа ATI RADEON 7500 продаются уже повсеместно, и в этом есть еще одна заслуга ATI: наконец-то, производство видеокарт было отдано сторонним компаниям, что сразу позволило уменьшить цену и увеличить количество выпускаемых видеокарт.
Наша цель - разобраться, что есть RADEON 7500, и постараться объективно сравнить платы на его основе с близкими по цене видеокартами на чипах от NVIDIA.
Приступим?

Характеристики и возможности ATI RADEON 7500

Основные характеристики чипа и 3D-возможности:

Частота работы - 270-290 МГц
Интерфейс видеопамяти - 64/128 бит SDRAM или DDR SDRAM
Количество пиксельных конвейеров - 2
Количество текстурных модулей - 3 в каждом конвейере
Наложение до трех текстур за один проход
Билинейная, трилинейная и анизотропная фильтрация текстур
Имитация рельефности методами Emboss, Dot3, EMBM
Поддержка компресси текстур S3TC/DXTC
Полноэкранное сглаживание 2х, 4х методом суперсэмплинга
Аппаратный блок T&L
Поддержка HyperZ

Возможности в части 2D и воспроизведения видео:

Два встроенных CRT-контроллера
Два встроенных RAMDAC с частотой преобразования 350 МГц
Встроенный TMDS-трансмиттер для вывода на цифровые мониторы
Встроенный ТВ-кодер для вывода изображения на ТВ.
Поддержка адаптивного деинтерлейсинга
Поддержка аппаратного декодирования DVD - iDCT

Итак, из вышенаписанного следует, что ATI RADEON 7500 поддерживает двухмониторные конфигурации. Возможны следующие комбинации подключения к RADEON 7500:

Аналоговый монитор + аналоговый монитор (при наличии переходника DVI-I -> VGA)
Аналоговый мониор + цифровой монитор
Аналоговый монитор + телевизор
Цифровой монитор + телевизор

Что примечательно, на RADEON 7500 "первичным" или "вторичным" может быть совершенно любое устройство отображения, так как у RADEON 7500, как и у RADEON VE, оба CRT-контроллера совершенно равноправны.
В обзоре ATI RADEON VE работа в двухмониторных конфигурациях рассмотрена достаточно подробно, поэтому нет смысла повторять это и сейчас.

Плата ATI RADEON 7500

Плата ATI RADEON 7500 укомплектована выходами VGA, DVI и S-Video, но не производит впечатления обилием микросхем - всё, что нужно, интегрировано в ядро RADEON 7500:


"Сердце" платы - чип ATI RADEON 7500, выполненный по 0.15мкм-технологии:


Плата укомплектована 64 МБ видеопамяти DDR SDRAM производства Hynix с временем цикла 4нс.:


Тактовые частоты ядра и видеопамяти на плате, принявшей участие в тестировании - ATI RADEON 7500 OEM, составляют по умолчанию 270/460 (230 DDR) МГц.
Что характерно, ситуация с частотами ядра RADEON 7500 и RADEON 8500 схожа: только Retail-платы ATI RADEON 7500 имеют тактовую частоту ядра 290 МГц, а все остальные видеокарты на базе ATI RADEON 7500, включая RADEON 7500 в OEM-варианте от самой ATI, имеют частоту ядра 270 МГц. Частота же видеопамяти на всех платах на базе ATI RADEON 7500 пока, к счастью, одинакова и составляет 230 (460 DDR) МГц.
При проведении тестов мы установили частоты работы платы ATI RADEON 7500 в 290/230 МГц, как у Retail ATI RADEON 7500

Тестовая система

Для тестирования плат была использована система:

Процессор - AMD Athlon XP 1500+;
Материнская плата – MSI K7T266 Pro2 v2.0 (VIA KT266A);
Память - 2*128 МБ DDR SDRAM PC 2100 Nanya CL2;
Жесткий диск – Fujitsu MPF3153AH.

Программное обеспечение:

Драйвер версии 6.13.10.6011 под Windows XP для ATI RADEON 7500;
Драйвер Detonator 23.11 под Windows XP для плат на чипах NVIDIA;
Max Payne;
Serious Sam v1.05;
3DMark 2001;
Quake3 Arena v1.27;
Windows XP.

Для сравнения производительности вместе с ATI RADEON 7500 были протестированы платы:

SUMA Platinum GeForce2 Pro (NVIDIA GeForce2 Pro, 200/400 МГц , 64 МБ DDR SDRAM)
VisionTek Xtasy 5864 (NVIDIA GeForce2 Ti, 250/460 МГц , 64 МБ DDR SDRAM)
VisionTek Xtasy 6564 (NVIDIA GeForce3 Ti200, 175/400 МГц , 64 МБ DDR SDRAM)

Скорость в 3D

3DMark 2001

Для начала - синтетические тесты 3DMark 2001 на скорость заполнения и обработки полигонов:



ATI RADEON 7500, за счет оптимизации работы с Z-буфером и возможности наложения трех текстур за один проход, имеет самые низкие потери в скорости заполнения сцены при переходе от 16-битных режимов экрана, Z-буфера и качества текстур к 32-битным. К тому же, из-за более высокой частоты видеопамяти, максимальная пропускная способность видеопамяти на ATI RADEON 7500 выше, чем у его конкурентов по этому тесту.
Но потери - потерями, а производительность у ATI RADEON 7500 оказывается ниже, чем у платы на базе NVIDIA GeForce3 Ti200, несмотря на более низкую тактовую частоту видеопамяти последней. Здесь роль сыграло как вдвое большее количество пиксельных конвейеров GeForce3 Ti200, обеспечившее большую теоретическую скорость заполнения, так и архитектура памяти GeForce3 - LightSpeed Memory Architecture, позволившая эффективно использовать пропускную способность видеопамяти. В результате, NVIDIA GeForce3 Ti200 и ATI RADEON 7500 - лидеры в этом тесте.



При использовании аппаратного блока T&L ATI RADEON 7500 оказывается лидером, однако, это не значит, что блок трансформации и освещения на RADEON 7500 намного мощнее, чем на GeForce2 Ti или GeForce2 Pro. Стоит вспомнить, что ATI RADEON 7500 имеет самую высокую частоту ядра среди всех участников теста, и если произвести несложные вычисления, представив, каким будет результат ATI RADEON 7500 при частоте ядра в 175-200 МГц, то станет ясно, что производительность блока T&L RADEON 7500 примерно равна производительности GeForce2 Pro / Ti - на равных с ними частотах он окажется чуть медленнее в тесте с одним источником освещения, и чуть быстрее - в тесте с 8 огнями.
В случае с программным расчетом геометрии сцены ATI RADEON 7500 оказывается явным аутсайдером, и обвинить в этом можно только качество оптимизации драйверов.

Честно говоря, можно было бы рассмотреть и другие тесты, показать другие особенности архитектуры ATI RADEON 7500, например, работу трех текстурных модулей или HyperZ, но, во-первых, это не столь уж интересно, а во-вторых, ничего нового в этом плане от RADEON 7500 ожидать не стоит - 3D-часть ATI RADEON 7500 не имеет никаких нововведений относительно старого доброго RADEON.
Посему, закругляемся с синтетическими тестами и переходим к игровым.

Тестирование в 3DMark 2001 было произведено только в тестах Dragothic и Lobby - первый из оставшихся, Car Chase, был уличен в слишком сильном разбросе результатов и большой зависимости от скорости процессора, а второй, Nature, сами понимаете, пойдет только на GeForce3 Ti200.





Неплохой для ATI RADEON 7500 результат. Благодаря тому, что в этом тесте используется наложение трех текстур, а показатель Overdraw достаточно велик, что дает простор для действия HyperZ, RADEON 7500 оказывается ненамного медленнее GeForce2 Pro/Ti в режиме "Low Details", а в "High Details" и вовсе уверенно держится на втором месте. Разумеется, опередить GeForce3 Ti200, обладающий более современной архитектурой, RADEON 7500 оказался не в состоянии.





ATI RADEON 7500, имея всего 2 пиксельных конвейера и меньшую скорость заполнения сцены, в 16-битных режимах оказывается медленнее, чем GeForce2 Pro/Ti. Но в 32 битах, благодаря действию HyperZ и объемным кэшам, неуверенная позиция RADEON 7500 крепнет и при повышении разрешения превращается в солидный, с 20-и процентным запасом по скорости, отрыв от GeForce2 Pro/Ti.
Лидер - по-прежнему, NVIDIA GeForce3 Ti200.

Max Payne

Для тестирования в Max Payne был использован benchmark mod и тестовая сцена PCGH"s Final Scene No1 , описание которых находится на немецком сайте 3DCenter .
Тестирование было произведено в двух вариантах:

1-й вариант - "quality " - установлены максимальные настройки качества графики, глубина цвета текстур и буфера кадра - 32 бита, но фильтрация текстур - не анизотропная, а трилинейная, и полноэкранное сглаживание выключено (мы же всё-таки не GeForce3 Ti500 и RADEON 8500 тестируем:)...)
2-й вариант - "speed " - минимальные настройки качества графики, глубина цвета текстур и буфера кадра - 16 бит.

Такими тестами, я надеюсь, будут удовлетворены и любители "скорости любой ценой", и те, кому качество картинки важнее количества кадров в секунду:


Как видно, разница в скорости между режимами "quality" и "speed" велика, однако, результаты, которые показывают видеокарты, очень близки. Результаты ATI RADEON 7500, NVIDIA GeForce2 Pro и GeForce2 Ti находятся примерно на одном уровне, лидер же - снова GeForce3 Ti200.
По качеству работы в Max Payne к ATI RADEON 7500 не возникло никаких претензий, лишь в режиме 1600х1200 он отказался работать, выдав сообщение об ошибке:



Quake3 Arena

Тестирование в Quake3 Arena было произведено в традиционных условиях: максимальные настройки качества, трилинейная фильтрация включена, компрессия текстур - выключена:


В 16-битных режимах, как и следовало ожидать, RADEON 7500 - аутсайдер, однако, в 32-битных режимах его производительность, благодаря более сбалансированной архитектуре, сравнивается с GeForce2 Pro/Ti, а в высоких разрешениях, спасибо HyperZ, даже оказывается выше. Результат NVIDIA GeForce3 Ti200 опять оказался недосягаем для остальных участников этого обзора.

Serious Sam

Тестирование в Serious Sam мы решили провести аналогично Max Payne в двух режимах:

1-й вариант - настройки качества графики "quality ", глубина буфера кадра - 32 бита;
2-й вариант - настройки качества графики "speed ", глубина буфера кадра - 16 бит.

Для тестирования использовалась стандартная демо-запись DemoSP03:


Итак, результат получился очень интересным. Проиграв всем в режиме "speed", RADEON 7500 отлично показал себя в "quality", даже опередив в режиме 1600х1200 прежде недосягаемый GeForce3 Ti200!
В режиме "quality" движок Serious Sam включает анизотропную фильтрацию, и как раз здесь кроется причина успеха RADEON 7500. Анизотропную фильтрацию RADEON 7500 выполняет практически без потерь в скорости, в то время как GeForce2 Pro/Ti, не говоря уже о GeForce3, теряют в производительности очень много.
Кстати, можно процитировать фрагменты конфигурационных файлов Serious Sam, в которых указано, какой уровень анизотропной фильтрации используется на разных видеокартах в режиме "Quality":


NVIDIA GeForce256 / GeForce2 / GeForce3:
if(sam_iVideoSetup==2) {
gap_iTextureAnisotropy = 4;
gap_fTextureLODBias = -0.5;
}

Семейство ATI RADEON, RADEON 7xxx, RADEON 8xxx:
if(sam_iVideoSetup==2) {
gap_iTextureAnisotropy = 16;
gap_fTextureLODBias = -0.5;
}

Как видно, для RADEON 7500 установленный разработчиками Serious Sam уровень анизотропии оказался даже выше, и при этом RADEON 7500 всё равно лидирует.

Как чипам серий RADEON удается так безболезненно выполнять анизотропную фильтрацию, я постараюсь объяснить в разделе "Качество 3D", а сейчас, касательно Serious Sam - о новой возможности его движка.
В версии Serious Sam 1.05 появилась возможность использовать Direct3D, и я, естественно, не преминул ею воспользоваться. Результаты производительности плат на базе чипов NVIDIA оказались близки к результатам в OpenGL, и я, не ожидая подвохов, уж собрался сравнить их с производительностью ATI RADEON 7500... Однако, при работе Serious Sam через Direct3D на ATI RADEON 7500 я увидел страшную картину:


Разумеется, ни о каком сравнении производительности в Serious Sam при такой работе ATI RADEON 7500 и речи быть не может.
Остается вопрос: кто в этом виноват - драйвер Direct3D от ATI или разработчики из Croteam, тестировавшие Direct3D только на платах от NVIDIA? :)

Качество в 3D

Самое интересное качество ATI RADEON 7500/8500 - быстрая реализация анизотропной фильтрации.

Напомню, что анизотропная фильтрация - наиболее корректный метод фильтрации текстур, позволяющий получить изображение максимального качества. При использовании анизотропной фильтрации для получения цвета пиксела используется не цвет текстуры в точке на поверхности объекта, соответствующей этому пикселу, и не интерполированное значение цвета четырех соседних текселей, окружающих проекцию пиксела, как в случае билинейной фильтрации. При анизотропной фильтрации пиксел рассматривается как маленькая окружность или прямоугольник, имеющий проекцию на текстуру в виде эллипса или четырехугольника, и для получения цвета пиксела учитываются цвета всех текселей, попадающих в эту проекцию.
Соответственно, при уменьшении угла между линией зрения и наблюдаемой поверхностью, эллипс - проекция пиксела - будет вытягиваться, что будет приводить к необходимости усреднять цвета всё большего и большего количества текселей. При таком методе построения вычислительные затраты оказываются очень высокими, но столь же высоким будет и качество получаемого изображения, недаром, например, все современные пакеты 3D-моделирования для финального построения сцен используют именно анизотропную фильтрацию.
Разумеется, в видеоускорителях используются упрощенные методы анизотропной фильтрации. Например, NVIDIA GeForce3 для получения конечного цвета пиксела, судя по всему, равномерно "расставляет" на длинной оси эллипса - проекции пиксела - несколько точек (1,2,4,6,8, их число зависит от вытянутости эллипса или уровня анизотропии), в которых производит билинейную фильтрацию, а после усредняет полученные цвета, возможно, с разными весовыми коэффициентами.
Разумеется, это всё - догадки, но они прекрасно согласуются с практикой. А практика показала , что, на обработку каждой такой точки GeForce3 требуется дополнительный такт, например, анизотропная фильтрация по 32 сэмплам (8 точек, 8 операций билинейной фильтрации, 8х4=32) оказывается ровно в 8 раз медленнее, чем билинейная.

Семейство ATI RADEON реализует анизотропную фильтрацию, судя по всему, совсем не так.
Начну издалека:).
Известно, что для того, чтобы избежать "пляски" и "зернистости" текстур на удаленных объектах, применяется MIP-Mapping, то есть подмена исходной текстуры её менее детализированными вариантами по мере удаления объекта от зрителя. На рисунке исходная текстура показана слева вверху, а её MIP-уровни идут по диагонали вправо-вниз от исходной текстуры:


Размеры текстуры на каждом из MIP-уровней в 2 раза меньше её размеров на предыдущем, а цвет каждого из текселей есть среднее из цветов четырех соответствующих текселей предыдущего MIP-уровня.

Впрочем, интересно не это, а еще два ряда, в которых текстура отфильтрована и сжата только по одной из двух осей. На рисунке эти ряды изображены идущими вправо и вниз от изображения исходной текстуры.
Назовем это, по аналогии с MIP-уровнями, "RIP-уровнями". Чем они примечательны? Тем, что, цвет каждого из текселей какого-либо "RIP-уровня" из этого ряда является усредненнным значением цветов двух текселей предыдущего "RIP-уровня". Зачем всё это нужно? А давайте представим такую ситуацию: мы смотрим на плоскость с нашей текстурой под острым углом, примерно так:


Проекция одного из пикселов на текстуру показана красным эллипсом. По идее, для корректного выполнения анизотропной фильтрации нам нужно усреднить цвета всех текселей, которые попадают в эллипс - они обведены зеленой рамкой.
Однако, стоит вспомнить, что у нас подготовлен ряд "RIP-уровней", и из них можно подобрать тот, в котором степень сжатия максимально близка к степени анизотропии, то есть, степени "вытянутости" эллипса, на нем сделать билинейную фильтрацию и получить в результате цвет, являющийся усреднением цветов нужных нам текселей исходной текстуры. Надеюсь, на рисунке мне удалось достаточно наглядно это показать.
В итоге, имея ряд заранее подготовленных вариантов исходной текстуры - "RIP-уровней", мы можем выполнить фильтрацию с любым разумным уровнем анизотропии, фактически используя лишь билинейную фильтрацию, то есть практически без потерь производительности.
Из природы этого метода, называемого RIP-mapping, следует то, что его результаты будут наиболее корректными в том случае, когда угол наклона эллипса близок к одной из осей текстуры, а на "неудобных" углах, близких к диагоналям, RIP-mapping не может обеспечить качество выше билинейной фильтрации. Соответственно, чтобы избежать потери качества фильтрации текстур на "неудобных" углах, можно использовать некие комбинированные RIP-уровни, сжатые сразу вдоль двух осей в разное число раз (прошу прощения за тавтологию:)), ввести еще и ряд "диагональных" RIP-уровней, или выполнять анизотропную фильтрацию другими методами, например, как NVIDIA GeForce3.

Судя по всему, семейство RADEON от ATI как раз и использует RIP-mapping. При использовании этого метода, линии переключения MIP-уровней, или RIP-уровней, получаются ломаными.
Проверить это достаточно просто: включив анизотропную фильтрацию в маленьком тестовом приложении от NVIDIA, использующем стандартные расширения OpenGL и работающем на любых видеокартах, я сделал скриншоты, на которых эти линии очень заметны. Слева - картинка на ATI RADEON 7500, посередине - на NVIDIA GeForce2 Ti, справа - на NVIDIA GeForce3 Ti200:


На ATI RADEON 7500 линии переключения MIP-уровней имеют изломы, пересечения и вообще ведут себя совершенно диким образом (и как тут еще трилинейную фильтрацию делать?), в отличие от MIP-уровней NVIDIA GeForce2 и GeForce3, где никаких аномалий нет.
Кстати, пользователи иногда замечают артефакты, связанные с анизотропной фильтрацией на видеокартах от ATI, и я бы мог показать несколько характерных фрагментов из игр, но, во-первых, таких замечаний на самом деле не так уж много, а во-вторых, артефакты сильнее всего заметны в динамике, чего не покажешь на скриншотах...

Посему, рассказ о неприятных сторонах анизотропной фильтрации стоит закончить, а обзор продолжить приятными её сторонами. Во-первых, это скорость: семейство ATI RADEON при включении анизотропной фильтрации теряет в производительности единицы процентов, а во-вторых, качество: в благоприятных условиях анизотропная фильтрация на чипах RADEON по качеству превосходит её реализацию в чипах от NVIDIA.
В качестве примера приведу скриншоты из Serious Sam, где качество анизотропной фильтрации было установлено на максимум для каждой из плат. Как и в прошлый раз, слева - картинки на ATI RADEON 7500, посередине - на NVIDIA GeForce2 Ti, справа - на NVIDIA GeForce3 Ti200:





Обобщая часть об анизотропной фильтрации ATI RADEON 7500, я могу сказать лишь одно: NVIDIA GeForce2 / GeForce3 и ATI RADEON 7500 имеют совершенно разные, обладающие своими плюсами и минусами, алгоритмы её реализации, а уж право выбрать то, что нравится, находится в наших руках.
Соберем "в кучу" плюсы и минусы:

Анизотропная фильтрация ATI RADEON 7500/8500:
Плюс - высокое качество;
Плюс - высокая скорость;
Минус - невозможна работа одновременно с трилинейной фильтрацией;
Минус - возможно возникновение артефактов в определенных ситуациях.

Анизотропная фильтрация NVIDIA GeForce3:
Плюс - высокое качество;
Минус - большие потери производительности.

Разгон

Разгон ATI RADEON 7500 осуществлялся с помощью утилиты PowerStrip 3.12.
При разгоне возникла интересная ситуация: повышение частоты ядра, как и ожидалось, приводило к повышению производительности, а повышение частоты видеопамяти не приводило ни к чему. Что интересно, можно было установить любую частоту видеопамяти, хоть 800 МГц, плата не реагировала на это совершенно.
После поиска и просмотра сообщений владельцев ATI RADEON 7500 в различных конференциях, мне ничего не оставалось, кроме как согласиться с ними - похоже, чип RADEON 7500 или драйверы от ATI имеют блокировку разгона видеопамяти.
Поэтому, разгон был осуществлен только по ядру. Максимальная частота ядра, при которой плата устойчиво работала, составила 340 МГц. Прирост производительности при таком разгоне показан на графике:


Согласитесь, при увеличении частоты ядра на 17% (290->340 МГц), 15-и процентный прирост в Quake 3 и 8-и процентный в Serious Sam - весьма неплохо. Впрочем, этого и следовало ожидать: архитектура ATI RADEON 7500, как и "старого" RADEON, хорошо сбалансирована, и не везде производительность платы жестко ограничивается пропускной способностью видеопамяти.

Заключение

ATI RADEON 7500 - очень интересная видеокарта, обеспечивающая отличное качество изображения, полноценную поддержку двухмониторных конфигураций, вывод на ТВ и цифровые мониторы. Вместе со всем этим и в трехмерных приложениях её производительность находится на хорошем уровне.

Если сравнивать ATI RADEON 7500 c видеокартами на базе NVIDIA GeForce2 Pro / GeForce2 Ti, то в части 2D он оказывается однозначно лучше, и по качеству, и по функциональности. В трехмерных играх производительность ATI RADEON 7500 находится в среднем на одном уровне с GeForce2 Pro / GeForce2 Ti.
Цены этих плат немного ниже, чем плат на базе ATI RADEON 7500, так что, если Вы выбираете видеокарту не на базе GeForce2 Pro / Ti, а на ATI RADEON 7500, считайте, что доплачиваете за его качественную работу в 2D.

Сравнение ATI RADEON 7500 и NVIDIA GeForce3 Ti200 показывает, что последняя оказывается быстрее практически во всех 3D-играх. Не имея полноценной поддержки DirectX8, RADEON 7500 тем более не в состоянии конкурировать с GeForce3 Ti200.
С другой стороны, платы на GeForce3 Ti200 не могут конкурировать с ATI RADEON 7500 в части функциональности в 2D. Качество вывода на экран у видеокарт на базе чипов от NVIDIA тоже может оказаться неважным - производители бывают разные. А платы на базе ATI RADEON 7500/8500, что интересно, у любых производителей получаются отличными. Жесткий контроль качества со стороны ATI?
В общем, если Вам нужна сугубо игровая видеокарта, то можно выбрать что-нибудь на базе GeForce3 Ti200, цена окажется выше, чем у ATI RADEON 7500, скорость - выше, но каким будет качество платы - большой вопрос.

Плюсы ATI RADEON 7500:

Отличное качество монтажа;
Полноценная поддержка двухмониторных конфигураций;
Наличие DVI и качественного ТВ-выхода;
Отличное качество вывода изображения на монитор;
Хорошая скорость в 3D.

Минусы:

Отсутствие поддержки пиксельных и вершинных шейдеров DirectX8;
Скудность комплекта поставки.

Navi 10 - все еще сравнительно новый чип, который не закончили осваивать партнеры AMD. Но, похоже, GIGABYTE уже вышла на финишную прямую наилучшего охлаждения и максимальной производительности, которую можно выжать из Radeon RX 5700 XT. И это еще не предел для пользовательского разгона Navi 10, для которого плата AORUS тоже создала идеальные условия

Radeon RX 5600 XT пришел за головой GeForce GTX 1660 Ti. Но кому нужен последний, когда есть GTX 1660 SUPER, а RTX 2060 недавно упал в цене? Посмотрим, как AMD выкрутится из сложившейся ситуации. Ну а для энтузиастов RX 5600 XT - это просто-напросто дешевый RX 5700 без двух чипов памяти, зато с подобающим резервом для разгона. Новинку представляет видеокарта SAPPHIRE PULSE

Рынок ускорителей ниже $200, в котором до сих пор царят подешевевшие модели родом из 2016 года, наконец расшевелился. Теперь пользователи могут выбирать между GeForce GTX 1650 SUPER и Radeon RX 5500 XT. Но стало ли от этого лучше? Ясно одно - не стало проще. В тестировании участвуют видеокарты SAPPHIRE и PowerColor с 4 и 8 Гбайт RAM

13 ноября 2019

Обзор видеокарты ASUS ROG STRIX Radeon RX 5700 XT OC: догнать и перегнать RTX 2070 SUPER

ASUS ROG STRIX Radeon RX 5700 XT OC - это, возможно, самая быстрая версия Radeon RX 5700 XT, которую можно найти в наших магазинах. Она имеет хороший заводской разгон, массивную систему охлаждения и потенциал, позволяющий ей конкурировать с ускорителями совсем другого уровня. В частности, с GeForce RTX 2070 SUPER

Из наиболее доступных модификаций Radeon RX 5700 XT творение GIGABYTE выделяется крупной системой охлаждения с тремя вентиляторами, а ведь новые ускорители AMD весьма чувствительны к температуре. Посмотрим, достаточно ли этого, чтобы оправдать заявку GIGABYTE Radeon RX 5700 XT GAMING OC на лидерство среди себе подобных

Новым чипам AMD явно требуется охлаждение получше, чем на референсных платах. Но пока видеокарты с громадными кулерами еще не заполнили рынок, придется сделать промежуточную остановку. Бюджетная модификация SAPPHIRE PULSE должна как минимум привести уровень шума в норму, однако и эксперименты с разгоном и андерволтингом Navi мы прекращать тоже не собираемся

В последнее время, с учётом тенденции развития рынка графических ускорителей, все мы привыкли к быстрой смене поколений видеоадаптеров. Хотя довольно длительное время главенствующую роль в компании AMD занимала видеокарта ATI Radeon HD 3870 (в последствии ATI Radeon HD 3870 Х2), основанная на чипе RV670. Как только начали просачиваться первые слухи о новом чипе RV770, интерес СМИ перепозиционировался на будущего «хозяина трона».

Появление нового чипа ознаменовало собой дебют новых решений AMD ATI Radeon HD 4850 (на чипе RV770 PRO) и AMD ATI Radeon HD 4870 (на чипе RV770 XT).

До выхода графических решений на базе чипа RV770 положение на рынке у компании было не самым лучшим. В семействе карт Radeon HD не было ни одного достойного соперника для топовых решений извечного калифорнийского конкурента, компании NVIDIA. Выход нового чипа был скорее жизненной необходимостью, чем просто выпуском нового ускоренного решения. Инженеры постарались на славу – чип получился очень удачным и перспективным.

В новом чипе было решено изменить традициям и вместо уже привычной кольцевой шины памяти (ring bus) перейти на архитектуру с центральным хабом.

Согласно пресс-релизам ATI, такая компоновка значительно увеличивает эффективность использования полосы пропускания. Кроме того, теперь контроллер памяти поддерживает новые чипы памяти стандарта GDDR5.

Новый графический процессор содержит уже 800 скалярных процессоров, способных выполнять 32-битные и 64-битные вычисления.

Но архитектура потоковых процессоров практически не изменилась (в сравнении с RV670), хотя была увеличена их плотность, что позволило увеличить их количество, не изменяя техпроцесс. Теперь теоретическая пиковая производительности чипа RV770 возросла до 240 гигафлоп.

Технические подробности ускорителей серии RADEON HD 4800:

  • Кодовое имя чипа RV770;
  • Технология 55 нм;
  • 956 миллионов транзисторов;
  • Унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
  • Аппаратная поддержка DirectX 10.1, в том числе и новой шейдерной модели - Shader Model 4.1, генерации геометрии и запись промежуточных данных из шейдеров (stream output);
  • 256-битная шина памяти: четыре контроллера шириной по 64 бита с поддержкой GDDR3/GDDR5;
  • Частота ядра 625-750 МГц;
  • 10 SIMD ядер, включающих 800 скалярных ALU для расчётов операций с плавающей запятой (целочисленные и плавающие форматы, поддержка FP32 и FP64 точности в рамках стандарта IEEE 754);
  • 10 укрупненных текстурных блоков, с поддержкой FP16 и FP32 форматов;
  • 40 блоков текстурной адресации;
  • 160 блоков текстурной выборки;
  • 40 блоков билинейной фильтрации с возможностью фильтрации FP16 текстур на полной скорости и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов;
  • Возможность динамических ветвлений в пиксельных и вершинных шейдерах;
  • 16 блоков ROP с поддержкой режимов антиалиасинга и возможностью программируемой выборки более чем 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра - пиковая производительность до 16 отсчетов за такт (в т.ч. и для режимов MSAA 2x/4x и буферов формата FP16), в режиме без цвета (Z only) - 64 отсчета за такт;
  • Запись результатов до 8 буферов кадра одновременно (MRT);
  • Интегрированная поддержка двух RAMDAC, двух портов Dual Link DVI, HDMI, HDTV, DisplayPort.

Спецификации референсной карты RADEON HD 4850:

  • Частота ядра 625 МГц;
  • Количество универсальных процессоров 800;
  • Количество текстурных блоков - 40, блоков блендинга - 16;
  • Эффективная частота памяти 2000 МГц (2*1000 МГц);
  • Тип памяти GDDR3;
  • Объем памяти 512 МБ;
  • Пропускная способность памяти 64 ГБ/с;
  • Теоретическая максимальная скорость закраски 10,0 гигапикселей в с.;
  • Теоретическая скорость выборки текстур 25,0 гигатекселей в с.;
  • Два CrossFireX разъема;
  • Шина PCI Express 2.0 x16;
  • Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
  • TV-Out, HDTV-Out, поддержка HDCP, HDMI, DisplayPort;
  • Энергопотребление до 110 Вт (один 6-пиновый разъём);
  • Однослотовый дизайн системы охлаждения;
  • Рекомендуемая цена $199.

Об одном из них и пойдёт речь в сегодняшнем обзоре, а именно об AMD ATI Radeon HD 4850 от ASUS с 512 МБ памяти на борту.

Radeon HD 3870 X2

GeForce 9800 GTX

GeForce 9800 GTX+

Графический чип

RV770 PRO

Частота ядра, МГц

Частота унифицированных процессоров, МГц

Количество универсальных процессоров

Количество текстурных блоков / блоков блендинга

Объем памяти, Мб

Эффективная частота памяти, МГц

2000 (2*1000)

Тип памяти

Разрядность шины памяти, бит

Видеокарта изготовлена на базе графического процессора ATI Radeon HD 4850 от AMD, выполненного на чипе RV770 PRO по 55-нм технологии. При этом соблюдены все рекомендации производителя GPU, указанные выше, поэтому ускоритель повторяет возможности и внешний вид подавляющего большинства Radeon HD 4850 512 МБ, кроме, разве что, комплектации.

Перейдём к более близкому знакомству с тестируемой видеокартой ASUS EAH4850/HTDI/512M.

Видеокарта поставляется в большой двойной картонной упаковке, раскрывающейся как книжка. В отличие от предыдущих упаковок топовых моделей, данная коробка лишена пластиковой ручки.

Внешний вид и оформление коробки не изменилось. Как и прежде, черный и оранжевый цвета символизируют принадлежность адаптера к семейству AMD ATI Radeon. В нижней части коробки привычно присутствует название ускорителя, а также некоторые его особенности. На этот раз основной акцент сделан на переходник с DVI на HDMI, который покупатель получает «бесплатно».

На тыльной стороне упаковки описываются особенности графического ускорителя, рекомендуемые системные требования, а также кратко представлены фирменные технологии, с которыми более подробно можно ознакомиться на официальном сайте ASUSTeK Computer .

Комплект поставки достаточен для полноценного использования видеоадаптера. Помимо самой видеокарты он включает в себя:

  • Переходник с Molex на 6-контактный разъем питания видеокарты;
  • Переходник с S-Video на компонентный выход;
  • Переходник с DVI на D-Sub;
  • Переходник с DVI на HDMI;
  • Мостик CrossFire;
  • CD-диск с драйверами;
  • CD-диск с электронной документацией;
  • Краткая инструкция по установке видеокарты.

Внешне тестовый образец очень похож на AMD ATI Radeon HD 3850. Сама видеокарта выполнена по референсному дизайну на красном текстолите и оснащена однослотовой системой охлаждения, которая закрывает большую её часть. Единственное внешнее отличие нашей видеокарты заключается в том, что пластиковый кожух не покрывает печатную плату полностью. Габариты адаптера компактны, длина составляет 233 мм, что позволит ей поместиться в почти любой корпус.

На задней стороне присутствуют наклейки с точным наименованием графического ускорителя, серийным номером и номером партии.

Все разъёмы защищены пластиковыми колпачками, что не всегда можно наблюдать на видеоадаптерах от ASUS. На интерфейсной панели расположены два выхода DVI, а также TV-out. Для подключения аналогового монитора необходимо будет воспользоваться переходником из комплекта поставки.

Теперь рассмотрим систему охлаждения тестируемой видеокарты. Как мы уже описывали выше, она занимает один слот и представляет собой массивную пластину. Посредине расположен медный теплосъемник, который прилегает к графическому процессору.

Микросхемы памяти и силовые элементы контактируют с подложкой пластины через термопрокладки.

Под пластиковым кожухом системы охлаждения скрывается радиатор, состоящий из соединённых между собой тонких медных рёбер. Потоки воздуха от кулера проходят через эти рёбра к задней стенке корпуса, поэтому для нормального вывода тёплого воздуха необходимо снять заглушку в задней панели рядом с видеокартой.

Печатная плата не насыщена большим количеством элементов, но присутствует новшество – микросхемы памяти располагаются в две линии сверху и справа от графического чипа, причём пара центральных микросхем каждой из линий сгруппированы.

Силовая часть платы не удивляет сложностью исполнения. В верхнем углу расположен 6-контактный разъём питания видеокарты, что неудивительно при заявленном энергопотреблении до 110 Вт. Согласно спецификации для видеоускорителя необходим блок питания мощностью от 450 Вт.

Память представляет собой восемь микросхем стандарта GDDR3 производства Qimonda (HYB18H512321BF-10) с временем доступа 1,0 нс, что позволяет им работать на частоте до 2000 МГц. Эффективная частота работы памяти тестируемой модели видеокарты немного ниже и составляет 1986 МГц, что оставляет узенький частотный коридор прозапас. Общий объем памяти составляет 512 МБ, а ширина шины обмена с ней не изменилась и составляет 256 бит.

Частота работы графического процессора соответствует рекомендованному значению 625 МГц. Как уже описывалось выше, сам чип RV770 выполнен по 55 нм техпроцессу, что обуславливает его относительно небольшое энергопотребление, несмотря на то, что в него входят 956 млн. транзисторов. Количество унифицированных шейдерных процессоров увеличено до 800, текстурных блоков до 40, а количество ROP оставлено без изменений и равно 16. Частота работы чипа в 2D-режиме снижается до 500 МГц.

Для оценки эффективности штатной системы охлаждения мы использовали утилиту , а мониторинг осуществлялся при помощи GPU-Z версии 0.2.6. Работая на штатных частотах, графический процессор прогрелся до 92° С, что не так уж мало, особенно если учитывать появление некоторого шума от кулера.

При тестировании использовался Стенд для тестирования Видеокарт №1
Выберите с чем хотите сравнить Radeon HD4850 512Mb ASUS


Результаты тестов показывают, что Radeon HD 4850 является прямым конкурентом для GeForce 9800 GTX и практически вплотную приближается к производительности более дорогих ускорителей на GeForce GTX 260. Исключение составляют игровые приложения, оптимизированные под архитектуру NVIDIA.

Разгон Radeon HD 4850

Разгон видеокарты проводился при помощи штатных средств ATI Catalyst Control Center. Видеокарта смогла стабильно функционировать на частотах 670 МГц для графического ядра (+45 МГц) и 2180 МГц (1090 МГц DDR) для видеопамяти (+186 МГц).

Достаточно скромный результат, мы изначально ожидали большего, но посмотрим на сколько увеличится производительность адаптера.

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

Serious Sam 2, Maximum Quality, NO AA/AF, fps

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

Prey, Maximum Quality, NO AA/AF, fps

Prey, Maximum Quality, AA4x/AF16x, fps

Crysis, Maximum Quality, NO AA/AF, fps

Crysis, Maximum Quality, AA4x/AF16x, fps

Средний прирост от разгона составил около 5%, что, вроде бы, не так уж и плохо. Но, с другой стороны, практическая польза от повышения частот видеоадаптера отсутствует, потому как прирост производительности незначителен, и там где её уровень был ниже «играбельного», он таковым и остается.

Выводы

Компания ATI смогла выпустить свой очередной хит, которого так ждали поклонники её продукции. При рекомендованной цене в 199 долларов Radeon HD 4850 выглядит вполне конкурентоспособным продуктом для соперничества с ускорителями на GeForce 9800 GTX, которые имеют ту же рекомендуемую цену в 199 долларов.

По сути, у Radeon HD 4850 только один существенный недостаток – система охлаждения, которая ускорителю досталась по наследству от предшественника Radeon HD 3850. С выходом нереференсных решений этот досадное упущение, наверняка, будет устранено и потенциальные покупатели смогут получить отлично сбалансированный продукт.

Вероятно, многие читатели раздела Видеосистемы сайта сайт уже устало вздыхают: "Когда же кончится это засилье видеокарт на чипах от NVIDIA?! Нам бы что-то иное, а то когда есть все время одни торты, то хочется закусить в конце концов соленым огурцом." Нам понятны эти возгласы и даже подобные причитания. Да и в форуме iXBT меня, как ведущего раздел, ругают на чем свет стоит за то, что продукции ATI мы мало уделяем внимания. Безусловно, у нас пробелы в этом плане есть, но все же главной причиной такого, казалось бы, неравноправия является то, что ATI выпускает видеокарты только сама (лишь с выпуском RADEON LE обозначился у нее малоизвестный публике партнер, который стал помогать ATI с выпуском более дешевых модификаций). А значит, что линейка выпускаемых плат на RADEON четко обозначена:

В большинстве своем карты отличаются лишь разными типами и частотами установленной на них памяти, графический процессор - один и тот же, но также работающий на разных частотах. Поэтому разница между ними может быть лишь в производительности. Ну и в комплектации VIVO. Только один тип - RADEON VE сильно отличается от предшественников.

А вот видеокарт на GPU NVIDIA GeForce2 и особенно GeForce2 MX вышло за последние полгода очень много. И если бы все были похожи друг на друга как две капли воды, то тогда и писать про каждую из них нечего, а только выпустить что-то вроде сводного обзора, как ранее мы поступали. Однако, приступив в свое время к изучению первых вышедших в свет подобных карт, я обнаружил, что они могут очень сильно отличаться друг от друга, даже имея в основе один и тот же референс-дизайн.

Пользователи GeForce2 MX - карт знают уже прекрасно, что карты могут сильно отличаться хотя бы по качеству в 2D. Я уж не говорю, что появилось очень много карт с индивидуальными особенностями, такими как разные типы памяти и ее объемы, наличие аппаратного мониторинга и т.д. А почти все они поступают в продажу, и пользователи подчас не знают, стоит покупать или нет карту на GeForce2 NX такой-то марки или от того или иного производителя. Потому мы и решили по возможности охватывать парк видеокарт на популярном чипсете.

Однако то, что при этом мы запустили освещение разновидностей видеокарт от ATI - это наша вина. Я не буду ссылаться на постоянную занятость и искать причины, я просто признаю свою вину в том, что так получилось. Я полагал, что демонстрация возможностей этих плат через 3DGiТоги (вверху приведены ссылки на мини-обзоры из этого материала) даст более-менее полную картину о новинках от ATI, которые, повторяю, отличаются лишь производительностью (кроме RADEON VE). Но оказалось, что этого недостаточно. И ныне мы будем ликвидировать эти пробелы в наших статьях, и будем освещать все новинки от ATI, вне зависимости от того, клон ли это или принципиально новая видеокарта.

А теперь займемся делом. Я не зря вначале упомянул про NVIDIA GeForce2 MX. Одним из "коньков" карт на этом GPU является технология TwinView. Разумеется, TwinView поддерживается не всеми картами на GeForce2 MX, а только теми, на которых установлен второй RAMDAC, и имеется гнездо для второго вывода изображения, либо есть TV-out. Такие платы стоят весьма существенно дороже, что не играет "на руку" TwinView. Хочется сразу спросить: а что смогла противопоставить этим картам фирма ATI? Уже довольно долго существовало сравнение:

  • NVIDIA GeForce2 64MB vs. RADEON 64MB DDR
  • NVIDIA GeForce2 32MB vs. RADEON 32MB DDR
  • NVIDIA GeForce2 MX vs. RADEON 32MB SDR

Если в первых двух позициях RADEON почти везде проиграл сопернику, то в третьей ситуация неоднозначная. В 32-битном цвете RADEON 32 MB SDR очень легко обходит NVIDIA GeForce2 MX, и даже подчас новые "версии" последнему не помогают. А если учесть, что ныне в массовом количестве появились дешевые RADEON LE, которые, хоть и работают на более низких частотах, но прекрасно разгоняются, тучи над GeForce2 MX надвигаются весьма серьезные. И вообще "грозой с молнией" стал выход RADEON VE.

На первый взгляд, хочется скептически пожать плечами: И где же тут "гроза" с таким-то медленным 3D? Давайте разберемся не спеша, начнем с перечисления возможностей и характеристик RADEON VE.

  • Graphics Controller - RADEON VE graphics processor
    • Частота работы 150-166 МГц
    • Пиксельных конвейеров - 1
    • Текстурных модулей - 3
  • Memory Configurations: 64MB DDR, 32MB DDR, 16MB DDR
    • 64-битная шина обмена с памятью
    • Частота работы 183 (366) МГц
  • 3D Acceleration Features
    • HYPER Z technology
    • PIXEL TAPESTRY architecture
    • VIDEO IMMERSION technology
    • Twin Cache Architecture
    • Single-Pass Multi-texturing (3 textures per clock cycle)
    • True Color Rendering
    • Triangle Setup Engine
    • Texture Cache
    • Bilinear/Trilinear Filtering
    • Texture Decompression support under DirectX (DXTC) and OpenGL
    • Specular Highlights
    • Perspectively Correct Texture Mapping
    • Mip-Mapping
    • Z-buffering and Double-buffering
    • Emboss, Dot Product 3 and Environment bump mapping
    • Spherical, Dual-Paraboloid and Cubic environment mapping
    • Full Screen Anti-Aliasing (FSAA)
  • HydraVision Multiple Monitor Management Software дает возможность гибко настраивать вывод изображение на два приемника сигнала (VGA-гнездо для CRT-мониторов и DVI-гнездо для цифровых мониторов)
  • Наличие переходника DVI-to-VGA позволяет вместо цифрового монитора вторым использовать обычный CRT-монитор, обеспечивая полноценную работу с двумя мониторами
  • TV-out (S-Video, но в комплект входит переходник S-Video-to-RCA) также вписывается в концепцию мультимониторности, его можно использовать вторым приемником сигнала
  • Возможность взаимной смены местами первого и второго приемников сигнала
  • HydraVision Multidesk Software позволяет организовать до 9 виртуальных рабочих столов на одном мониторе
  • Максимальное разрешение в 3D:
    • 65K цветов: 1920х1440
    • 16.7М цветов: 1920х1200

Я не стал специально уделять внимания особенностям самого ядра RADEON, потому как об этом все сказано в нашем обзоре , а по спецификациям, приведенным выше, видно, что RADEON VE получился путем урезания растеризационного блока в 2 раза, изъятия из чипа блока Hardware TCL (то есть геометрического сопроцессора) и добавления в него блоков, осуществляющих вывод изображения на второй приемник сигнала (второй RAMDAC, CRTC и др.) Вам ничего это не напоминает? Очень схоже с тем, как получился GeForce2 MX из GeForce2 GTS:-) за исключением того, что Hardware TCL не был убран из GeForce2 MX.

Таким образом, мы видим, что получили… Riva TNT2 Ultra с точки зрения мощности в 3D, только в ином виде. Посудите сами: частота чипа 150 у обоих, в режиме мультитекстурирования Riva TNT2 Ultra выдает 150 млн. пикселей и 300 млн. текселей в секунду, столько и RADEON VE, если активны 2 текстурных блока (а задействовать 3 TMU сейчас пока никто не может, таких игр еще нет). Частота памяти у Riva TNT2 Ultra - 183 МГц при 128-битной шине. У RADEON VE - 183 (366) МГц DDR-памяти, но если учесть 64-битную шину, то получим примерно то же самое. Только лишь уникальные технологии HyperZ и двойного кеширования будут способствовать тому, что RADEON VE покажет большую производительность, чем почти 2-х летней давности Riva TNT2 Ultra.

Плата


Видеокарта построена на AGP 2x/4x основе, имеет 32 мегабайта DDR SDRAM памяти, размещенной в 4-х микросхемах на лицевой стороне PCB.

Модули памяти имеют время выборки 5.5 ns и расcчитаны на частоту работы 183 (366) МГц, на которой и работают.

Чипсет закрыт приклеенным к нему радиатором. Вентилятор отсутствует, впрочем, он и не нужен, так как процессор очень мало греется. На карте кроме привычного VGA-гнезда можно также заметить DVI-вывод. Оба этих вывода, совместно со встроенными в чип RAMDAC-ами и составляют, собственно, основу технологии HydraVision, сходной с NVIDIA TwinView или Matrox DualHead, но в то же время уникальной. Я приведу цитату из пресс-релиза от 9 ноября 2000 года:

"Торонто, Онтарио, Канада, 9 ноября 2000 года - ATI Technologies Inc. (TSE: ATY, NASDAQ: ATYT), крупнейший в мире поставщик технологий 3D графики и мультимедиа объявил сегодня о заключении эксклюзивного стратегического соглашения с Appian Graphics Corporation, лидером в передовых технологиях работы с изображением, о выводе приложения HydraVision на массовый рынок. Данное соглашение дает ATI право интегрировать систему управления вывода на монитор HydraVision и продвигать ее в составе продуктов, начиная с RADEON VE и далее с будущими продуктами ATI.

"HydraVision долгое время является стандартным приложением для управления выводом изображения на несколько мониторов, а Appian Graphics лидирует в предложении решений для поддержки мульти-мониторных конфигураций", - сказал Дэйвид Ортон (David Orton) президент ATI. "Объединение опыта Appian в средствах управления дисплеем и наших передовых технологий графических акселераторов создает действительно непревзойденную серию продуктов."

Патентованная система управления выводом изображения AppianHydraVision предоставляет пользователю интерфейс для простого управления несколькими мониторами. В состав функций HydraVision входят средства управления окнами вывода приложений и диалогов, назначение "горячих" клавиш, установка независимых значений разрешения экрана и частот кадровой развертки, независимый контроль приложений, а также возможность создания до девяти виртуальных рабочих пространств."

Таким образом, данная технология представляет собой очень интересное решение не только для вывода изображения на два монитора, но и дает возможность создания виртуальных десктопов. Более подробно об этом будет рассказано немного ниже, а сейчас мы возвращаемся к особенностям RADEON VE и его комплектации.

В комплект поставки входит переходник (на фотографии выше), обеспечивающий возможность подключения ко второму гнезду не только цифрового монитора, но и обычного.

Должен еще отметить, что RADEON VE снабжен также TV-out с S-Video-гнездом (в комплект входит переходник S-Video-to-RCA). Поэтому можно организовывать комбинации вывода картинки на любые два из этих трех приемников. Регулировки вывода изображения находятся в драйверах:

Как видим, все понятно и доступно. Обратите внимание на немаловажную деталь: можно менять местами приемники сигнала, то есть первичный и вторичный приемники не жестко привязаны к соответствующим гнездам. Вот что значит иметь два одинаковых RAMDAC в 300 МГц и не думать о том, какой из них более качественный. Так что если даже в спешке подключили мониторы неправильно, не обязательно лезть снова и переключать их, можно просто в драйверах поменять их местами.

Интересно отметить, что фирменная утилита HydraVision позволяет внедрить поддержку мультимониторности практически во все приложения, и даже в таких приложениях, как Adobe Photoshop, мы можем видеть это:

Cама же утилита очень примечательна. После установки в панели задач внизу справа появляется пиктограмма управления HydraVision. Программа позволяет организовать до девяти (!) виртуальных рабочих столов! И одним переключением можно разом переместиться на той или иной десктоп.

Сами рабочие столы можно подписывать по своему усмотрению:

Карта может поставляться как в ОЕМ-виде (мы как раз такую и имеем), так и Retail-упаковке. В комплект входят два переходника: DVI-to-VGA, S-Video-to-RCA, затем CD-диск с драйверами.

Разгон

К сожалению, пока нет утилит, способных корректно поднять частоты работы у этой карты, поэтому плата не разгонялась.

Установка и драйверы

Рассмотрим конфигурацию тестового стенда, на котором проводились испытания карты ATI RADEON VE:

  • процессор Intel Pentium III 1000 MHz:
  • системная плата Chaintech 6OJV (i815);
  • оперативная память 256 MB PC133;
  • жесткий диск IBM DPTA 20GB;
  • операционная система Windows 98 SE;

На стенде использовались мониторы ViewSonic P810 (21") и ViewSonic P817 (21").

Тесты проводились при отключенном VSync на драйверах версии 7.078 от ATI.

Для сравнительного анализа были использованы показания с видеокарт ATI RADEON 32MB SDR, Hercules Dynamite TNT2 Ultra (частота понижена до стандартных для Riva TNT2 Ultra значений 150/183 МГц), Leadtek WinFast GeForce2 MX/DVI.

Результаты тестов

Качество 2D-графики - на традиционном для ATI высоком уровне. Практически замечаний нет. Вопросы по 2D в последнее время настолько уже "обсосаны", что поднимать их снова нет смысла. Я только еще и еще раз отмечу, что качество 2D может сильно зависеть не только от производителя карты, но и просто от конкретного экземпляра.

А также напомню: перед тем, как ругать видеокарту, проверьте, а соответствует ли ваш монитор тем запросам, которые вы предъявляете к видеокарте?

Приступаем к оценке производительности видеокарты в 3D. В качестве инструментария мы использовали следующие программы:

  • id Software Quake3 v.1.17 - игровой тест, демонстрирующий работу платы в OpenGL с использованием стандартного демо-бенчмарка demo002;
  • Rage Expendable (timedemo) - игровой тест, демонстрирующий работу платы в Direct3D в режиме мультитекстурирования.

Quake3 Arena

Тестирование проводилось в двух режимах: Fast (демонстрирует работу карты в 16-битном цвете) и High Quality (демонстрирует работу карты в 32-битном цвете).

Видно, что мои предположения о близости результатов RADEON VE к Riva TNT2Ultra оказались почти верными. Только в 32-битном цвете RADEON VE выиграл у последней битву, но, как и ожидалось, сильно проиграл остальным картам, с которыми производилось сравнение.

Expendable

На примере данной игры мы посмотрим на скорость карты в Direct3D.

А вот тут картина полностью меняется, демонстрируя явное преимущество RADEON VE над Riva TNT2 Ultra. RADEON VE даже смог догнать своих более старших и именитых в 3D собратьев. Впрочем, относительная легкость сцен в Expendable тоже могла сыграть свою роль. Но есть и иное предположение относительно работы технологии HyperZ. Хотя, судя по Registry, она включена и в OpenGL, и в Direct3D, в первом случае возможен вариант, что HyperZ и не работает как надо. А в Direct3D выдает все свое преимущество.

Подведем итоги анализа производительности рассмотренной платы ATI RADEON VE:

  • Видеокарта демонстрирует производительность в целом чуть выше, чем Riva TNT2 Ultra, а в 32-битном цвете и сильно выше, но не догоняет ранее выпущенные и более мощные карты ATI RADEON SDR и ATI RADEON LE, а также отстает от NVIDIA GeForce2 MX;
  • ATI RADEON VE, как и все карты на RADEON, отличается оптимизацией работы в 32-битном цвете;

Выводы

Как мы смогли убедиться, при всей своей относительной "неполноценности" с точки зрения 3D, RADEON VE продемонстрировал высокий уровень отношения цена/производительность/насыщенность функциями. Да, при цене около $90-95, эта карта по производительности отстает от NVIDIA GeForce2 MX -карт, которые имеют примерно такую же стоимость, однако при этом RADEON VE демонстрирует отличное качество в 2D, чего подчас нет у "noname"-карт на GeForce2 MX, а также имеет технологию HydraVision, сродни с NVIDIA TwinView. А карты с последней имеют стоимость уже не около $100, а много больше.

Мы можем советовать ATI RADEON VE тем, кому нужна работа этой карты прежде всего в бизнес-секторе или 2D-приложениях тяжелого плана. Хороша эта карта будет и с офисными приложениями, прекрасный выбор будет у тех, кому нужно объединить 2 монитора (например в целях верстки текстовых или иных материалов). И не надо забывать про традиционное для ATI высокое качество воспроизведения DVD-фильмов и ныне популярных MPEG4-роликов.

Более полные сравнительные характеристики видеокарт этого и других классов вы можете увидеть в наших 3DGiТогах .

Плюсы:

  • Вполне удовлетворительная производительность в 3D графике;
  • Очень хорошее качество исполнения продукта;
  • Поддержка технологии HydraVision (аналог TwinView), но с более широкими возможностями;
  • Наличие TV-out, поддерживаемого HydraVision;
  • Относительно низкая цена;

Минусы:

  • Традиционные для ATI задержки поставок карт, могущие свести на нет преимущества RADEON VE в плане стоимости;
  • Уже очень сильная конкуренция на рынке бизнес-компьютерных систем, учитывая наличие не только NVIDIA GeForce2 MX, но и Matrox G450.
Понравилось? Лайкни нас на Facebook