вторник, 15 ноября 2011 г.

Сравнительная таблица производительности видеокарт Nvidia и ATI

Зачастую выбирая видеокарту мы сталкиваемся с вопросом: "Какую видеокарту выбрать?". В настоящее время рынок компьютерной техники предлагает широчайший выбор комплектующих, в том числе и видеокарт - Мы решили помочь вам составив рейтинг видеокарт. Приведенная статья написана для помощи обычному пользователю, чтобы произвести самостоятельное сравнение видеокарт, не горящего желанием читать многочисленные статьи и обзоры,  по теме производительность видеокарт или просто не имеющего на это время, прочитав статью вы сможете выбрать подходящую видеокарту, лучшую в своей ценовой категории.

Сравнение видеокарт, носит общий характер - при составлении таблицы ряд ключевых параметров при анализе был усреднен (исключен) .
  • Ядро;
  • Частота GPU (Чипа);
  • Количество шейдерных процессоров (Универсальных конвейеров);
  • Видеопамять (объем);
  • Тип видеопамяти (DDR3, GDDR5 и пр.);
  • Разрядность шины видеопамяти;
  • Частота видеопамяти;
  • Количество пиксельнеых конвейеров.
Ниже, вашему вниманию представлена рейтинговая таблица, производительности видеокарт:
NVidiA GeForce         ATI Radeon
  HD/AX 6990
 GTX 590 
  HD/AX 6970
 GTX 580 HD/AX 6950
  HD/AX 4870 X2
 GTX 480
 HD/AX 6870
 GTX 570 HD/AX 5970
  HD/AX 5870
 GTX 560 Ti HD/AX 6850
 GTX 470 
 GTX 295
 
 GTX 465 
  HD/AX 5850
 GTX 460 
 GTX 285 
 GTX 280 HD/AX 5830
 GTX 275 
 9800 GX2 HD/AX 4890
 GTX 260 (216sp) 
 GTS 450 HD/AX 4850 X2
 GTX 260 (192sp) HD/AX 5770
 GT 440 HD/AX 4870
 8800 Ultra HD/AX 3870 X2
 GTS 250 HD/AX 5750
 GT 430 HD/AX 4850
 9800 GTX/GTX+ HD/AX 4770
 8800 GTX 
 8800 GTS 512Mb HD/AX 4830
 9800 GT HD/AX 4730
 8800 GT HD/AX 5670
 GTS 240 
 9600 GTS HD/AX 5570
 9600 GT HD/AX 5550
 9600 GSO 768Mb 
 8800 GS 768Mb 
 
 HD/AX 3850 X2
 8800 GTS 640Mb 
 9600 GSO 384Mb HD/AX 4670
 8800 GS 384Mb HD 2900 XT
 8800 GTS 320Mb HD/AX 3850
 220 GT HD 2900 PRO
 210 GT HD/AX 5450
  HD 2900 GT
 7950 GX2 X1950 XTX
  HD/AX 4650
  X1950 XT
 7900 GTX X1900 XTX
 7950 GT X1900 XT
 8600 GTS X1950 PRO
 9500 GT HD/AX 3650
 7900 GT X1950 GT
 7800 GTX 512Mb X1900 GT
 7900 GS X1800 XT
 7800 GTX 256Mb 
 7800 GT X1800 XL (GTO2)
 7800 GS X1800 GTO
 8600 GT HD 2600 XT
  HD 3370
 6800 Ultra X850 XT (и PE)
 6800 GT X800 XT (и PE)
  X850 PRO
 6800 GS X800 XL (GTO)
  X1650 XT
 7600 GT HD/AX 4550
 G210 HD 3730
  HD 2600 PRO
 9400 GT X1650 PRO (X1600 XT)
 7600 GS X1650 PRO
 6800 X800
 6600 GT X800 GT
 6800 LE (XT) X700 XT
  HD/AX 4350
  HD 3470
  X1300 XT
 8500 GT HD 2400 XT
 7300 GT HD/AX 3450
  HD 2400 PRO
  X700
 6600 X1550 (X1300 PRO)
 8400 GS 
  X600 XT
 6600 LE X550
 7300 GS X1300
 7300 LE 
 7100 GS 
  
 7200 GSX300 (SE)

NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS

Интересно, что при большом производственном и рыночном превосходстве NVIDIA до сих пор серьезно уступает AMD в скорости освоения новых технологических процессов. Прошло уже немало времени с тех пор, как появился 80-нанометровый чип ATI RV570, и лишь теперь компании удалось формально уравнять позиции – GeForce 8500 GT, 8600 GT и 8600 GTS также выпускаются по 80-нанометровому техпроцессу. В это время у AMD уже выходит новая видеокарта 80 нм Radeon HD 2900 XT, и на подходе семейство Radeon HD2600/HD2400, выполняющееся по 65-нанометровому техпроцессу.

Если оценивать ситуацию на рынке по большинству других критериев, то нельзя не заметить, что положение у графического подразделения AMD достаточно сложное. Неоднократные переносы анонсов новых продуктов привели к тому, что в высшем сегменте компании просто нечего было противопоставить серии GeForce 8800, а в остальных категориях удавалось держаться на плаву зачастую только благодаря демпинговому подходу к ценообразованию. В этих условиях выход удачных продуктов DirectX 10 среднего ценового диапазона от NVIDIA мог бы нанести еще один серьезнейший удар по пошатнувшимся позициям AMD в графическом сегменте. Вот почему особенно интересно проанализировать, насколько успешными оказались GeForce 8500 GT, 8600 GT и 8600 GTS.
Сравнительные характеристики видеоадаптеров
ВидеокартаSparkle SF-PX86 GTS256D3Palit 8600 GT PCI-E 256 MB DDR3ECS N8500 GT-256DYBFG 8800 GTS 320 MB
ВидеопроцессорGeForce 8600 GTS (G84)GeForce 8600 GT (G84)GeForce 8500 GTGeForce 8800 GTS 320 MB (G80)
Техпроцесс, мкм0,080,080,08 
Число пиксельных/ вершинных процессоров32 унифицированных/
16 текстурных/
8 блоков растеризации
16 унифицированных
/8 текстурных
/8 блоков растеризации
96 унифицированных/ 24 TMU/ 20 ROP
Разрядность шины памяти, бит128128128320
Частоты ядра/памяти, MHz675 (ядро)/ 1450 (блок шейдерных процессоров)/ 1000 (2000) RAM540 (ядро)/ 1180 (блок шейдерных процессоров)/ 700 (1400) RAM450 (ядро)/ 900 (блок шейдерных процессоров)/ 400 (800) RAM512 (ядро)/ 1200 (блок шейдерных процессоров)/ 800 (1600) RAM
Видеопамять256 MB GDDR3, 1,0 нс256 MB GDDR3, 1,4 нс256 MB GDDR2, 2,5 нс320 MB GDDR3, 1,2 нс
ИнтерфейсыDVI (2), S-VideoDVI (2), S-VideoDVI, D-sub, S-VideoDVI (2), S-Video
Цена*, $220–275145–17096–107319–420
*По данным hotline.ua.
Важно то, что на сегодняшний день на рынке (в том числе украинском) уже присутствует множество моделей на базе G84/86 от всех вендоров. Очевидно, количества чипов вполне достаточно, чтобы обеспечить массовые поставки. Путь, по которому пошла NVIDIA, создавая новые видеопроцессоры, очень простой. Унифицированная архитектура позволяет гибко варьировать количество функциональных блоков процессора, не затрачивая усилия R&D-подразделения на разработку каких-то специфичных решений для умышленного упрощения и удешевления флагманских графических чипов. Подробные технические характеристики рассматриваемых видеокарт приведены в сводной таблице, мы их лишь прокомментируем. Собственно, была проведена очень существенная конверсия – 128 унифицированных шейдерных процессоров были урезаны до скромных 32 у видеокарт GeForce 8600 GTS и GT (это, забегая наперед, катастрофическим образом сказалось на производительности). А если говорить о GeForce 8500 GT, то тут вообще было оставлено 16 шейдерных блоков, и только 8 текстурных (по 16 TMU у GeForce 8600 GTS и GT). Зато за счет сокращения компонентов ядра удалось существенно поднять частоты их работы (немалую роль тут, конечно, сыграл и более тонкий 80-нанометровый техпроцесс). У GeForce 8600 GTS они составляют 675/1450 MHz для GPU – это больше, чем у GeForce 8800 GTX! Нельзя не отметить и довольно дорогую память типа GDDR3 (2000 MHz), применяемую в этой видеокарте. Ширина шины ОЗУ была уменьшена до 128 бит для всех трех моделей. При этом степень нагрева даже GTS-версии, не говоря уже о GeForce 8600 GT и 8500 GT, очень невелика, что позволило практически всем производителям выпустить разогнанные версии новых продуктов. Можно с уверенностью предположить, что такие разновидности будут предлагаться повсеместно, однако при покупке стоит оценивать разницу в стоимости с референсной моделью, ведь GeForce 8600 GTS/GT и GeForce 8500 несложно разогнать и самостоятельно.
В отличие от G80, у плат на базе которого существовал отдельный чип NVIO для поддержки внешних видеоинтерфейсов, у семейства G84/86 он отсутствует, а RAMDAC – интегрирован в графический процессор.
Размеры и самих плат, и применяемых систем охлаждения очень скромные, как и положено массовым решениям. Особенно это бросается в глаза на фоне «авианосца» GeForce 8800 GTX. Модели GeForce 8800 GT отличаются меньшим размером PCB, которая, кроме того, выполнена по значительно упрощенному дизайну (различия между GTS и GT только в тактовых частотах). Также у GeForce 8600 GT отсутствует дополнительный коннектор питания, что лишний раз подтверждает небольшое энергопотребление новинок.
Тем не менее не обошлось без технологических инноваций. Помимо нового производственного процесса, к таковым можно отнести модернизацию текстурных модулей – в отличие от семейства GeForce 8800, видеокарты на базе G84/G86 могут вычислять до восьми текстурных адресов против четырех у G80. Это теоретически должно повысить производительность TMU, что нельзя не приветствовать (хотя и вовсе не текстурные блоки являются узким местом архитектуры G84/G86).
Гораздо более существенным обновлениям подверглись блоки чипа, отвечающие за работу с видео. Даже по сравнению с GeForce 8800 новые GPU значительно эффективнее ускоряют проигрывание и декодирование различных HD-видеоформатов. Кроме того, дешифровку защищенного контента с дисков Blu-ray и HD DVD они также выполняют аппаратно, что позволяет снять эти задачи с центрального процессора. Новые возможности являются расширением технологии NVIDIA PureVideo HD.
NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10
Palit 8600 GTS PCI-E
256 MB
EVGA e-GeForce 8600 GTSMSI NX8600 GTS-T2D256EXpertvision 8600 GTS PCI-E 256 MBBiostar 8600 GTS
NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10NVIDIA GeForce 8500 GT, 8600 GT, 8600 GTS - первые видеокарты среднего класса для DirectX 10
Sparkle GeForce 8600 GTS (PCI-E)
256 MB
ECS N8500 GT-256DYMSI NX8500 GT-TD256ESparkle GeForce 8600 GT (PCI-E)
256 MB
MSI NX8600 GT-T2D256E-OC

Новый кандидат на звание самой быстрой видеокарты: Nvidia Quadro FX 3700

Компания выпустила новую профессиональную видеокарту на архитектуре G92, Quadro FX 3700.По словам представителя компании, новинка вдвое быстрее любого ближайшего конкурента.

Продукт предназначен для профессиональных покупателей. В Quadro FX 3700 работают 112 параллельных процессора, есть 512 мегабайт памяти, которая работает на 256-битной шине. Огромная производительность достигается за счет использования PCI-Express 2.0, что вдвое увеличивает скорость передачи данных между графическим процессором и материнскими платами нового стандарта, и теперь составляет 16 Гбсек. Устройство соответствует новым стандартам энергопотребления и подходит под все требования Energy Star 4.0.

Устройство совмещает богатую функциональность с лучшей на сегодня производительностью, что выводит ее на одно из первых, если не первое место среди решений для профессионалов.

Карта комплектуется новейшим интерфейсом NVIDIA Application Configuration Engine, который «на лету» изменяет программные и аппаратные настройки, чтобы предоставить максимально возможную производительность. Как и ожидается от видеокарты класса high-end, в FX 3700 имеется поддержка технологии SLI, что позволяет пользователям удваивать, утраивать производительность графической системы своего ПК.

Также есть архитектура Nvidia Unified Architecture, что позволяет внутренним шейдерам рендерить реалистичные эффекты освещения, как например дисперсию, отражение, преломление, имитируя при этом физические свойства той или иной поверхности, учитывая такие параметры, как пористость, рельеф структуры и так далее. Quadro FX 3700 отличается полной поддержкой технологии Nvidia CUDA. Последняя является программой, написанной на C, которая разгоняет графический процессор на полную при включении нескольких «прожорливых» приложений.
Quadro FX 3700
В некоторых странах видеокарта уже поступила в продажу. Скажем сразу, если хотите купить сразу 3 и запустить их одновременно через Triple-SLI. Дело в том, что цена одной составляет 1600 долларов, но это того стоит. Представьте, как будет смотреться последний Super Mario в разрешении 2880 x 2306 пикселей.

Состоялся официальный релиз двухчиповой видеокарты NVIDIA GeForce GTX 590

Сегодня состоялся официальный релиз двухчиповой видеокарты NVIDIA GeForce GTX 590. Следует отметить, что это первая официальная двухчиповая модель, основанная на архитектуре Fermi.
Состоялся официальный релиз двухчиповой видеокарты NVIDIA GeForce GTX 590


Итак, видеокарта NVIDIA GeForce GTX 590 содержит два графических процессора GF110, которые изготавливаются по нормам 40-нанометрового технологического процесса на базе архитектуры Fermi. Новинка также оснащается 1024 потоковыми процессорами, 128 текстурными блоками, 96 блоками растровых операций и 3 ГБ памяти стандарта GDDR5 с шиной доступа 2×384 бита. Рабочие частоты видеочипа/шейдерного домена/памяти в видеокарте NVIDIA GeForce GTX 590 установлены на значениях 607/1214/3414 МГц, соответственно. Для отвода тепла от компонентов представленной модели используется двухслотовый кулер с расположенным в центре вентилятором. При этом в кулере для каждого графического процессора используется собственная испарительная камера. Видеокарта NVIDIA GeForce GTX 590 обладает максимальным энергопотреблением на уровне 365 Вт. Требования к блоку питания для установки видеокарты NVIDIA GeForce GTX 590 в системный блок установлены на уровне 700 Вт. Максимальная допустимая температура графических процессоров составляет 97 градусов Цельсия. Для обеспечения такой модели дополнительной энергией используется два 8-штырьковых коннектора питания. Для подключения мониторов к видеокарте NVIDIA GeForce GTX 590 доступны три интерфейса DVI и один видеовыход mini DisplayPort, а для подключения к системе служит разъем PCI-Express 2.0 x16. Представленная модель обладает поддержкой DirectX 11, OpenGL 4.1, технологий 3D Vision, CUDA, PhysX, SLI, 3D Vision Surround.
Рекомендованная розничная цена видеокарты NVIDIA GeForce GTX 590 заявлена на уровне $699.
По заверениям производителя, видеокарта NVIDIA GeForce GTX 590 способна заполнять 77,7 млрд. текстур в секунду. Пропускная способность памяти составляет 327,7 ГБ/с. Устройство поддерживает максимальное разрешение 2650х1600 точек. Длина видеокарты NVIDIA GeForce GTX 590 составляет 280 мм. Согласно результатов предварительных тестов производительности, видеокарта NVIDIA GeForce GTX 590 уступает на 8-10% двухчиповой видеокарте AMD Radeon HD 6990. Отставание от двух видеокарт NVIDIA GeForce GTX 580 в связке SLI составляет 15-20%. Также на 1-3% опережает новинку конфигурация SLI из двух устройств NVIDIA GeForce GTX 570.

ASUS GeForce GT 440


Не так давно компанией NVIDIA были представлены новые видеокарты на графическом ядре GeForce GT 440. На сайте производителя они помечены как GeForce GT 440 (new!) и это не случайно. Само графическое ядро GeForce GT 440 уже было анонсировано достаточно давно, но решения на нем попали только в OEM сегмент рынка видеокарт. «GeForce GT 440 - OEM» – так  обозначались модели, имеющие 144 ядра CUDA и частоту GPU 594 МГц. В них использовалось 1,5 или 3 ГБ памяти GDDR3 с частотой 800 и 900 МГц соответственно. Видеокарты NVIDIA GeForce GT 440 - OEM поставлялись только на заводы для производства готовых компьютеров. Это связано с достаточно оригинальными характеристиками таких видеокарт, что ограничивало их конкурентоспособность в Retail сегменте рынка.
Представленное недавно обновление семейства видеокарт GeForce GT 440 (new!) имеет достаточно перспективные возможности для Retail рынка. Эти графические ускорители можно назвать намного более сбалансированными по производительности, объему устанавливаемой памяти и цене.
Архитектура чипа GF108 представляет собой два кластера шейдерных блоков версии GF104/106 с 48-ю шейдерными процессорами и по 8 TMU (Texture Mapping Unit) в каждом. Компания NVIDIA не урезала производительность геометрии, сохранив по блоку Polymorph Engine на кластер, не подверглись уменьшению и блоки ROP - формируясь по принципу «по 8 ROP на 64-бита шины». Небольшая производительность в реальных приложениях связана с наличием всего двух кластеров, суммарно обладающих 96 шейдерными процессорами и 16 текстурными модулями.

NVIDIA GeForce GTS 450 1 ГБ GDDR5
NVIDIA GeForce GT 430 1 ГБ GDDR3
NVIDIA GeForce GT 440 (1 ГБ GDDR5 или 2 ГБ DDR3)
Кодовое имя ядра
GF106
GF108
GF108
Техпроцесс, нм
40
40
40
Частота ядра GPU, МГц
783
700
810
Кол-во блоков ROP, шт
16
16
16
Кол-во TMU, шт
32
16
16
Кол-во ядер CUDA, шт
192
96
96
Частота шейдерного домена, МГц
1566
1400
1620
Тип видеопамяти
GDDR5
GDDR3
DDR3, GDDR5
Разрядность шины памяти, бит
128
128
128
Эффективная частота видеопамяти, МГц
3600
1600 - 1800
1800, 3200
Максимальное энергопотребление, Вт
106
49
65
Новый представитель линейки Fermi основан на сильно «усеченном» ядре GF108. До этого в Retail сегменте рынка уже были представлены решения на GF108 под именем NVIDIA GeForce GT 430. Однако частотная формула GeForce GT 440 существенно увеличена, а возможность установки памяти GDDR5 также прибавит производительности графическим ускорителям на GeForce GT 440 в сравнении с видеокартами на GeForce GT 430. Однако если сопоставить новинку с моделями на NVIDIA GeForce GTS 450, которые относятся к сегменту бюджетных видеокарт массового игрового рынка, то GeForce GT 440 имеет явно более скромные возможности.
«Референсный» вариант NVIDIA GeForce GT 440 обладает полноразмерной высотой печатной платы, что отличает такие ускорители от GeForce GT 430, которые имеют низкопрофильный текстолит. На интерфейсной панели расположились порты DVI, HDMI и VGA. Эталонная модель от компании NVIDIA получила простую активную систему охлаждения, которая явно будем модифицирована производителями брендовых решений на данном ядре. Видеокарты на NVIDIA GeForce GT 440 обходятся без дополнительного питания, они также не имеют разъема для установки мостиков SLI. Новое решение выполнено по архитектуре Fermi, что наделяет его поддержкой DirectX 11 / OpenGL 4.0 / CUDA compute capability 2.1. Имея стоимость около 90$, новинка вполне может составить конкуренцию в этом сегменте видеоускорителям от компании AMD (ATI), что и будет проверено в разделе «Тестирование» при помощи видеокарты ASUS ENGT440/DI/1GD5. Именно решение от компании ASUS на графическом ядре NVIDIA GeForce GT 440 с модифицированной системой охлаждения и появилось в нашей тестовой лаборатории. Новинка ASUS ENGT440/DI/1GD5 имеет ряд отличий от «референсного» образца, как в дизайне системы охлаждения, так и в основных частотных характеристиках.
ASUS GeForce GT 440
Видеокарта ASUS ENGT440/DI/1GD5 семейства NVIDIA GeForce GT 440, имеет заводской разгон, измененный текстолит и улучшенную систему охлаждения оригинального и броского дизайна.
Таблица спецификаций:
Модель
ASUS ENGT440/DI/1GD5
Графическое ядро
NVIDIA GeForce GT 440 (GF108-400-A1)
Количество универсальных шейдерных процессоров
96
Поддерживаемые API
DirectX 11 (Shader Model 5.0), OpenGL 4.0
Частота графического ядра, МГц
822
Частота шейдерного блока, МГц
1644
Частота памяти (эффективная), МГц
800 (3200)
Объём памяти, МБ
1024
Тип памяти
GDDR5
Ширина шины памяти, бит
128
Тип шины
PCI-E 2.0 x16
Максимальное разрешение
До 2560 x 1600 (Dual-link DVI) или 1920x1200 (Single-link DVI)
До 1920x1200 (HDMI)
До 2048x1536 (VGA)
Интерфейсы вывода изображения
DVI-I, HDMI, VGA
Поддержка HDCP и декодирования HD-видео
Есть
Декодирование MPEG-2, MPEG-4, DivX, WMV9, VC-1 и H.264/AVC
Максимально допустимая температура ядра, °С
98
Минимальные требования к блоку питания, Вт
300
Драйверы
Свежие драйверы можно скачать со страницы поддержки или сайта производителя GPU.
Сайт производителя
В таблице спецификаций можно заметить увеличение частот относительно рекомендованных производителем чипа. Инженеры компании ASUS, установив на данной видеокарте более эффективную систему охлаждения, смогли без потери стабильности поднять частоты GPU с рекомендованных 810 МГц до 822 МГц. Частоты работы памяти соответствуют предложенному компанией NVIDIA значению для чипов GDDR5. Нельзя сказать, что такой разгон сильно повлияет на производительность, но само его наличие позволяет привлечь покупателя к этому продукту.

Компания NVIDIA готовит версию GeForce GTX 560 Ti с 448 ядрами CUDA

Стало известно, что компания NVIDIA готовит к выпуску новую версию производительного адаптера GeForce GTX 560 Ti, дебютировавшего в начале текущего года. По сведениям сайта VR-Zone, новинка получит 448 активных ядер CUDA вместо прежних 384 шейдерных процессоров, что предполагает замену видеопроцессора GF114 на флагманский чип GF110, используемый в мощных видеокартах GTX 570 и GTX 580.

Компания NVIDIA готовит версию GeForce GTX 560 Ti с 448 ядрами CUDA


По сравнению с версией GF110 в GeForce GTX 570 чип в обновленной модификации GeForce GTX 560 Ti, вероятнее всего, получит на один активный блок SM меньше, что также означает наличие 56 текстурных блоков и 40 блоков растеризации плюс 320-битной шины памяти. Прочие характеристики новинки под предполагаемым названием GeForce GTX 560 Ti (448 Core) могут включать 1280 МБ “набортной” памяти GDDR5 и видеовыходы DVI, HDMI и DisplayPort.

Отметим и появление поддержки режима 3-way SLI, а стоимость более продвинутой версии GeForce GTX 560 Ti с 448 ядрами CUDA, чей дебют на рынке ожидается ближе к сезону новогодних праздников, должна составить около $300. Таким образом, NVIDIA, очевидно, старается как-то заполнить возникшую паузу, связанную с подготовкой к выпуску графических карт следующего поколения на базе 28 нм GPU.

GeForce GTX 285


Gainward – бренд, начавший активную работу на российском рынке совсем недавно, но, сама компания основана на Тайване аж в 1984 году. Компания занимает сильные позиции на своём "родном" рынке и тратит не менее 10% годового бюджета на различные исследования, стараясь так или иначе увеличивать качество и надёжность своих видеокарт.
Разобравшись с пока ещё экзотичным брендом, предлагаю перейти непосредственно к знакомству с новенькой видеокартой, предварительно поговорив о графическом процессоре, послужившем для неё основой.

GeForce GTX 285 – особенности и строение

Казалось бы, семейство GeForce GTX 200 застыло в своем развитии, но в начале 2009 года вышла 55-нм версия чипа G200-B с меньшей площадью кристалла и повышенными частотами.
Gainward GTX 285 – нереференсная GeForce GTX 285
Соответственно снизилось и энергопотребление – теперь для данной карты достаточно двух 6-штырьковый разъемов питания.
Gainward GTX 285 – нереференсная GeForce GTX 285
Также отличия коснулись и РСВ, ведь предыдущие видеокарты использовали двухсторонний радиатор – обратная сторона была накрыта тонкой алюминиевой пластиной, призванной отводить тепло от микросхем памяти.
В новом дизайне, примененном для GeForce GTX 285, все 16 микросхем памяти перенесены на лицевую сторону, что позволило упростить конструкцию системы охлаждения (а значит, и удешевить её). Собственно вот так выглядит кожух, содержащий радиатор и куллер-турбину.
Gainward GTX 285 – нереференсная GeForce GTX 285
Gainward GTX 285 – нереференсная GeForce GTX 285
Справа от GPU расположились элементы схемы питания.
Как можно заметить, GeForce GTX 285 за счёт техпроцесса 55-нм смогла выиграть примерно 50 Вт энергопотребления по сравнению с фактически аналогичнойGeForce GTX 280 (по сути, тот же чип, но сделанный по старому техпроцессу). Более мелкий техпроцесс помог увеличить частоты, а значит и производительность карты (по нашим оценкам, на 10-15%).
С помощью драйверов NVIDIA видокарты GeForce GTX 285 могут работать в режиме SLI или же можно выделить одну карту для расчетов физики, а другую для графики. Также пользователь может поместить вместо одной GeForce GTX 285 карту семейства GeForce 8 или 9 для PhysX, а другую GeForce GTX 285использовать как основную графическую плату.
Данная карта – это чистый референс GeForce GTX 285, никаких изменений в стандартной разводке, предложенной NVIDIA, здесь нет. К слову, Вот так выглядит сама референсная карточка NVIDIA.
Внутри, помимо самой карты, можно обнаружить следующие элементы:
  • Инструкция.
  • Диск с драйверами.
  • Звуковой кабель SPDIF.
  • Переходник DVI→VGA.
  • Переходник DVI→HDMI.
  • Переходник питания на 6-разёмов.

GeForce 3D Vision – система объёмного видео


Система GeForce 3D Vision позволяет просматривать трехмерную картинку на дисплее персонального компьютера, а также на экранах отдельных телевизионных систем высокого разрешения и цифровых проекторов. В набор GeForce 3D Vision (при рекомендованной цене за комплект $199) входят лишь специальные стерео-очки, ИК-передатчик, комплект кабелей для подключения к компьютеру, да диск с программным обеспечением.
Но для полного погружения в виртуальный мир трехмерных изображений у Вас еще должны быть: одна из последних моделей видеокарт этой фирмы и дисплей либо телевизор с логотипом "GeForce 3D Vision-Ready". Что, при отсутствии этих компонентов значительно, значительно повышает стоимость объемного удовольствия.
В список совместимых с GeForce 3D Vision видеокарт на сегодня попали: GeForce GTX 295, GeForce GTX 285, GeForce GTX 280, GeForce GTX 260, GeForce 9800 GX2, GeForce 9800 GTX+, GeForce 9800 GTX, GeForce 9800 GT, GeForce 9600 GT, GeForce 8 Series, GeForce 8800 Ultra, GeForce 8800 GTX, GeForce 8800 GTS, GeForce 8800 GT. Поддерживается работа указанных видеокарт в режиме SLI и все современные технологии NVIDIA.
Но, как отмечают некоторые пользователи, использование видеокарт среднего уровня с очками не всегда оптимально. Дело в том, что режим стереоскопии значительно повышает требования к производительности видеосистемы. И для поддержания приемлемой частоты кадров при "родном" разрешении монитора или телевизора от видеокарты потребуется довольно серьёзная графическая производительность.
Подходящие для GeForce 3D Vision устройства отображения будут иметь кроме логотипа "GeForce 3D Vision-Ready" и приличную цену. Правда, указывается, что можно использовать и существующие CRT мониторы с кадровой частотой свыше 100 Гц, но, при этом, они должны обладать необходимым для подключения двухканальным DVI-интерфейсом. Не удастся использовать и уже имеющиеся у многих ЖК-телевизоры, поскольку их HDMI входы, как правило, поддерживают только 60 Гц сигналы кадровой развертки, чего явно недостаточно.

Пока же рекомендуется использовать лишь пару LCD мониторов: Samsung SyncMaster 2233RZ и ViewSonic FuHzion VX2265wm. А также довольно широкую линейку HDTV-телевизоров класса домашнего театра от Mitsubishi, да один тип проекционного телевизора – DepthQ HD 3D.
В системах трехмерного видео с затворными очками (shutter glasses) необходима минимальная частота смены изображения в 120 Гц, чтобы обеспечить для каждого глаза более-менее комфортные условия просмотра изображения, сменяющегося при этом с частотой 60 Гц. Дело в том, что каждый из глаз видит изображение с пониженной вдвое частотой кадров, поэтому возможно появление эффекта мерцания.
Основной проблемой, приведшей в свое время к сворачиванию разработок в области компьютерной стереоскопии, была массовая замена классических (CRT) мониторов на электронно-лучевых трубках жидкокристаллическими дисплеями (LCD). CRT-мониторам был физически присущ эффект мерцания и для борьбы с ним в последних поколениях мониторов частота смены кадров была доведена до 100 Гц и более. LCD-мониторы первоначально довольствовались частотой в 60 Гц, так как благодаря особенностям технологии обеспечивали, при этом отличное изображение, с точки зрения отсутствия мерцаний. Другим препятствием для качественного объемного воспроизведения на LCD мониторах могло стать присущее первым поколениям LCD-матриц значительное время послесвечения отдельных пикселей. Что могло оставлять "затухающее" изображение прежнего кадра при открытии затвора линзы очков для другого глаза
В последнее время некоторые производители жидкокристаллических мониторов, телевизионных систем и проекторов внедряли в производство модели с частотой смены кадров в 120 Гц, но в них, как правило, нет двух канального DVI-входа, необходимого для работы GeForce 3D Vision.


nVidia GeForce GTX 590

Многочисленные источники всё чаще и чаще упоминают о выходе самой мощной в мире видеокарты из стана Nvidia - GeForce GTX 590, и хоть информации не так уж и много, но уже стало известно, что анонс двухчипового "супермонстра" намечен 22 марта сего года.
Основой новинки является два чипа GF110 (архитектура Fermi), графический ускоритель будет иметь в сумме 1 024 потоковых процессора, с общим объёмом памяти GDDR5 равным 3 Гб. 
В состав системы охлаждения будет входить две испарительные камеры с вентилятором расположенным по центру. Для облегчения очистки элементов видеокарты от пылевых фракций применен съёмный кожух . 

Скорее всего, ускоритель будет оснащён 3-мя выходами DVI, вследствие чего, пользователи будут иметь возможность формировки системы 3D Vision Surround с выводом стереоскопического изображения на 3-и монитора. Поддержка технологии CUDA, PhysX, а также наличие программного интерфейса DirectX 11. 

Частота ядра чипа, а также шейдерного блока и памяти не уточняются. 

На рынке продаж карта GeForce GTX 590 будет составлять конкуренцию не так давно представленному двухпроцессорному ускорителю AMD Radeon HD 6990, цена которого колеблется в пределах 700 долларов.