10 фактов о GeForce 8800
🕛 15.11.2006, 16:44
Предлагаем Вашему вниманию подборку фактов технического характера, суммированную по результатам многочисленных "утечек" информации о новом флагмане компании NVIDA. Изложение сделано максимально сухим, дабы читатель смог почерпнуть только точную информацию. Итак, факт №1: дата официального релиза GeForce 8800 - 8-го ноября 2006 года, 11.00 по Гринвичу. Видеокарта предстанет в виде двух модификаций - 8800 GTX и 8800 GTS, в первой волне будут представлены такие производители, как ASUS, MSI, BFG. Абсолютно все платы будут произведены ASUS, другие производители смогут только менять систему охлаждения, комплектность и ПО. NVIDIA не разрешает производителям изменять эталонные частоты GeForce 8800, по крайней мере в первой волне выпуска. Число видеокарт в первом выпуске крайне не велико - крупнейшие страны получат ввего по несколько сотен карт.
Факт №2: чип G80, лежащий в основе GeForce 8800, содержит 681 млн транзисторов. Его энергопотребление составляет порядка 140 Вт. Частоты работы пиксельных и вершинных конвейеров могут отличаться почти на 1 ГГц. G80 поддерживает технологию GigaThread, позволяющую запускать одновременно тысячи вычислительных потоков - по аналогии с шиной RingBus у видеокарт ATI. Шейдерные блоки, число которых у 8800 GTX равно 128, NVIDIA называет Stream Processors (потоковые процессоры), подчёркивая тем самым многопоточность архитектуры.
Факт №3: пиксельные процессоры могут с одинаковым успехом обрабатывать как пиксельные, так и вершинные, физические или геометрические инструкции - но не все типы одновременно. Любая инструкция может быть сохранена в видеопамяти, потом отправлена на обработку на другой процессор видеокарты. В результате игры получат более точный расчёт освещения, большее возможное число полигонов в моделях и расчёт физики.
Факт №4: чип G80 имеет кэш первого и второго уровней.
Факт №5: чип G80 обладает 64-мя блоками фильтрации текстур, которые прокачивают за такт по 64 пикселя - для сравнения, это число у G70 было равно 24. Таким образом, филрейт составляет, в зависимости от типа фильтрации текстур, от 18.4 до 36.8 гигатекселя в секунду. При этом размер одного пакета составляет от 16 до 32 пикселей (у Radeon X1900 этот показатель равен 48).
Факт №6: G80 обладает шестью блоками о обработке растрового изображения (Raster Operation Partitions, ROP), каждый из которых способен обработать 4 пикселя за такт. Таким образом, общее число пикселей за такт составляет 24, а при использовании полноэкранного сглаживания 4х - 48.
Факт №7: G80 обладает собственной технологией антиалиасинга и HDR-рендеринга Lumenex Engine, обеспечивающей мультисемплинг, суперсэмплинг и адаптивный антиалиасинг прозрачных областей. При этом, помимо хорошо знакомых нам режимов, доступны 8x, 8xQ, 16x and 16xQ. Одновременно с антиалиасингом может быть осуществлён 128-битный HDR-рендеринг (по 32 бита на каждый из трёх каналов цветности и канал прозрачности).
Факт №8: GeForce 8800 поддерживает улучшенную анизотропную фильтрацию (зависимую от угла, под которым видна текстура), сравнимую с выполняемой сейчас видеокартами Radeon X1xxx.
Факт №9: внешний чип ввода-вывода не только экономит транзисторы GPU, но и обеспечивает беспрецедентное цветовое пространство (более миллиарда цветов), поскольку содержит 10-битный ЦАП.
Факт №10: производительность ядра GeForce 8800 GTX составляет 520 гигафлопов. Таким образом, по чистой вычислительной мощи два G80 в режиме SLI вполне могу соперничать с небольшим суперкомпьютером.