Видеокарты: от пикселей до нейросетей

Эволюция видеокарт: как железка для игр стала мозгом современного компьютера

Если раскрыть старый системный блок офисного ПК года так 2005 и старше, внутри почти наверняка найдётся небольшая плата с вентилятором или радиатором, которая отвечала исключительно за вывод картинки на монитор. Так выглядели видеокарты двадцатилетней давности. Это совсем не то, что мы представляем себе на данный момент, поскольку уже многие годы в головах прочно закрепился образ огромного кирпича с двумя, а чаще тремя (или даже четырьмя) крупными вентиляторами. А все потому, что сегодня видеокарта — это не просто способ вывести картинку на экран. Это вычислительный монстр, на котором обучают языковые модели, рендерят полнометражные фильмы, просчитывают молекулярную динамику и запускают игры с кинематографичной картинкой. Поэтому ей и нужно массивное охлаждение и крупные размеры, чтобы вместить всю мощь. Как мы прошли путь от адаптеров, умеющих выводить всего 16 цветов, до чипов с десятками миллиардов транзисторов и невероятной производительностью? Разберёмся по порядку, без маркетинговых лозунгов и лишних отступлений.

Так выглядели видеокарты 25-30 лет назад
Так выглядели видеокарты 25-30 лет назад

Начало. Когда графика была роскошью (1970–1990-е)

Первые видеоадаптеры появились ещё в эпоху мейнфреймов (прототипов современных вычислительных серверов), но массовым явлением стали только с приходом разъемов вывода графики типа: IBM PC. MDA, CGA, EGA, VGA — сегодня эти аббревиатуры звучат как экспонаты из музея вычислительной техники, но в своё время каждая из них была шагом вперёд. Революционный разъем VGA (1987) дал 256 цветов и разрешение 640×480. Этого хватало для ранних игр (8 и 16 bit), текстовых редакторов и первых графических оболочек.

Ускорения вычислений как явления тогда и не существовало. Процессор считал всё сам, а видеокарта просто копировала готовый кадр в видеопамять и выводила его на экран. Ситуация изменилась в середине 90-х с появлением 3д в кино и геймдеве. Шутеры, вроде Quake и Descent, показали: центральному процессору не справиться с растущей геометрией и текстурами. Тогда инженеры из компании 3dfx придумали интересное решение проблемы. На сцену вышел первый ускоритель вычислений (зарождение этого термина также началось с 3dfx) с платой Voodoo Graphics (1996). Это была не самостоятельная видеокарта, а дочерний ускоритель, который брал на себя растеризацию, фильтрацию и работу с API Glide (беспроблемный обмен данными от различных программ). Эффект оказался взрывным: плавный фреймрейт, сглаженные текстуры, стабильная картинка. Игроки впервые увидели, что значит «аппаратное ускорение».

Та самая Voodoo Graphics
Та самая Voodoo Graphics

Рождение GPU и война шейдеров (1999–2006)

Термин GPU (Graphics Processing Unit) официально появился в 1999 году с выходом NVIDIA GeForce 256. Маркетологи назвали его «первым в мире GPU», и технически были правы: чип впервые взял на себя трансформацию и освещение, сняв эту нагрузку с процессора. Конкуренты из ATI ответили серией Radeon, и началась гонка, которая определила индустрию на десятилетия.

Первый графический ускоритель
Первый графический ускоритель

Ключевым переломом стало внедрение программируемых шейдеров. Раньше графический конвейер был жёстко зашит в железо: разработчики могли использовать только те эффекты, которые поддерживал чип на уровне архитектуры. Новые встроенные технологии DirectX 8 и 9 дали возможность писать собственные микропрограммы для вершин и пикселей. Это открыло дорогу для разработчиков и энтузиастов к динамическим теням, реалистичной воде, сложным материалам и постобработке. Видеокарта перестала быть просто «отрисовщиком» и стала параллельным вычислителем, выполняя любые действия качественнее, и быстрее любого мощного ЦП.

К середине 2000-х ATI и NVIDIA делили рынок почти пополам. Появились технологии SLI и CrossFire — попытки объединить две карты в одну систему. Технология оказалась капризной и нишевой, но показала главное: индустрия упёрлась в физические ограничения тактовых частот и начала искать параллельные пути масштабирования производительности.

От игр к вычислениям. CUDA, GPGPU и новая парадигма (2007–2018)

В 2006 году NVIDIA выпустила GeForce 8800 GTX — архитектуру с унифицированными шейдерными процессорами (маленькие универсальные ядра для сложных задач). А год позже представила технологию CUDA. Это была революция. Разработчики получили язык и платформу для запуска неграфических задач прямо на видеокарте. Матричные умножения, физические симуляции, обработка видео, научные расчёты — всё это ложилось на сотни потоковых ядер идеально.

Индустрия быстро поняла: GPU эффективнее CPU в задачах с массовым параллелизмом. Появился термин GPGPU (General-Purpose computing on GPU). ATI (к тому времени уже поглощённая AMD) ответила OpenCL и собственной экосистемой, связанной с компанией AMD, но CUDA закрепилась как де-факто стандарт в науке, продакшене и позже — в машинном обучении.

Игры тоже не стояли на месте. DirectX 11, тесселяция, вычислительные шейдеры, PBR-материалы. К концу 2010-х видеокарта окончательно превратилась в гибридный ускоритель: она всё ещё рендерила кадры, но всё больше времени тратила на постобработку, физику, подготовку данных и фоновые вычисления.

Nvidia продолжала захватывать рынок, создавая все новые и более мощные линейки видеокарт. После успешной 9xx серии, вышла по настоящему легендарная "десяточка". Серия GeForce GTX 10xx на архитектуре Pascal (2016) стала тихой революцией: переход на 16-нм FinFET дал почти двукратный прирост производительности на ватт, а модели 1060 и 1070 впервые сделали стабильный высокий FPS доступным для широких масс. Но настоящим символом поколения и, пожалуй, одной из самых удачных карт в истории NVIDIA стала GTX 1080 Ti. Выпущенная в 2017 году на урезанном серверном чипе GP102, она получила 3584 CUDA-ядра, 11 ГБ GDDR5X и 352-битную шину — набор, который позволил ей уверенно тянуть 1440p и даже 4K на высоких настройках без всяких «умных» апскейлеров. Карта оказалась настолько мощной, что обогнала свое время, и оставалась конкурентной ещё три-четыре года после выхода первых RTX, а среди геймеров и сборщиков до сих пор считается эталоном чистой растеризации: максимум мощности, минимум компромиссов и нулевая зависимость от программных костылей.

Настоящая легенда
Настоящая легенда

Трассировка, ИИ и современный этап (2018–н.в.)

В 2018 году NVIDIA представила архитектуру Turing и серию RTX, чем совершила новый переворот в индустрии графических чипов. Два новых блока изменили правила игры: RT-ядра для аппаратной трассировки лучей и тензорные ядра для ИИ-вычислений. Трассировка дала кинематографичное освещение, честные отражения и мягкие тени в реальном времени. Тензорные ядра породили DLSS — технологию, которая рендерит картинку в пониженном разрешении, а затем восстанавливает детали нейросетью. Казалось бы, компромисс, но результат оказался настолько качественным, что индустрия приняла его как новый стандарт производительности.

RTX 2080ti - первый флагман с трассировкой лучей
RTX 2080ti - первый флагман с трассировкой лучей

AMD ответила архитектурой RDNA, сделав ставку на чистую растеризацию, энергоэффективность и открытые стандарты (FSR, ROCm). Intel попыталась вернуться на дискретный рынок с серией Arc, но пока занимает нишевую позицию. Рынок консолидировался, а цены ушли вверх из-за спроса со стороны майнеров, дата-центров и ИИ-компаний.

Сегодня флагманские GPU, вроде RTX 4090, RTX 5080, RTX 5090, AMD RX 7900 XTX содержат более 70 миллиардов транзисторов, потребляют 400–600 Вт и стоят как подержанный автомобиль. Но их главная роль сместилась: игры остаются витриной, а реальная нагрузка — обучение моделей, рендеринг, научные симуляции и облачные вычисления.

RTX 5090 - нереальная мощь для игровых видеокарт
RTX 5090 - нереальная мощь для игровых видеокарт

Итог

Эволюция видеокарт — пример того, как узкоспециализированное железо переросло свою задачу и стало фундаментом цифровой эпохи. Это путь от VGA-адаптеров, выводивших пиксели по очереди, до чипов, параллельно обрабатывающих терафлопсы данных, который занял меньше сорока лет.

Что дальше? Архитектуры будут становиться гетерогеннее, энергоэффективность выйдет на первый план, а граница между CPU, GPU и NPU окончательно размоется. Но принцип останется тем же: железо создаётся под задачи, а задачи всегда находят железо.

Disclaimer: Все визуальные материалы в данной статье использованы в информационных целях. Права на изображения принадлежат их законным владельцам. Все изображения взяты из открытых источников или использованы в варианте для демонстрации развития технологии (fair use).

3
2
1
1
7 комментариев