Подобно компьютерам, видеокарты используют ОЗУ для хранения активных данных — и, как и ПК, во многих случаях, чем больше ОЗУ доступно для карты, тем лучше она будет работать. . Видеопамять содержит данные о каждом пикселе на экране. Некоторые карты, интегрированные в саму материнскую плату, совместно используют оперативную память с компьютером, в то время как выделенные карты имеют встроенную память, используемую явно для рендеринга видео. Если ваш бизнес интенсивно использует приложения с интенсивным использованием графики, проверьте видеопамять вашего компьютера, чтобы определить, не пора ли обновить видеокарту вашего ПК.
1
Нажмите «Windows-D» для доступа к рабочему столу.
2
Щелкните рабочий стол правой кнопкой мыши и выберите «Разрешение экрана». Нажмите «Дополнительные настройки».
3
Нажмите «Адаптер», а затем просмотрите раздел «Информация об адаптере», чтобы узнать общую сумму доступная видеопамять на карте.
Для чего используется видеопамять? Что такое видеопамять? Как увеличить видеопамять и стоит ли это делать
Видеопамять (или VRAM, произносится vee-RAM) — это особый тип ОЗУ, который работает с графическим процессором вашего компьютера или графической картой GPU. Ваша видеопамять содержит информацию о том, что нужно вашему графическому процессору, например, игровые текстуры и световые эффекты.
Однако, если этот вариант вам не подходит (например, на ноутбуках), вы можете увеличить выделенную VRAM двумя способами. В них должна быть возможность настроить объем памяти, выделяемой для графического процессора.
Вполне понятно, что нам было интересно, как гибридное использование общей и выделенной графической памяти влияет на производительность 3D. То же самое верно в ситуациях, когда общий объем требуемой памяти превышает доступный максимум 256 МБ графической подсистемы, состоящей из 128 МБ выделенной и 128 МБ общей памяти. Однако этот тест представляет чисто академический интерес, поскольку производительности встроенного графического ядра все же недостаточно для современных игр с максимальным качеством изображения.
Выделенная графическая память и встроенный графический процессор?
Для графики можно выделить до 256 МБ памяти. Когда графическая подсистема слабо загружена, система отключает некоторые линии PCIe даже в режиме оптимальной производительности. Система работает с выделенной видеопамятью через так называемый SidePort.
Как добавить видеопамять из ОЗУ
Это значение представляет собой общий объем памяти, в которой видео карту можно использовать — сумма встроенной памяти и объем, выделенный из оперативной памяти компьютера. Отсутствие таких или похожих пунктов меню в BIOS может означать, что ваша материнская плата не поддерживает установку максимального объема выделяемой видеопамяти. Встроенная видеокарта не имеет собственной памяти и использует оперативную память компьютера. Определение объема памяти на вашей видеокарте. Объем видеопамяти на вашем компьютере — одна из наиболее важных характеристик вашего компьютера. Как расширить память видеокарты Одним из основных компонентов компьютера является видеокарта.
Как увеличить видеопамять за счет ОЗУ (распределяется) через BIOS
В: Что является выделенной, а что выделенной видеопамятью? Ответ: Память на видеокартах может быть как выделенной, так и выделенной. Выделенная память означает, что видеопамять реализована путем размещения на карте нескольких микросхем памяти. Эти видеокарты имеют небольшой объем собственной видеопамяти, используемой для традиционных 2D-операций, а также для организации буфера RAMDAC. Когда нет необходимости в дополнительной памяти, она освобождается для общесистемных нужд. В видеокартах ATI эта память называется HyperMemory, а в видеокартах NVIDIA — TurboCache.
Как с помощью этих настроек увеличить видеопамять? Для повышения производительности изменен параметр апертуры AGP OverVoltage. В качестве примера возьмем 16 МБ встроенной памяти адаптера и 256 МБ оперативной памяти. В настройках VGA Shared Memory (он же буфер UMA) нужно установить обязательный параметр, но не рекомендуется устанавливать максимальное значение.
Чтобы изменить объем памяти, выделенной для видео карту, необходимо изменить настройки BIOS. Чтобы войти в BIOS, выйдите из этого окна и выключите компьютер.
Как увеличить видеопамять и стоит ли это делать?
Вы увидите текущую видеопамять в списке рядом с выделенной видеопамятью. 1-2 ГБ видеопамяти: эти карты обычно обеспечивают лучшую производительность, чем встроенная графика, но в среднем не справляются с большинством современных игр. Если VRAM заполняется, система должна полагаться на стандартную RAM, и производительность снизится. На самом деле, для интегрированной графики значение выделенной видеопамяти совершенно неуместно. У вас есть выделенная видеокарта или встроенная графика?
Память видеокарты. Возможность увеличения видеопамяти
Видеопамять — это часть ОЗУ, отведенная для хранения данных, которые используются для формирования изображения на экране монитора. Для видеокарт имеется выделенная оперативная память, также называемая «видеопамятью».
Встроенные видеокарты обычно встречаются в ноутбуках. Для выполнения операции по увеличению памяти необходимо войти в меню BIOS компьютера. Дальнейшие действия во многом зависят от модели материнской платы и даже от версии BIOS. Настройки видеопамяти — это именно тот вариант, который нам нужно найти для увеличения видеопамяти.. Из списка значений возможного размера ОЗУ, которое можно выделить для работы видеокарты, выбираем нужное значение.
Здесь мы видим всю необходимую нам информацию: GPU модель и размер видеопамяти. Существуют специальные драйверы, которые добавляют к таким видеоядрам некоторые свойства, например, поддержку новых версий DirectX, шейдеры, повышенные частоты и другие. Использование встроенного графического ядра приводит к снижению производительности в играх и приложениях, использующих видеокарту. При этом, если питание дискретного адаптера не требуется для повседневных задач, то встроенное видеоядро вполне может стать бесплатной альтернативой последнему. Не стоит требовать от встроенной графики невозможного и пытаться «разогнать» ее с помощью драйверов и другого ПО.
Если вы откроете форум какой-нибудь популярной компьютерной игры, то обязательно найдете тему про видеокарты в нем, где на нескольких десятках страниц, среди прочего, будет активно обсуждаться объем памяти видеокарты. Опытные пользователи могут вступить в активное обсуждение вопроса, но для новичка это полнейшая чушь. В сегодняшнем посте я хочу рассказать вам немного о том, что такое видеопамять компьютера и для чего она используется.
Что такое видеопамять компьютерной графики?
Думаю, вы уже понимаете, что в компьютере или ноутбуке помимо основной оперативной памяти есть еще видеопамять — VRAM … Аббревиатура расшифровывается как Video Random Access Memory. Графическая видеопамять компьютерной видеокарты — это особый тип оперативной памяти, которая используется в дискретных видеоадаптерах в компьютерах и ноутбуках. Он выполнен в виде микросхем, распаянных на видеокарте вокруг GPU.
Думаю, понятно, что чем больше модулей подключено, тем больше видеопамяти. Возникает логичный вопрос — зачем это нужно, ведь в компьютере уже есть оперативная память!
Память видеокарты используется для временного хранения графических данных, а именно изображений (так называемый кадровый буфер), формируемых и передаваемых видеоадаптером на монитор ПК. Видеопамять является двухпортовой, то есть она может одновременно записывать данные при изменении изображения и одновременно считывать его содержимое для рисования изображения на экране. Проще говоря, память видеокарты предоставляет графическому процессору данные, необходимые для рендеринга изображения — так называемый рендеринг. Эти данные включают буфер кадра, карту теней, используемые текстуры, освещение и т. Д.
Как узнать объем видеопамяти
Вы можете использовать видео Объем памяти видеоадаптера, установленного на вашем компьютере, можно несколькими способами.
Во-первых, зная точную модель видеокарты, вы можете узнать о ней абсолютно все в Интернете, введя индекс модели в поисковую систему.
Во-вторых, вы можете использовать одну из множества утилит, отображающих всю информацию о видеоадаптере компьютера. Например, Everest, Aida64 или HWiNFO64. Например, мне больше всего нравится бесплатная программа GPU-Z:
Быстрая, легкая и показывает абсолютно всю необходимую информацию. В поле Тип памяти будет показан тип используемой памяти видеокарты, а в поле Размер памяти — ее объем.
В-третьих, узнать объем памяти можно в наклейке, которая обычно наклеивается на видеоадаптер. Пишут модель устройства, используемый чип и установленный размер видеопамяти. Однако, чтобы использовать этот метод, вам придется разобрать компьютер. С ноутбуками вообще в этом смысле дикое неудобство!
Как увеличить объем памяти видеокарты
Этот вопрос обычно задают новички. Они знают, что объем оперативной памяти в компьютере можно расширить, установив дополнительные модули, и думают, что с видеокартой все точно так же. Но нет, увеличить объем видеопамяти без замены видеокарты не получится. Для этого нужно купить новый адаптер и заменить им старый.
Кстати, в моей практике был случай, когда один опытный радиоинженер очень захотелось перепаять модули RAM с одной доски на другую. Тем более, что для этого на доске были соответствующие места. Но эта затея ничем не закончилась. Мало того, что такие работы имеют высокий класс точности, но даже если это окажется сделано за счет физического увеличения объема видеопамяти, потребуется еще и перепрошить само устройство. Действительно, без соответствующего ПО плата все равно не увидит установленные модули ОЗУ.
Сколько памяти нужно видеокарте?
Вопрос очень интересный. . Здесь все напрямую зависит от того, как будет использоваться видеоадаптер в плане работы с графикой. Например, если это просто офисный компьютер, то для него будет достаточно встроенного графического адаптера, который сам займет немного видеопамяти из ОЗУ. Если это домашний ПК для фильмов и простых игр, то ему хватит 256 Мб и более. до 1 ГБ. Но заядлому геймеру или профессиональному видеоработу потребуется в среднем 2-4 гигабайта.
Также необходимо учитывать следующие факторы:
Разрешение монитора
Чем больше ваш монитор, тем большее разрешение он использует. И чем больше используется разрешение, тем больше расходуется память видеокарты. Например, для 1 кадра в качестве FullHD (разрешение 1920X1080X32) требуется 8 МБ видеопамяти. Если вы подключили самый современный монитор 4K, то используемое им разрешение будет занимать в среднем 33 МБ на кадр.
Сглаживание текстур
Сглаживание видео есть обычно очень интенсивно использует память. Чем сильнее сглаживание, тем выше потребление видеопамяти. Кроме того, разные алгоритмы сглаживания имеют соответственно разное потребление. Более того, разные виды сглаживания по-разному потребляют ресурсы компьютера..
Качество текстур и теней
Чем выше качество текстур, тем больше теней отображается на объектах, тем больше расходуется видеопамять компьютера. Как правило, это самый сильный потребитель ресурсов видеокарт. Нравится ли вам играть в «тяжелую» игру максимально качественно? Будьте готовы к тому, что памяти вашей видеокарты для этого может не хватить. Чем реалистичнее качество картинки, тем больше теней и текстур для этого потребуется, а значит видеоадаптер будет задействован по максимуму.
ESSAY
по дисциплине Компьютеры и периферия
по теме:
«Видеокарта. Устройство, функции»
(Полное имя)
Москва 2015
Что такое видеокарта? …. …………………………………………………… … 4
Для чего используется видеопамять? …………………………………………… ..6
История видеокарт …………………………………………… ………………… 7
IBM Monochrome Display Adapter ………………… … …………………………… 8
Первый ПК IBM ……………………………………………………………… ..… 8
Видеокарта IBM CGA ……… ……………………………………………………… 9
видеокарта EGA …………………………………………… ………………………. десять
Видеокарта IBM VGA ……………………………………………………… 12
Видеокарта S3 Virge… ………………………………………………………… … 14
Графика вуду ………………………………… …. …… … ……… .. 16
Видеокарта Diamond Monster …………………………………………… ..… .. 16
Видеокарта Voodoo2 с первым в мире SLI ………………………………. …… .. 18
Видеокарта RIVA TNT от NVIDIA ……………………………… … ………… .. 19
Видеокарта 3D Rage Pro ……………… .. ……………………… …. ……… .. ……. 20
Видеокарта Voodoo 3 от 3Dfx ………………………………………. ………… 21
Видеокарта Matrox Millenium G40 ………………………………… ..… .. ………. 22
Видеокарта Rage 128 ……………………………………………………………. 23
ATI Rage Видеокарта Fury MAXX ……………………………………………… .24
Видеокарта Voodoo5 …………………………………… ……………………… .25
Видеокарта GeForce 256 ……………………………………………………… 25
Видеокарта BitBoys Axe ………………………………………………………… 28
Видеокарта Glaze3D ……………… ……………………………………………… 28
Видеокарта NVIDIA GeForce2 ………………………………………………… … .29
Видеокарта GeForce3 с чипом NV20 …………………………………………… 29
Видеокарта ATI R200… ……………………………………………………… … 30
Шейдер ……………………………………… …………………………………… … 31
Выводы ………………………………………………………… ……………… ..33
Список использованной литературы …………………………………………… .34
Что такое видеокарта?
Видеокарта (также известная как видеокарта, видеокарта, видеоадаптер, графический адаптер) — устройство, преобразующее графическое изображение, хранящееся как содержимое памяти компьютера или самого адаптера, в другую форму, предназначенную для дальнейшего отображения на экране монитора. В настоящее время эта функция потеряла свой основной смысл и, в первую очередь, под графическим адаптером понимается устройство с графическим процессором — графическим ускорителем, который и занимается формированием самого графического изображения.
Видеопамять — это один из компонентов компьютера, который требует максимальной производительности, это графический контроллер, который является сердцем всех мультимедийных систем.
Пропускная способность обычно измеряется в мегабайтах. в секунду и указывает скорость обмена данными между видеопамятью и графическим контроллером. На производительность графической подсистемы влияют несколько факторов: скорость процессора, скорость интерфейсной шины (CPU), скорость видеопамяти (PCI или AGP), скорость графического контроллера
Современная видеокарта состоит из следующих частей :
Графический процессор (графический процессор) — занимается расчетами отображаемого изображения, освобождая центральный процессор от этой ответственности, и выполняет вычисления для обработки Команды 3D-графики. Это основа видеокарты, именно от нее зависит скорость и возможности всего устройства.
Видеоконтроллер — отвечает за формирование изображения в видеопамяти, дает команды RAMDAC для генерации сканировать сигналы для монитора и обрабатывать запросы от центрального процессора. Кроме того, обычно присутствуют внешний контроллер шины данных (например, PCI или AGP), контроллер внутренней шины данных и контроллер видеопамяти.
Видеопамять — служит буфером кадра, в котором хранится изображение, генерируемое и постоянно изменяемое графическим процессором и отображаемое на мониторе (или нескольких мониторах). В видеопамяти также хранятся промежуточные элементы изображения и другие данные, которые не видны на экране. Существует несколько типов видеопамяти, различающихся скоростью доступа и частотой работы. Современные видеокарты оснащены памятью DDR, DDR2, GDDR3, GDDR4 и GDDR5.
Цифро-аналоговый преобразователь (DAC, RAMDAC — Random Access Memory Digital-to-Analog Converter) — используется для преобразования изображения, сформированного видеоконтроллером, в уровни интенсивности цвета, передаваемые на аналоговый монитор. Возможный цветовой диапазон изображения определяется только параметрами RAMDAC. Чаще всего RAMDAC имеет четыре основных блока: три цифро-аналоговых преобразователя, по одному для каждого цветового канала (красный, зеленый, синий — RGB), и SRAM для хранения данных гамма-коррекции.
Видео ПЗУ — это запоминающее устройство, предназначенное только для чтения, которое содержит видео BIOS, экранные шрифты, служебные таблицы и т. Д. ПЗУ не используется непосредственно видеоконтроллером — к нему обращается только центральный процессор. Видеобиос, хранящийся в ПЗУ, обеспечивает инициализацию и работу видеокарты перед загрузкой основной операционной системы, а также содержит системные данные, которые могут быть прочитаны и интерпретированы видеодрайвером во время работы (в зависимости от метода, используемого для разделения ответственности между драйвер и BIOS). На многих современных картах установлено электрически программируемое ПЗУ (EEPROM, Flash ROM), позволяющее пользователю перезаписывать BIOS видео с помощью специальной программы.
Система охлаждения — предназначена для поддержания температуры видео процессор и видеопамять в допустимых пределах.
Корректная и полнофункциональная работа современного графического адаптера обеспечивается с помощью видеодрайвера — специального программного обеспечения, поставляемого производителем видеокарты и загружаемого во время процесс запуска операционной системы. Видеодрайвер действует как интерфейс между запущенными в системе приложениями и видеоадаптером. Как и видео BIOS, видеодрайвер организует и программно управляет работой всех частей видеоадаптера через специальные регистры управления, доступ к которым осуществляется через соответствующую шину.
Ширина шины памяти, измеряемая в биты — количество битов информации, передаваемых за такт. Важный параметр производительности карты.
Объем видеопамяти, измеряемый в мегабайтах, — это объем собственной оперативной памяти видеокарты. Больше объема не всегда означает большую производительность.
Частоты ядра и памяти измеряются в мегагерцах, чем больше, тем быстрее видеокарта обрабатывает информацию.
Текстура и скорость заполнения пикселей, измеряемая в миллионах пикселей в секунду, показывает количество информации, отображаемой в единицу времени.
Выходы карты — видеоадаптеры MDA, Hercules, CGA и EGA были оснащены 9-контактными Разъем D-Sub. Иногда был также коаксиальный разъем Composite Video, который позволяет отображать черно-белое изображение на ТВ-приемнике или мониторе, оборудованном видеовходом LF.
Что такое видео памяти?
Для чего нужны видеокарты и принципы их работы известны многим продвинутым пользователям компьютеров. Что ж, мало кто знает историю их развития и совершенствования с момента появления до наших дней.
Графические адаптеры, пожалуй, самые интересные и важные части современного ПК. Для огромного количества геймеров видеокарты стоят на первом месте среди компонентов компьютера по важности. Чтобы увеличить такое драгоценное количество кадров в игре, они готовы выложить немалую сумму за лучшие видеокарты. А для разработчиков видеокарт эти деньги — толчок к созданию более мощных и современных адаптеров. Развитие видеокарт значительно опережает развитие, например, процессоров. Хотя несколько десятилетий в это было трудно поверить.
Скорость, с которой информация поступает на экран, и объем информации, который выходит из видеоадаптера и передается на экран — все зависит от трех факторов:
Разрешение вашего монитора
Количество цветов, из которых следует выбирать при создании изображения
Частота обновления экрана
Разрешение определяется количеством пикселей в строке и количеством самих строк. Поэтому на дисплее с разрешением 1024×768, которое типично для систем, использующих Windows, изображение генерируется каждый раз, когда экран обновляется с 786 432 пикселей информации.
Как правило, частота обновления экрана составляет не менее 75 Гц или циклов в секунду. Мерцание вызывает утомление глаз и утомление при длительном просмотре. Чтобы уменьшить утомляемость глаз и улучшить эргономику изображения, частота обновления экрана должна быть достаточно высокой, не менее 75 Гц.
Количество воспроизводимых цветов или глубина цвета является десятичным эквивалентом двоичного значения. количества бит на пиксель. Таким образом, 8 бит на пиксель эквивалентны 28 или 256 цветам, 16-битный цвет, который часто называют просто высоким цветом, отображает более 65000 цветов, а 24-битный цвет, также известный как истинный или истинный цвет, может представлять 16,7 миллион цветов. Чтобы избежать путаницы, 32-битный цвет обычно означает отображение истинного цвета с дополнительными 8 битами, используемыми для обеспечения 256 степеней прозрачности. Таким образом, в 32-битном представлении каждый из 16,7 миллионов истинных цветов имеет дополнительные 256 степеней прозрачности. Такими возможностями цветопередачи обладают только высокопроизводительные системы и графические рабочие станции.
Ранее настольные компьютеры в основном оснащались мониторами с диагональю экрана 14 дюймов. Разрешение VGA 640×480 точек вполне покрывает этот размер экрана. Как только средний монитор увеличился до 15 дюймов, разрешение увеличилось до 800×600 пикселей. По мере того, как компьютер становится все более и более инструментом визуализации с постоянно улучшающейся графикой, а графический интерфейс пользователя (GUI) становится стандартом, пользователи хотят видеть больше информации на своих мониторах. Мониторы с диагональю 17 дюймов становятся стандартным оборудованием для систем на базе операционной системы Windows, а разрешение 1024×768 пикселей адекватно заполняет экран такого размера. Некоторые пользователи используют разрешение 1280×1024 пикселей на 17-дюймовых мониторах.
Современной графической подсистеме требуется 1 мегабайт памяти для обеспечения разрешения 1024×768. Хотя на самом деле требуется только три четверти этого объема памяти, графическая подсистема обычно хранит информацию о курсорах и ярлыках во внеэкранной памяти для быстрого доступа. Пропускная способность памяти определяется как отношение количества мегабайт данных, передаваемых в память и из памяти в секунду. Типичное разрешение 1024×768, глубина цвета 8 бит и частота обновления 75 Гц, требуется 1118 мегабайт в секунду пропускной способности памяти.. Добавление функций обработки трехмерной графики требует увеличения объема доступной памяти на плате видеоадаптера. В современных видеоускорителях для систем на базе Windows размер установленной памяти составляет 4 МБ. Дополнительная память помимо той, которая необходима для создания изображения экрана, используется для z-буфера и хранения текстур.
История видеокарт
История ПК-совместимых персональных компьютеров началась с адаптера MDA (Monochrome Display Adapter), который появился в известной IBM в 1981 году и стал прародителем графических карт. Этот адаптер был первым, не интегрированным в материнскую плату. Его собрали на отдельной плате, и для него в универсальной XT-шине создали специальный слот.
MDA — дальний предок современных видеокарт — IBM Monochrome Display Adapter
По сути, это был видеоконтроллер, функция которого заключалась в выводе содержимого видеопамяти на монитор. Сигнал, генерируемый MDA, был цифровым, что сделало RAMDAC необходимым для последующих адаптеров. Плата MDA включала не только микросхему видеоконтроллера, но также 4 КБ видеопамяти, тактовый генератор и микросхему ПЗУ, содержащую шрифт.
Как ни странно, MDA не работала. в графическом режиме — просто текст. Однако в то время многие ПК требовали интенсивного использования графики. Почему IBM отказалась от графики? Все было на позиции IBM. То, что компьютер умел «рисовать» на мониторе, тогда считалось чем-то несерьезным и ассоциировалось с играми. И, конечно же, бизнес-компьютеру эти «игрушки» не нужны.
Первый IBM PC
Но, несмотря на отсутствие графики, MDA была достаточно хороша. Он отображал на мониторе 25 строк по 80 символов в каждой, причем один символ располагался на матрице размером 9 * 14 пикселей. Таким образом, разрешение, обеспечиваемое MDA, составляло 720 * 350 пикселей, что давало тексту большую четкость, чем у конкурентов. Кроме того, у символов было 5 атрибутов на выбор: нормальный, яркий, подчеркнутый, инвертированный и даже мигающий. Очевидно, MDA работала только с черно-белыми мониторами. Кроме того, у MDA был порт принтера, а это означало, что клиентам не нужно было покупать дополнительный контроллер, который в то время стоил около 100 долларов.
И все же, если бы у IBM PC не было графика, она не была бы такой популярной. Ради «легкомысленных» пользователей для IBM PC в том же году был изготовлен еще один адаптер, который получил название CGA (Color Graphics Adapter). Он также был выпущен в 1981 году. Он давал более низкое разрешение, чем MDA, но имел гораздо больше режимов. Благодаря 16 КБ видеопамяти, CGA может работать как в текстовом, так и в графическом режимах.
графическая карта IBM CGA
CGA отображал столько строк и символов, сколько MDA (25 x 80 или 40 символов Однако символы имели 16 цветов, хотя располагались на матрице 8 * 8 пикселей.
В графическом режиме CGA выводила изображение на экран в трех вариантах: 640 * 200 с 1 битным цветом (монохромный); 320 * 200 пикселей с 2 битами (4 цвета); 160 * 100 пикселей уже с 4-битным цветом (16 различных цветов). Третий вариант технически представлял собой эмуляцию графики в текстовом режиме ( имитация пикселей происходила с использованием полузаполненной матрицы размером 8 * 8 пикселей).
Игры того времени — Solitare
Порт, который передает видеосигнал в цифровом виде, CGA был девятиконтактным, как порт MDA, и имел выход для работы с цветным телевизором. CGA работал с одноцветным дисплеем для MDA. Так было до 1984 года. До появления адаптера EGA.
Games of the Time — Wilf
При разработке видеокарт следовал принципу увеличения количества цвета и пиксели в разрешении. Представленный в 1984 году усовершенствованный графический адаптер (EGA) отображал 16 цветов (4 бита) с разрешением 640 * 350 пикселей. Видеопамять сначала стала 64 кб, а затем выросла до 256 кб, благодаря чему EGA справилась с несколькими страницами памяти. По этой причине процессор формировал сразу несколько кадров изображения, т.е. получалось некое ускорение графики.
EGA — 16 цветов, 640×350 пикселей
Улучшение графики в играх EGA — Йорик
Улучшенная графика — Ancient Art of War
Подобные графические адаптеры уже несколько лет не имеют аналогов, что трудно представить в наши дни. Так было до 1987 года, когда пользователи ПК установили для себя лучший адаптер — EGA. Но все же в этом году появился еще один, названный VGA (Video Graphics Array).
Этот адаптер создавался для новых ПК IBM PS/2. Проектируемое семейство не должно было использовать открытую архитектуру, и, к сожалению, на рынке оно было совершенно неудачным. Хотя многие идеи этого семейства были приняты пользователями. Например, MCGA (Multi-Color Graphics Array), графический адаптер, который подключается к компьютерам PS/2 через материнскую плату, был заменен на шину ISA. Это VGA.
Разрешение VGA было 640 * 480 пикселей и 16 цветов или 320 * 240 при 8-битном цвете (256 цветов). До фотореализма еще далеко, но шаг все же сделан. VGA получил новый интерфейс — 15-контактный D-Sub, ставший стандартом и сохранившийся до сих пор в некоторых ПК.. Одной из особенностей была совместимость с приложениями для EGA, CGA и MDA, благодаря чему они работали на VGA.
Благодаря наличию на борту адаптера видеопамяти 256 кб, VGA сохраняла несколько кадров , и даже со шрифтом. Говорят, что при использовании всего объема памяти на экране мог отображаться кадр с разрешением 800 * 600 пикселей! Хотя не подтверждено.
IBM VGA с новым интерфейсом
Немного более производительный
Как и предыдущие адаптеры PS/2, IBM выпустила 2 адаптера: MCGA (VGA), который был тройной, а также продается как обновление до 8514/A. Последний отображал изображение с разрешением 1024 * 768 пикселей и имел 8 бит цвета. Кроме того, создатели этого адаптера дополнили его еще некоторыми возможностями ускорения графики, благодаря которым он выполнял часть функций подготовки кадров.
8514/A рисовал линии, заливал часть кадра, и применил битовую маску, все в своей видеопамяти. Это был значительный плюс для приложений инженерной графики, но особенно заметно он был при создании диаграмм. Конечно, требовалась помощь и программ, которые вскоре предоставили.
Следует отметить, что в то время графические рабочие станции профессионалов имели дополнительные сопроцессоры для графики, которые располагались на отдельных платах. . Эти сопроцессоры были очень дорогими и имели много функций. Несмотря на ограниченную функциональность, 8514/A был намного дешевле, что является очень важным фактором в индустрии ПК.
Игра в Манджонг на 8514/A
Наступил 1990 год и появился XGA (Extended Graphics Array). Он заменил 8514/А и у него было больше возможностей. Единственным изменением стал режим с разрешением 800 * 600 пикселей и 16 битами цвета (65 536 цветов, High Color). XGA была пионером в использовании различных адаптеров SuperVGA, при этом видеопамять и разрешение увеличивались из года в год. В результате удивить заказчика качеством изображения становилось все сложнее. Соответственно, чтобы продавать новые дорогие адаптеры, необходимо было ввести в них новые функции.
Start 3D
S3 стал пионером 3D для компьютеров. Ее видеокарта S3 Virge поддерживала 4 МБ видеопамяти или DRAM и унаследовала успех Trio 64V +. Ядро и память имели частоту 80 МГц, что для наших дней просто смехотворно.
У этого адаптера есть функция 3D-ускорения. Благодаря этому создатели игр смогли использовать динамическое освещение и билинейную фильтрацию текстур, хотя Virge не дал прироста скорости игр.
S3 Virge во всей красе
Компания быстро поняла, что, будучи пионером 3D, это того стоило вывод своих плат на потребительский рынок. S3 начала заключать контракты с разработчиками Tomb Raider, Descent II, Mechwarrior 2, получивших стандарт S3D. S3 осознала необходимость распространения своего стандарта, тем самым получив больше предпочтений со стороны покупателей, чем другие производители. Возможности Virge, конечно, включают поддержку OpenGL, но их производительность была очень низкой. В функциях была заявлена даже поддержка Direct3D, несмотря на то, что почти все игры были для MS-DOS, а игры с Direct3D еще даже не входили в планы.
Доминирование S3 на рынке видеоадаптеров. длилась до 1996 года, когда появился ускоритель Voodoo Graphics от 3Dfx. И, несмотря на последующие обновления и улучшения, Virge по-прежнему остается недорогой 2D-картой.
Сама 3Dfx возникла из понимания того, что ПК нуждается в 3D-производительности, что было хорошо для консолей того времени. Это поняли представители Silicon Graphics Гарри Таролли, Скотт Сеттерс и Росс Смит. Они основали компанию.
Взяв кредит, специалисты приступили к работе. 3Dfx заработала первые деньги и сделала шаги в индустрии по выпуску графических чипов для консолей того времени. Год спустя компания выпустила Voodoo Graphics. Новый адаптер был представлен на Computex и вызвал огромное удовольствие. Такого плавного и красивого 3D рендеринга никто не мог представить. Качество графики было намного выше, чем у Nintendo 64 и Playstation, которые только что готовились к выпуску. Voodoo Graphics анонсировала поддержку DirectX и OpenGL, хотя скорость была очень низкой. Но при работе с интерфейсом Glide все работало очень хорошо. Разработчики игр сразу же приступили к оптимизации для Voodoo Graphics, не думая о ее конкурентах. Режим адаптера с разрешением 640 * 480 пикселей и 16-битным цветом сейчас совсем не удивляет, но тогда он был даже впечатляющим для потребителей.
Функции Glide
Сам адаптер был установлен в специальный слот PCI, но не имел 2D функции. Принцип работы заключался в перехвате управления в 3D режиме от обычного адаптера, через который он был подключен к монитору. Комбинация высококачественных 2D- и 3D-адаптеров поначалу выглядела очень интересной и пользовалась успехом у пользователей. В том же году был выпущен 3D-ускоритель Rendition Verite V1000, который имел функции 2D-видеокарты, но в высоком разрешении затуманивал изображение. Из-за этого не пользовалась популярностью и Voodoo Rush, вышедшая годом позже и представлявшая собой полноценную видеокарту с 3D-ядром Voodoo Graphics.
Voodoo Graphics
В Voodoo Graphics было 3 МБ EDO DRAM с тактовой частотой 50 МГц, аналогично процессору.. В конце 1996 года цены на EDO DRAM упали, и 3Dfx начала продавать адаптеры по относительно дешевой цене, что вызвало всплеск ее популярности среди потребителей. Однако 3Dfx не реализовала собственные адаптеры. Она была поставщиком для партнеров. Самым популярным стал Diamond Monster 3D, благодаря которому продукты 3Dfx стали называть «монстрами».
Видеокарта Diamond Monster не такая уж и монстра на вид
Опытные конкуренты
Legendary Quake на Riva128
Но 3Dfx не была единственным владельцем рынок. Компания ATI, появившаяся еще в 1985 году, начав с «клонирования» IBM 8514/A, имела опыт и достаточную известность до появления первого адаптера от 3Dfx. К 1995 году у нее уже был адаптер Rage, который создавал отличное 2D-изображение, имел возможности 3D и мог обрабатывать сжатый видеопоток MPEG-1. 3D Rage II вышла в середине 1996 года. Этот ускоритель был в 2 раза быстрее своего предшественника и уже обрабатывал формат MPEG-2 (DVD). Ускоритель имел поддержку Direct3D и OpenGL (частично). На борту он имел 8 МБ SDRAM, а частота процессора и памяти составляла 60 и 83 МГц соответственно. Несмотря на заметный недостаток производительности при 3D-рендеринге, карта обладала отличным 2D-рендерингом и была способна на аппаратное ускорение начального уровня.
Появившись на пару лет раньше, чем 3Dfx, NVIDIA выпустила свой первый, хотя и провальный, продукт NV1 1995 года. Он сочетал в себе 3D-ускоритель, 2D-адаптер, звуковой адаптер и порт для геймпада Sega Saturn. Это было дорого и имело странную архитектуру: 3D возникло из кривых третьего порядка, а не из полигонов. Для создателей игр такой подход был слишком оригинальным и сулил массу трудностей при создании движка для игры. Но когда появился Direct3D, NV1 окончательно канула в Лету.
Несмотря на это, а также на потери сотрудников и денег, NVIDIA смогла выпустить совершенно другой продукт под названием NVIDIA Riva 128, основанный на чипе NV3 и имеющий 4 МБ (а в версии 128ZX — 8 МБ) SDRAM, 128-битную шину и рабочую частоту 100 МГц. Его производительность в 3D была на уровне Voodoo Graphics, и он выпускался в двух вариантах: PCI и AGP, которые не поддерживались продуктами 3Dfx. Riva 128 помогла NVIDIA избежать банкротства. Однако ничья между 3Dfx и NVIDIA была только в непопулярном в то время Direct3D.
Тот факт, что на рынке появлялось все больше и больше продвинутых 3D-игр и видеокарт, привел к созданию большего количества продвинутые и более быстрые видеокарты. Вехой в истории видеокарт стал 1998 год, когда родился адаптер Voodoo2 с 8 или 12 МБ EDO DRAM на борту и работающий на частоте 100 МГц..
Voodoo2 с первым в мире SLI
Архитектура Voodoo2 была почти такой же, как в Voodoo, за некоторыми исключениями. Первой особенностью был дополнительный блок текстур, с помощью которого за 1 проход рендеринга можно было применять до двух текстур за проход, что значительно увеличивало производительность. Вторая особенность — это картинка, отображаемая адаптером. Разрешение изображения достигало 1024 * 768 пикселей при 12 МБ памяти и 800 * 600 при 8 МБ памяти в 16-битном цветовом режиме. Но главным нововведением стал режим SLI, который позволил двум Voodoo2 работать одновременно. Эта система была очень и очень дорогой, но конкурентов не было вообще, а производительность была невероятной.
Мощный дизайн: два Voodoo2 в режиме SLI
В этом году NVIDIA не удалось догнать 3Dfx, но появившаяся в этом году Riva TNT (NV4) стала толчком к успеху компании. За 2 года специалисты NVIDIA создали новую архитектуру, которая давала RIVA TNT 2 конвейера рендеринга, то есть накладывала 2 текстуры за проход, как и Voodoo2. RIVA TNT работала на частоте 90 МГц, а его память была SDRAM объемом 16 МБ.
RIVA TNT от NVIDIA
Глубина цвета продукта NVIDIA составила 32 бита, но производительность в этом режиме снизилась в 2 раза, что было негативно воспринято покупателями. Несмотря на это, RIVA TNT первой внедрила рендеринг в 32-битном цвете, и вскоре появились модели, которые показали приемлемую производительность в этом режиме. RIVA TNT также имела возможность работать с текстурами 1024 * 1024 пикселей, а для Voodoo2 максимумом были текстуры 256 * 256 пикселей.
Разработка библиотеки 3Dfx Glide в те годы была направлена на серьезная проблема для NVIDIA, помощь в решении которой, не зная об этом, оказывала Microsoft, активно распространявшая Direct3D.
ATI попыталась не отставать от конкурентов и в 1998 году выпустила свою 3D Rage Pro. , которые не имели большого успеха или конкурентного преимущества. Единственное, чем могла похвастаться эта видеокарта, так это производительностью при обработке сжатого DVD-потока. Производительность в 3D у этого продукта была не лучше, чем у видеокарт предыдущего поколения, а поддержка OpenGL была только для галочки. По этим причинам 3D Rage Pro почти никогда не был оценен потребителями и стал просто хорошим 2D-адаптером.
Кстати о 2D … В те годы было много производителей 2D-адаптеров, лидером среди которых была компания Matrox, которая представила свой адаптер как для 2D, так и для 3D в 1998 году. Этот чип полностью поддерживает 3D-рендеринг и может конкурировать с Riva TNT от NVIDIA по производительности.
G200 показал отличную производительность в 2D, а также обеспечил высокое качество 3D-рендеринга с 16- и 32-битным цветом. Рабочая частота G200 составляла от 84 до 90 МГц, он был оснащен двумя шинами данных по 64 бита каждая.. Обеспечивая ту же полосу пропускания, это решение предлагало меньшую задержку по сравнению с обычной 128-битной шиной. Кроме того, благодаря технологии DIME адаптер мог хранить в системной памяти текстуры с разрешением до 2048 * 2048 пикселей, а это решение позволило остановиться на 8 МБ видеопамяти, что помогло продукту подешеветь.
3D Rage Pro с дополнительным слотом памяти
В конце 90-х лидером производства видеокарт была компания 3Dfx, которая занимала твердое первое место, за ней следовала NVIDIA, а затем и масса других производителей (среди которых выделялись ATI, Matrox и S3. ), которые в то время были массовками, пытались их догнать. 1999 стал определяющим годом.
Voodoo3, G400, Rage 128 и Riva TNT2 были анонсированы в начале года. Рабочая частота детища 3Dfx составляла 183 МГц, и этот адаптер поддерживал SLI. Однако технологические инновации обошли адаптер от 3Dfx, который имел возможности 2D-адаптеров, но имел только один конвейер для рендеринга и не поддерживал 32-битный цвет и текстуры высокого разрешения.
Voodoo 3 от 3Dfx
Ответ NVIDIA — установлен чип NV5 в TNT2. Главное для NVIDIA — соблюдение технологических новшеств. Таким образом, Riva TNT2 первой получила поддержку AGP 4x, обеспечивала хорошую производительность рендеринга при 32 битах цвета, работала на частотах до 150 МГц и 183 МГц для памяти. В то время TNT2 был вполне конкурентоспособным соперником Voodoo3. Таким образом, безоговорочное лидерство 3Dfx на данном этапе истории видеокарт было под вопросом.
Компания Matrox, выпустившая G400, смогла не отставать от гигантов. Разработаны технологии компании, которые были реализованы в чипе G200. G200 имел две 128-битные шины, каждая на 125-150 МГц, и 128-битную шину памяти на 166-200 МГц. Новой технологией является EMBM (Environment mapped Bump mapping), которая стала аппаратной поддержкой эффектов рельефа текстуры. Благодаря ей графика вышла на принципиально новый уровень.
Matrox Millenium G400MAX и два его разъема для подключения мониторов
Презентация технологии EMBM
Кроме того, G400 впервые поддерживает два монитора. Таким образом, G400 смогла временно выйти на первое место среди видеокарт. К сожалению, G400 терял производительность при игре в OpenGL-игры, а большинство игр того времени не поддерживали Direct3D.
ATI, все еще отставая от лидеров, выпустила Rage 128, который был весьма интересен геймерам.. Он был намного дешевле новинок от NVIDIA и 3Dfx, однако скорость рендеринга на 32 бита цвета была выше, чем у RivaTNT, а также чип получил поддержку OpenGL и Direct3D. Таким образом, дела у ATI пошли намного лучше.
Небольшой скачок от ATI: их Rage 128
К концу 1999 года начался очередной этап противостояния лидеров в производстве видеокарт. 3Dfx выпустила VSA-100, который должен был устранить технологический разрыв, NVIDIA готовила NV10, который обещал стать «сюрпризом», а ATI и S3 попытались выйти на лидирующие позиции со своими Rage Fury MAXX и Savage 2000. , соответственно. Что эти компании предложили пользователям?
В VSA-100 реализована технология T-Buffer, обеспечивающая постобработку с использованием кинематографических спецэффектов. Полноценное сглаживание, размытие в движении, глубина резкости и мягкие тени должны улучшить качество изображения без ущерба для производительности.
Преимущество NVIDIA заключается в ее технологии Transform and Lighting (T&L). Благодаря использованию этой технологии некоторые задачи по вычислению вершин треугольников были сняты с центрального процессора, что обеспечило увеличение производительности в играх.
ATI Rage Fury MAXX по сути был сочетание двух Rage 128 Pro на одной доске, покадрово. Стоимость должна была быть огромной.
Слишком дорого ATI Rage Fury MAXX
S3 Savage 2000 был T&L, как и продукт NVIDIA, в нем была продвинутая технология сжатия текстур. Этот адаптер задумывался как более дешевая и технологичная альтернатива Voodoo3, способная отодвинуть NVIDIA на задний план.
На самом деле все оказалось совсем иначе. 3Dfx не успела выпустить свои Voodoo4, Voodoo5 и Voodoo6 до лета 2000 года. К тому времени NVIDIA смогла выпустить свой NV15, который был намного мощнее Voodoo6. Voodoo 4 и Voodoo5, имевшие один чип, серьезно уступали конкурентам по производительности, а двух- и четырехчиповые Voodoo5 были дорогими и довольно теплыми. Это был удар по 3Dfx, которая не так давно была флагманом индустрии видеокарт. Кредиторы сразу заметили потерю лидирующих позиций.
Шумный и не быстрый Voodoo5 с 4-мя чипами
Savage 2000 от S3 вышел чуть позже. T&L и сжатие текстур на самом деле работали хорошо и обеспечивали прирост производительности, но только при поддержке приложений. Таким образом, при отсутствии этой поддержки Savage 2000 серьезно проиграл своим конкурентам, а S3 совершенно не заинтересовал создателей игр. Помимо прочего, у этого продукта были большие проблемы с установкой драйверов, а также относительно низкая производительность блока T&L.. Несмотря на это, технология сжатия текстур S3TC заинтересовала Microsoft, они выкупили ее и лицензировали под названием DXTC. Соответственно, видеокарты всех компаний смогли получить эту технологию.
В целом адаптер ATI был хорошим решением, но не для своей цены. Кроме того, ему было очень сложно написать драйвер, который программисты ATI смогли выпустить всего через несколько месяцев после появления самого адаптера.
Адаптер NVIDIA — лучший. GeForce 256 смогла превзойти все остальные адаптеры благодаря своей отличной функциональности. Он имел четыре конвейера рендеринга, рабочую частоту 120 МГц и 32 МБ памяти (с частотой 166 МГц и 128-битной шиной) SDRAM (которая с 2000 года стала DDR SDRAM). NVIDIDA не забыла о T&L, которую стали поддерживать все исходящие игры.
Великолепная GeForce 256
К сожалению, Matrox не смогла внести свой штрих в этот этап истории видеокарт. Они не следовали принципу выпуска новых адаптеров каждые 6 месяцев, и G400 уступила GeForce из-за низкой производительности в OpenGL и пресловутом T&L. Итак, G400 стал популярным только у тех, кому нужно было использовать 2 монитора для работы или развлечений. Идеи у Matrox просто кончились.
Несколько слов о TRUFORM
Разница между картами бюджетного и топового класса карты очень заметно. Один из важнейших показателей этого — сумма треугольников в кадре. Чем он выше, тем мощнее нужна видеокарта. А что насчет создателей игр? Зачем создавать множество моделей с разной степенью детализации в зависимости от уровня видеокарты? ATI помогла с ответом, создав TruForm.
Чип, поддерживающий эту технологию, может преобразовывать как полигональные объекты в линейные, так и наоборот. В результате модели становятся более гладкими, чем предполагалось.
Единственный недостаток заключается в том, что технологии просто необходимо наличие маркеров, указывающих, что, где и как усложнять модель и делать ее более гладкой. Но без этих маркеров будут артефакты, например кубики, ставшие шарами и т. Д. А без поддержки создателей продукта с 3D графикой от этих артефактов не избавиться …
Борьба лидеров
Все сводилось к тому, что NVIDIA в одиночку возглавит рынок. Она купила обанкротившуюся 3Dfx вместе со своими сотрудниками и разработками, чип NV15, созданный NVIDIA, был хорошим обновлением чипов NV10, а дешевые версии его чипов захватили весь рынок, вытесняя конкурентов.
Но ATI доказала NVIDIA свою полную конкурентоспособность. В июне 2000 года они выпустили ATI Radeon с 64 МБ DDR SDRAM со 128-битной шиной и тактовой частотой 183 МГц.. Как и адаптер NVIDIA, у Radeon был блок T&L, тем самым показывая и доказывая потребителям, что между компаниями нет технологического разрыва. К тому же их продукт оказался дешевле.
Однако Matrox пока не отчаялась. Они выпустили G450, который был улучшенной версией G400 и был создан с использованием новых технологических стандартов (180 против 250 нм по сравнению с G400), а память была быстрее, но на 64-битной шине, что не изменило скорость обмена памяти. Теоретически использование в G400 нового техпроцесса должно было привести к увеличению тактовой частоты чипа, чего не произошло. В результате G450 разочаровал геймеров, и Matrox не смогла догнать ATI и NVIDIA.
- Описание лабораторной установки. Одна фаза обмоток ВН и НН сухого трехфазного двухобмоточного трансформатора используется в качестве автотрансформатора для исследований.
- Описание лабораторной установки. Сухой трехфазный двухобмоточный трансформатор используется в качестве трансформатора для исследований.
- Описание экономической сущности проблемы. Для оценки деятельности предприятия используется система показателей, характеризующая эффективность производства.
- Способствует пылкой страсти и сексуальному влечению со стороны партнера, поэтому часто используется для создания приворотов