Відеокарта — Вікіпедія
Відеока́рта (англ. video card, також графічна карта, графічний адаптер, графічний прискорювач) — електронний пристрій, частина комп’ютера, призначена для генерації та обробки зображень з подальшим їхнім виведенням на екран периферійного пристрою.
Відеокарта зазвичай є платою розширення і вставляється у слот розширення, універсальний (PCI-Express, PCI, ISA, VLB, EISA, MCA) або спеціалізований (AGP), проте відеокарта може бути вбудованою у материнську плату як у вигляді окремого елементу, так і як складову частину північного мосту чипсету або центрального процесора. Відповідно вставлювана називається дискретною, а вбудована — інтегрованою.
Сучасні відеокарти не обмежуються лише звичайним виведенням зображень, вони мають вбудований графічний мікропроцесор, котрий може здійснювати додаткову їх обробку, звільняючи від цих задач центральний процесор. Також процесор і відокарта працюють разом і є залежними один від одного. Наприклад, усі сучасні відеокарти, що застосовують відеопроцесори AMD/ATi і NVIDIA підтримують OpenGL на апаратному рівні. Останнім часом, разом зі зростанням обчислювальних потужностей графічних процесорів має місце тенденція використовувати обчислювальні можливості графічного процесора для вирішення неграфічних задач (див. OpenCL).
Попередниками відеокарт були мікросхеми, які відповідали за формування зображення на ранніх персональних комп’ютерах та відеоігрових приставках. Так, CDP1861, що був випущений 1976 року, дозволяв формувати зображення роздільністю 62×128 пікселів. Television Interface Adapter 1A з приставки Atari 2600 поєднував функції формування зображення, звуку і читання сигналів від ігрового контролера.
Ранніми мікросхемами відеоконтролерів[en] були Motorola 6845[en] і Intel 8275 (клоновані у СРСР відповідно під марками КМ1809ВГ6 і КР580ВГ75).
Одним з перших графічних адаптерів у сучасному розумінні став MDA (Monochrome Display Adapter) для IBM PC у 1981 році. Він працював тільки в текстовому режимі з роздільною здатністю 80×25 символів (фізично 720×350 точок) і підтримував п’ять атрибутів тексту: звичайний, яскравий, інверсний, підкреслений та миготливий. Жодної кольорової або графічної інформації передавати він був не здатен, і колір символів визначався моделлю монітора. Зазвичай вони були чорно-білими, бурштиновими або смарагдовими. Фірма Hercules у 1982 році випустила подальший розвиток адаптера MDA, відеоадаптер HGC (Hercules Graphics Controller), який мав графічну роздільну здатність 720×348 точок і підтримував дві графічні сторінки. Проте він все ще не міг працювати з кольором.
Першою кольоровою відеокартою стала CGA (Color Graphics Adapter), випущена IBM. Вона і стала основою для наступних стандартів відеокарт. Вона могла працювати або в текстовому режимі з роздільною здатністю 40×25 і 80×25 (матриця символу — 8×8), або в графічному з роздільною здатністю 320×200 або 640×200. В текстових режимах було доступно 256 атрибутів символу — 16 кольорів символу і 16 кольорів фону (або 8 кольорів фону і атрибут миготіння), в графічному режимі 320×200 було доступно чотири палітри по 4 кольори кожна, режим високої роздільної здатності 640×200 був монохромним.
Як розвиток цієї карти з’явився EGA (Enhanced Graphics Adapter) — покращений графічний адаптер, з розширеною до 64 кольорів палітрою, і проміжним буфером. Була покращена роздільна здатність до 640×350, в результаті додався текстовий режим 80×43 при матриці символу 8×8. Для режиму 80×25 використовувалася велика матриця — 8×14, одночасно можна було використати 16 кольорів, кольорова палітра була розширена до 64 кольорів. Графічний режим також дозволяв використовувати при роздільній здатності 640×350 16 кольорів з палітри в 64 кольори. Був сумісний з CGA і MDA.
У 1987 році вийшов адаптер VGA (Video Graphics Array) для IBM PS / 2. VGA забезпечував роздільність 640×480 пікселів з 16 колорів, або 320×240 з 256 кольорів. VGA отримав новий інтерфейс — 15-контактний D-Sub, який став стандартом. Адаптер мав сумісність з програмами, написаними для EGA, CGA і MDA. Маючи 256 КБ відеопам’яті, VGA міг зберігати в них по кілька кадрів зі шрифтом. Випущений того ж року 8514/A міг відображати лінії та виконувати заливку частини кадру і накладати бітову маску. Забезпечував роздільність 1024×768 з 256 кольорами на частоті 43,5 Гц, або 640×480 на 60 Гц. Це зробило адаптер перспективним для інженерної графік. Йому на зміну 1990 року прийшов XGA (Extended Graphics Array), що підтримував роздільність 800×600 з 16 бітами кольору (65 536 кольорів, High Color). XGA почав гонку виробників за вищою якістю зображень, збільшенням роздільності та обсягу відеопам’яті
Першою відеокартою, яка підтримувала обчислення тривимірної графіки, стала S3 Virge, випущена 1995 року. Вона мала 4 МБ пам’яті VRAM або DRAM на частоті 80 МГц. Дозволяла відтворювати динамічне освітлення і білінійну фільтрацію текстур. В прагненні досягнути тієї ж якості картинки, що на ігрових приставках, 3dfx Interactive було створено Voodoo Graphics, що вийшла в 1996 році. Вона не могла працювати з двовимірною графікою, а тільки перехоплювала керування в звичайної 2-D відеокарти, тому звалася 3-D прискорювачем. Підтримувала 640×480, проте тільки в повноекранному режимі. Несла 3 МБ EDO DRAM, яка працювала на частоті 50 МГц, аналогічно до графічного процесора. Під кінець 1996 року відбулося падіння цін на EDO DRAM і 3Dfx змогла більше і дешевше продавати свої відеокарти.
Тим часом існували комапанії, які випускали клони відомих відеокарт свого часу. ATI 1995 року мала відеокарту Rage, яка могла обробляти 3D-графіку і відео в форматі MPEG-1. Нова 3D Rage II в 1996 році могла обробляти вже MPEG-2, мала підтримку Direct3D і частково OpenGL. Несла 8 МБ SDRAM, а процесор і пам’ять мали частоту 60 і 83 МГц відповідно. NVIDIA в 1995 році випустила свій перший, хоч і неуспішний, адаптер NV1. Він поєднував 3D-прискорювач, 2D-адаптер, а також звукову карту і порт для геймпада Sega Saturn. Формував тривимірну графіку з кривих третього порядку, а не з полігонів. Йому на зміну NVIDIA випустила 1997 року Riva 128, що базувався на чипі NV3 і мав 4 МБ SDRAM, шину в 128 біт і робочу частоту 100 МГц. Випускався у варіантах PCI і AGP та успішно конкурував з продуктами 3Dfx[2].
Врешті на початку 2000-х 3Dfx збанкрутувала, не встигаючи створювати конкурентоспроможні продукти. NVIDIA купила 3Dfx, витіснивши конкурентів своїми дешевими і продуктивними відеочипами. Таким чином лишилося два лідера з числа виробників відеочипів та відеокарт: NVIDIA та ATI. В червні 2000 року було випущено ATI Radeon, що мала 64 МБ DDR SDRAM з шиною 128 біт, на частоті 183 МГц. Radeon володіла блоком Transform and Lighting, чим було подолано технологічний розрив з NVIDIA. 2001 року NVIDIA випустила чип NV20, який став основою GeForce3. Він підтримував DirectX 8.0, який стандартизував піксельні і вершинні шейдери, тому відеоігри з підтримкою DirectX 8.0 мали якіснішу картинку. ATI у відповідь створили чип R200, який отримав апаратну тесселяцію, яка дала чипу самостійно робити моделі об’єктів складнішими. До 2005 року ринок відеокарт остаточно перетворився на протистояння NVIDIA і ATI. Пристрої конкурентів фактично почергово копіювали один одного, на кожну розробку однієї комапанії за кілька місяців виходила відповідь іншої
У 2006 році NVIDIA випустила першу двочипову відеокарту GeForce 7950 GX2, створену за 90-нм техпроцесом. Вона мала по одному чипу G71 на кожній з плат, ядра працювали на частоті 500 МГц, пам’ять — 600 МГц. Обсяг відеопам’яті GDDR3 становив 1 Гб, по 512 Мб для кожного чипа, з шиною шириною в 256 біт. У 2007 року була представлена флагманська відеокарта Radeon HD2900 XT на базі чипа R600. Частота ядра відеокарти становила 740 МГц, пам’яті GDDR4 — 825 МГц. Використовувалася 512-бітна шина пам’яті. Обсяг відеопам’яті досягав 512 МБ і 1 ГБ. Наступного року NVIDIA випустила чип GT200, який використовували GeForce GTX 280 і GTX 260. Чип вироблявся за 65-нм техпроцесом і містив 1,4 мільярда транзисторів з 80 текстурними блоками. Шина пам’яті збільшилася до 512 біт. Також була додана підтримка фізичного рушія PhysX і платформи CUDA. Частота ядра відеокарти становила 602 МГц, а пам’яті типу GDDR3 — 1107 МГц.
У 2010 році NVIDIA представила GF100 з архітектурою Fermi, чип, який ліг в основу відеокарти GeForce GTX 480. GF100 отримав 512 потокових процесорів. Частота ядра була 700 МГц, а пам’яті — 1848 МГц. Ширина шини склала 384 біт. Обсяг відеопам’яті GDDR5 становив 1,5 ГБ. GF100 підтримував DirectX 11, а також нову технологію NVIDIA Surround, що дозволяла розгорнути зображення на три екрани.
Для забезпечення все якіснішої графіки, передусім у відеоіграх, продовжується нарощення обсягів відеопам’яті, частоти процесора, вдосконалення енергозбереження і введення підтримки нових технологій обробки зображення та вирішення неграфічних задач
Друкована плата — пластина з діелектрика, на якій прокладено провідні доріжки, що пов’язують різні складові відеокарти.
- Друкована плата — пластина з діелектрика, на якій прокладено провідні доріжки, що пов’язують різні складові відеокарти.
- Шина підключення — комп’ютерна шина, через яку відеокарта обмінюється інформацією з материнською платою. Стандартними є AGP і PCI-E. Іноді PCI або ISA.
- Графічний процесор (відеопроцесор, GPU (Graphics processing unit) — процесор, який обчислює інформацію, що виводиться на монітор. Може брати на себе частину обчислень з центрального процесора.
- Відеопам’ять — мікросхеми, в які тимчасово поміщається інформація, обчислена графічним процесором. Відеопам’ять може бути виділена з основної оперативної пам’яті системи, в цьому випадку говорять про розподілену (shared) пам’ять. Як правило, чипи оперативної пам’яті припаяні прямо до друкованої плати, на відміну від знімних модулів системної пам’яті, які вставляються в стандартизовані розніми материнських плат.
- Відеоконтролер (Video Display Controller, VDC) — мікросхема, що формує вихідний сигнал, який передається на монітор.
- RAMDAC (Random Access Memory Digital-to-Analog Converter) або цифро-аналоговий перетворювач (ЦАП) — пристрій, що здійснює перетворення цифрових результатів роботи відеокарти в аналоговий сигнал, який відображається на моніторі. Можливостями цього пристрою визначається максимальна роздільність, кількість кольорів, насиченість картинки, частота кадрів.
- Відео-ROM (Video ROM, Video BIOS) — мікросхема, що зберігає в собі правила і алгоритми взаємодій частин відеокарти.
- Інтерфейси виведення (Output interfaces) — аналогові чи цифрові інтерфейси, які забезпечують передачу даних від відеокарти до дисплея. Зазвичай використовуються HDMI (цифровий), DVI (цифровий) та VGA (аналоговий).
- Система охолодження — пристрій, що здійснює відведення і розсіювання тепла від відеопроцесора та інших складових відеокарти. Зазвичай це кулер (радіатор разом із вентилятором). Забезпечує стабільну роботу і не допускає ушкодження деталей від їх надмірного нагріву. Системи охолодження бувають активні (вентилятор з радіатором) чи пасивні (тільки радіатор). Раніше відеокарти випускались взагалі без охолодження, зараз трапляються відеоприскорювачі, вбудовані в материнську плату або процесор. Такі можуть мати активне, пасивне, взагалі не мати охолоджувального пристрою чи мати спільне охолодження (відеоприскорювач інтегрований в процесор). У разі відсутності активного охолодження, цей процес відбувається завдяки повітряним потокам, що циркулюють в системному блоці за рахунок вентиляторів в блоці живлення разом з вентилятором на процесорі.
Відеопроцесор[ред. | ред. код]
- Робоча частота відеопроцесора — вимірюється в мегагерцах, тобто мільйонах тактів на секунду. Чим вища частота, тим більше відеопроцесор може обробити даних за одиницю часу.
- Блоки — частини відеопроцесора, які обчислюють окремі елементи зображення: текстури, вершини, геометрію. Чим більше відповідних блоків, тим швидше процесор виконує операції з елементами зображення. Блоки можуть мати різну частоту, відповідно менша їх кількість компенсується вищою частотою.
Відеопам’ять[ред. | ред. код]
- Обсяг відеопам’яті — пам’ять використовується для зберігання елементів зображення (текстур, вершин, даних буферів і т. д.) які будуть виведені на монітор. Вимірюється в мегабайтах і гігабайтах. Обсяг не визначає напряму продуктивність відеокарти, а лише в поєднанні з іншими характеристиками. Проте багато комп’ютерних програм вимагають певного мінімуму відеопам’яті, особливо програми для роботи з графікою і відеоігри.
- Частота відеопам’яті — визначає скільки операцій записування/читання може виконатися за такт. Ця характеристика тісно пов’язана з типом пам’яті, зазвичай використовується спеціальна GDDR. Пізніші типи мають швидшу передачу даних, так GDDR3 повільніша за GDDR5.
- Розрядність шини — визначає як швидко пам’ять обмінюється даними з відеопроцесором. Вимірюється в бітах: 64, 128, 256, 512 і т. д. Часто виробники компенсують повільність відеопам’яті більшою розрядністю шини, або навпаки — зменшують розрядність, натомість використовують пам’ять з вищою частотою.
Охолодження[ред. | ред. код]
Зі зростанням навантаження на відеопроцесор його температура зростає, що призводить до пропуску тактів чи навіть може спричинити деформацію та розплавлення деталей відеокарти. Для уникнення цього використовуються системи охолодження. Їхній дизайн визначається виробником графічного процесора (тоді зветься референсним) або користувача (кастомний).
- Пасивне — складається з радіатора, який відводить зайве тепло. Чим складніша форма радіатора, тим більшою є його площа і можливості до відведення тепла.
- Активне — складається з радіатора і вентилятора, іноді має систему охолодження рідиною: водою чи рідким азотом. Кулер створює потік повітря, який охолоджує радіатор. Потужніші кулери створюють більше шуму, але часто ними можна керувати через спеціальні програми.
Форм-фактор[ред. | ред. код]
- Низькопрофільні — мають невеликі розміри, займають один слот розширення в ПК (50-60 мм у висоту). Як правило мають порівняно невисоку продуктивність, але можуть встановлюватися в невеликі корпуси, ноутбуки, нетбуки.
- Повнопрофільні — мають великі розміри, декоративні й охолоджувальні кожухи, великі радіатори і кулери, зазвичай займають два слоти розширення.
Вирішення неграфічних задач[ред. | ред. код]
Паралельні обчислення[ред. | ред. код]
Технологія обчислень загального призначення на графічних процесорних одиницях GPGPU (General-purpose computing on graphics processing units) дозволяє задіювати обчислювальні потужності графічних процесорів для таких задач, як обчислення фізики тривимірних об’єктів у відеоіграх, частково звільняючи від них центральний процесор. Останній таким чином отримує змогу паралельно виконувати інші обчислення. Так, у nVidia технологією GPGPU є CUDA, а у ATI — Stream[6][7].
Майнінг криптовалют[ред. | ред. код]
Завдяки високій обчислювальній потужності у 2010 році і до сьогодні набув поширення майнінг (англ. mining, дослівно «видобуток») криптовалют за допомогою графічних процесорів. Він здійснюється шляхом підбору геш-коду з-поміж численних комбінацій за допомогою спеціальних програм — манерів. Графічні процесори в цьому випадку більш ефективні за центральні, позаяк передусім розраховані на однотипні часто повторювані задачі. Валюта зараховується на попередньо створений електронний гаманець або майнінг-пул, де розділяється серед учасників процесу в залежності від внеску у видобуток.
Для збільшення виходу криптовалюти відеокарти об’єднуються на так званих фермах: комп’ютерах, материнська плата яких має кілька слотів підключення графічних адаптерів, наділених потужним блоком живлення і ефективною системою охолодження. Обмеження драйверів відеокарт зазвичай не дозволяють використовувати на одній платі понад 4-8 відеоадаптерів[8][9].
Пік популярності майнінгу відбувся в травні-липні 2017 року через різке зростання курсу криптовалют. Типова ферма за курсу біткоїна до $3000 могла окупитися вже за 3-4 місяці. Це швидко спричинило стрибок цін на відеокарти, дефіцит потужних геймерських карт і випуск спеціалізованих саме для майнінгу карт і материнських плат[10][11][12]. На кінець 2018 року ціни помітно стабілізувалися, проте видобуток криптовалют ще довгий час буде однією з неграфічних задач відеоадаптерів.
- ↑ The History of the Modern Graphics Processor. TechSpot (en-us). Процитовано 2016-06-20.
- ↑ History of the Modern Graphics Processor, Part 2. TechSpot (en-us). Процитовано 2016-06-20.
- ↑ History of the Modern Graphics Processor, Part 3. TechSpot (en-us). Процитовано 2016-06-20.
- ↑ History of the Modern Graphics Processor, Part 4. TechSpot (en-us). Процитовано 2016-06-20.
- ↑ Развитие видеокарт в 2000-х годах. geektimes.ru. Процитовано 2016-06-20.
- ↑ Harris, Mark (2005). Mapping Computational Concepts to GPUs. ACM SIGGRAPH 2005 Courses (ACM). doi:10.1145/1198555.1198768. Процитовано 2017-07-07.
- ↑ NVIDIA on GPU Computing and the Difference Between GPUs and CPUs. www.nvidia.com (en-us). Процитовано 2017-07-07.
- ↑ Майнінг біткоіна (bitcoin) відеокартами. Бізнес Світ (uk-UA). 2016-12-09. Процитовано 2017-07-07.
- ↑ Популярність криптовалют спричинила дефіцит відеокарт — TechToday. TechToday (uk-UA). 2017-06-07. Процитовано 2017-07-07.
- ↑ На новому курсі біткоіна розбагатіли виробники відеокарт. espreso.tv. Процитовано 2017-07-07.
- ↑ Біткоїн коштує майже $3000. Виробники відеокарт на цьому непогано заробили. Finance.UA (uk-UA). Процитовано 2017-07-07.
- ↑ AMD і NVIDIA готують спеціальні версії своїх відеокарт для майнінгу (uk). 2017-06-07. Процитовано 2017-07-07.
- Andrews J. A+ Guide to Managing & Maintaining Your PC/ Jean Andrews (8th Edition). — Course Technology, 2013. — 1328 p.
Из чего состоит видеокарта

Сейчас практически все компьютеры оснащены дискретной видеокартой. С помощью данного устройства создается видимое на экране монитора изображение. Комплектующее это далеко не простое, а состоит из многих деталей, формирующих единую рабочую систему. В этой статье мы постараемся подробно рассказать обо всех компонентах современной видеокарты.
Из чего состоит видеокарта
Сегодня мы рассмотрим именно современные дискретные видеокарты, ведь интегрированные имеют совсем другую комплектацию и, в основном, они встроены в процессор. Дискретный графический адаптер представлен в виде печатной платы, которая вставляется в соответствующий разъем расширения. Все компоненты видеоадаптера расположены на самой плате в определенном порядке. Давайте подробнее разберем все составные части.
Читайте также:
Что такое дискретная видеокарта
Что значит интегрированная видеокарта
Графический процессор
В самом начале нужно поговорить о самой важной детали в видеокарте – GPU (графический процессор). От данного компонента зависит быстродействие и мощность всего устройства. В его функциональность входит обработка команд, связанных с графикой. Графический процессор берет на себя выполнение определенных действий, за счет чего снижается нагрузка на ЦП, освобождая его ресурсы для других целей. Чем современнее видеокарта, тем мощность установленного в ней GPU больше, она может превосходить даже центральный процессор благодаря наличию множества вычислительных блоков.

Видеоконтроллер
За генерацию картинки в памяти отвечает видеоконтроллер. Он посылает команды на цифро-аналоговый преобразователь и проводит обработку команд ЦП. В современной карточке встроенно несколько компонентов: контроллер видеопамяти, внешней и внутренней шины данных. Каждый компонент функционирует независимо друг от друга, позволяя осуществлять одновременное управление экранами дисплеев.

Видеопамять
Для хранения изображений, команд и промежуточных не видимых на экране элементов необходимо определенное количество памяти. Поэтому в каждом графическом адаптере присутствует постоянный объем памяти. Она бывает разных типов, отличающихся по своей скорости работы и частоте. Тип GDDR5 на данный момент является самым популярным, используется во многих современных карточках.

Однако еще стоит учитывать, что помимо встроенной в видеокарту памяти новые устройства задействуют и ОЗУ, установленную в компьютере. Для доступа к ней используется специальный драйвер через шину PCIE и AGP.
Цифро-аналоговый преобразователь
Видеоконтроллер формирует изображение, однако его нужно преобразовать в необходимый сигнал с определенными уровнями цвета. Данный процесс выполняет ЦАП. Он построен в виде четырех блоков, три из которых отвечают за преобразование RGB (красный, зеленый и синий цвет), а последний блок хранит в себе информацию о предстоящей коррекции яркости и гаммы. Один канал работает на 256 уровнях яркости для отдельных цветов, а в сумме ЦАП отображает 16,7 миллионов цветов.

Постоянное запоминающее устройство
ПЗУ хранит в себе необходимые экранные элементы, информацию с BIOS и некоторые системные таблицы. Видеоконтроллер никак не задействуется вместе с постоянным запоминающим устройством, обращение к нему происходит только со стороны ЦП. Именно благодаря хранению информации с BIOS видеокарта запускается и функционирует еще до полной загрузи ОС.

Система охлаждения
Как известно, процессор и графическая карта являются самыми горячими комплектующими компьютера, поэтому для них необходимо охлаждение. Если в случае с ЦП кулер устанавливается отдельно, то в большинство видеокарт вмонтирован радиатор и несколько вентиляторов, что позволяет сохранить относительно низкую температуру при сильных нагрузках. Некоторые мощные современные карточки очень сильно греются, поэтому для их охлаждения используется более мощная водяная система.

Читайте также: Устраняем перегрев видеокарты
Интерфейсы подключения
Современные графические карты оснащены преимущественно по одному разъему HDMI, DVI и Display Port. Данные выводы являются самыми прогрессивными, быстрыми и стабильными. Каждый из этих интерфейсов имеет свои преимущества и недостатки, с чем вы можете подробно ознакомиться в статьях на нашем сайте.
Подробнее:
Сравнение HDMI и DisplayPort
Сравнение DVI и HDMI
В этой статье мы подробно разобрали устройство видеокарты, детально рассмотрели каждый компонент и выяснили его роль в устройстве. Надеемся, что предоставленная информация была полезной и вы смогли узнать что-то новое.
Читайте также: Зачем нужна видеокарта
Мы рады, что смогли помочь Вам в решении проблемы.
Опишите, что у вас не получилось.
Наши специалисты постараются ответить максимально быстро.Помогла ли вам эта статья?
ДА НЕТРазвитие видеокарт в 2000-х годах / ua-hosting.company corporate blog / Habr
Продолжая историю развития видеокарт из предыдущей — статьи, видеоадаптеры 2000-х годов.VSA-100 и новое поколение Voodoo
Чипсет VSA-100 (Voodoo Scalable Architecture — масштабируемая архитектура Voodoo) был выпущен компанией 3dfx в июне 2000 года. Первой видеокартой, использовавшей данный чип (VSA-100х2) стала Voodoo5 5500. Изготовленная по 250-нм техпроцессу, с 14 миллионами транзисторов. Объем памяти SDRAM доходил до 64 Мб, с 128-битной шиной. Частота графического процессора и памяти составляла 166 МГц. Впервые в видеокартах Voodoo поддерживался 32-битный цвет в 3D, а также текстуры с высоким разрешением 2048×2048 точек. Для сжатия применялись алгоритмы FXT1 и DXTC. Особенностью Voodoo5 5500 была высокая производительность при использовании сглаживания.
Видеокарта выпускалась с разными интерфейсами, такими, как AGP, PCI и т.д. Также была доступна версия под Macintosh, имеющая два разъема (DVI и VGA).
Осенью того же года 3dfx выпустила Voodoo4 4500 с объемом памяти 32 Мб, использовавшей один чип VSA-100. Модель оказалась довольно медленной и значительно уступала GeForce 2 MX и Radeon SDR.
Компания 3Dfx анонсировала выход производительной видеокарты Voodoo5 6000 на 4-х чипах VSA-100 и с 128 Мб памяти. Но окончательно реализовать проект так и не удалось — серьезные финансовые трудности обанкротили 3Dfx.
GeForce 2
В 2000-2001 годах компания NVIDIA выпустила серию видеокарт GeForce 2 (GTS, Ultra, Pro, MX и т. д.). У этих видеоадаптеров было 256-битное ядро — одно из самых производительных ядер того времени.
Базовой моделью стала GeForce 2 GTS (GigaTexel Shading), кодовое имя NV15. Данная видеокарта была изготовлена по 180-нм техпроцессу и содержала 25 миллионов транзисторов. Объем памяти DDR SGRAM составлял 32 Мб или 64 Мб с частотой 200 МГц и 128-битной шиной. У адаптера имелось 4 пиксельных конвейера. NV15 включала в себя полную поддержку DirectX 7, OpenGL 1.2, как и аппаратную обработку геометрии и освещения (T&L).
Radeon DDR и SDR
Компания ATI не отставала от прогресса и в 2000 году выпустила процессор Radeon R100 (изначально назывался Rage 6). Он изготавливался по 180-нм техпроцессу и поддерживал технологию ATI HyperZ.
На основе R100 вышли видеокарты Radeon DDR и SDR.
Radeon DDR выпускался с объемом видеопамяти 32 Мб или 64 Мб. Частоты ядра и памяти составляли 183 МГц, использовалась 128-битная шина. В роли интерфейса выступал AGP 4x. У видеокарты было 2 пиксельных конвейера.
Упрощенная версия SDR отличалась от Radeon DDR типом используемой памяти и пониженными частотами (166 МГц). Объем памяти у Radeon SDR предоставлялся только на 32 Мб.
Radeon 8500 и Radeon 7500
В 2001 году на базе RV200 вышли два чипа Radeon 8500 и Radeon 7500.
В Radeon 8500 были собраны новейшие наработки ATI, он оказался очень быстрым. Изготавливался по 150-нм техпроцессу, содержал 60 миллионов транзисторов. Частоты ядра и памяти составляли 275 МГц. Использовалась 128-битная шина. Объем памяти DDR SDRAM предлагался в двух вариантах: 64 Мб и 128 Мб. Пиксельных конвейеров было 4.
Radeon 7500 изготавливался по тому же 150-нм техпроцессу, но с 30 миллионами транзисторов. Ядро работало на частоте 290 МГц, а память на 230 МГц. Пиксельных конвейеров было 2.
GeForce 3
В 2001 году вышли графические процессоры GeForce 3 с кодовым названием NV20. Процессор выпускался по 150-нм техпроцессу. Объем памяти предлагался на 64 Мб и на 128 Мб. Шина была 128-битной и состояла из четырех 32-битных контроллеров. Ядро работало на частоте 200 МГц, а память на частоте 230 МГц. Пиксельных конвейеров насчитывалось 4. Производительность составляла 800 миллиардов операций/сек. Пропускная способность памяти была 7,36 Гб/с
Устройство поддерживало nFinite FX Engine, позволяющие создавать огромное количество различных спецэффектов. Была улучшенная архитектура памяти LMA (Lightspeed Memory Architecture).
Линейка видеокарт состояла из модификаций GeForce 3, GeForce 3 Ti 200 и Ti 500. Они отличались по тактовой частоте, производительности и пропускной способности памяти.
У GeForce 3 Ti 200: 175 МГц ядро, 200 МГц память; 700 миллиардов операций/сек; 6,4 Гб/с пропускная способность.
У GeForce 3 Ti 500: 240 МГц ядро и 250 МГц память; 960 миллиардов операций/сек; 8,0 Гб/с пропускная способность.
GeForce 4
Следующей видеокартой компании NVIDIA стала GeForce 4, которая вышла в 2002 году. C таким названием выпускались два типа графических карт: высокопроизводительные Ti (Titanium) и бюджетные MX.
Линейка GeForce 4 Ti была представлена моделями Ti 4400, Ti 4600, и Ti 4200. Видеокарты отличались тактовыми частотами ядра и памяти. Объем видеопамяти составлял 128 Мб (у Ti 4200 предлагался вариант и на 64 Мб). В Titanium использовался 128-битный 4-канальный контроллер памяти с LightSpeed Memory Architecture II, насчитывалось 4 блока рендеринга, 8 текстурных блоков, 2 T&L, имелась подсистема сглаживания Accuview и шейдерный движок nFiniteFX II, обеспечивающий полную поддержку DirectX 8.1 и OpenGL 1.3. Модель GeForce 4 Ti 4200 была самой распространенной за счет высокой производительности по приемлемой цене.
GeForce 4 MX наследовали архитектуру GeForce 2 (с повышенным быстродействием). Они базировались на чипе NV17, изготовленного по 150-нм техпроцессу и состоящего из 27 миллионов транзисторов. Объем видеопамяти составлял 64 Мб. У графического процессора было 2 блока рендеринга, 4 текстурных, 1 блок T&L, 128-битный 2-канальный контроллер памяти с LightSpeed Memory Architecture II. Чип также обладал подсистемой сглаживания Accuview.
Radeon 9700 Pro
Летом 2002 года ATI выпустила чип R300, который изготавливался по 150-нм техпроцессу и содержал около 110 миллионов транзисторов. У него было 8 пиксельных конвейеров. Также чип поддерживал улучшенные методы сглаживания.
На базе R300 вышла видеокарта Radeon 9700 с тактовыми частотами ядра 325 МГц и памяти 310 МГц. Объем памяти составлял 128 Мб. Шина памяти была 256-битная DDR.
В начале 2003 года Radeon 9700 сменила видеокарта Radeon 9800. Новые решения были построены на чипе R350, с увеличением тактовых частот и доработкой шейдерных блоков, контроллера памяти.
GeForce FX
GeForce FX — пятое поколение графических процессоров, разработанных и выпущенных компанией NVIDIA с конца 2002 до 2004 годов. Одна из первых видеокарт серии GeForce FX обладала улучшенными методами сглаживания и анизотропной фильтрации. Она поддерживала вершинные и пиксельные шейдеры версии 2.0. Благодаря 64-битному и 128-битному представлению цвета, повысилось качество ярких изображений. Чип NV30 был изготовлен по 130-нм техпроцессу и работал с шиной на 128-бит AGP 8x, поддерживая память DDR2.
GeForce FX была представлена в разных модификациях: еntry-level (5200, 5300, 5500), mid-range (5600, 5700, 5750), high-end (5800, 5900, 5950), еnthusiast (5800 Ultra, 5900 Ultra, 5950 Ultra). Использовалась шина на 126-бит и на 256-бит.
На базе NV30 было создано топовое устройство нового поколения — видеокарта GeForce FX 5800. Объем видеопамяти достигал 256 Мб, частота ядра — 400 МГц, а памяти — 800 МГц. В 5800 Ultra частота ядра повысилась до 500 МГц, а памяти — до 1000 МГц. Первые карты на основе NV30 оснащались инновационной системой охлаждения.
GeForce 6 Series
Развитие видеокарт активно продолжалось и в 2004 году вышел следующий продукт компании — GeForce 6 Series (кодовое название NV40).
Чип NV40 производился также по 130-нм техпроцессу, что не помешало ему стать более экономичным. Модификация пиксельных конвейеров дала возможность обрабатывать до 16 пикселей за такт. Всего было 16 пиксельных конвейеров. Видеокарты поддерживали пиксельные и вершинные шейдеры версии 3.0, технологию UltraShadow (прорисовка теней). Кроме этого, GeForce 6 Series с помощью технологии PureVideo декодировали видео форматов H.264, VC-1 и MPEG-2. NV40 работал через 256-битную шину, при этом использовались очень быстрые модули памяти типа GDDR3.
Одна из первых моделей, видеокарта GeForce 6800 была весьма производительной и тянула самые новые игры того времени. Она работала как через интерфейс AGP, так и через шину PCI Express. Частота ядра составляла 325 МГц, а частота памяти была 700 МГц. Объем памяти доходил 256 Мб или 512 Мб.
Radeon X800 XT
Компания ATI находилась в более выгодном положении. В 2004 году компания представила 130-нм чип R420 (усовершенствованная версия R300). Пиксельные конвейеры были разделены на четыре блока по четыре конвейера в каждом (в сумме 16 пиксельных конвейеров). Увеличилось до 6 количество вершинных конвейеров. Поскольку R420 не поддерживал работу шейдеров третьего поколения, он работал с обновленной технологией HyperZ HD.
Самая мощная и производительная видеокарта новой линейки Radeon была X800 XT. Карта оснащалась памятью типа GDDR3 объёмом 256 Mб и разрядностью шины 256-бит. Частота работы достигала 520 МГц по ядру и 560 МГц по памяти. Radeon X800 XT продавались в двух исполнениях: AGP и PCI Express. Помимо обычной версии существовал Radeon X800 XT Platinum Edition, обладающий более высокими частотами чипа и памяти.
GeForce 7800 GTX
В 2005 году вышел чип G70, который лег в основу видеокарт серии GeForce 7800. Количество транзисторов увеличилось до 302 миллионов.
Вдвое увеличилось количество пиксельных конвейеров — до 24 штук. В каждый конвейер были добавлены дополнительные блоки ALU, отвечающие за обработку наиболее популярных пиксельных шейдеров. Таким образом возросла производительность чипа в играх, делающих упор на производительность пиксельных процессоров.
GeForce 7800 GTX стала первой видеокартой на базе G70. Частота ядра составляла 430 МГц, памяти — 600 МГц. Использовалась быстрая GDDR3, а также 256-битная шина. Объем памяти составлял 256 Мб или 512 Мб. GeForce 7800 GTX работала исключительно через интерфейс PCI Express х16, который окончательно начал вытеснять устаревающий AGP.
GeForce 7950 GX2
Событием 2006 года для компании NVIDIA стал выпуск первой двухчиповой видеокарты GeForce 7950, созданной по 90-нм техпроцессу.Nvidia 7950 GX2 имела по одному чипу G71 на каждой из плат. Ядра видеокарты работали на частоте 500 МГц, память — на частоте 600 МГц. Объем видеопамяти типа GDDR3 составлял 1 Гб (по 512 Мб на каждый чип), шина 256-бит.
В новой карте было оптимизировано энергопотребление и доработана система охлаждения. Выпуск 7950 GX2 стал началом развития технологии Quad SLI, позволяющей одновременно использовать мощности нескольких видеокарт для обработки трёхмерного изображения.
Radeon X1800 XT, X1900
На базе R520 была разработана видеокарта Radeon X1800 XT. Карта оснащалась памятью типа GDDR3 объемом 256 Мб или 512 Mб, работающей на частоте 750 МГц. Использовалась 256-битная шина.
Видеокарты Radeon X1800 XT недолго пробыли на рынке. Вскоре им на смену пришли адаптеры серии Radeon X1900 XTХ на базе чипа R580. Процессором полностью поддерживались на аппаратном уровне спецификации SM 3.0 (DirectX 9.0c) и HDR-блендинг в формате FP16 с возможностью совместного использования MSAA. В новом чипе было увеличено количество пиксельных конвейеров — до 48. Частоты ядра составляла 650 МГц, а памяти — 775 МГц.
Еще через полгода вышел чип R580+ с новым контроллером памяти, работающий со стандартом GDDR4. Частота памяти была увеличена до 2000 МГц, при этом шина оставалась 256-битной. Основные характеристики чипа остались прежними: 48 пиксельных конвейеров, 16 текстурных и 8 вершинных конвейеров. Частота ядра составляла 625 МГц, памяти было больше — 900 МГц.
GeForce 8800 GTX
В 2006 году на базе процессора G80 было выпущено несколько видеокарт, самой мощной из которых являлась GeForce 8800 GTX. G80 был одним из самых сложных существующих чипом того времени. Он выпускался по 90-нм техпроцессу и содержал 681 миллион транзисторов. Ядро работало на частоте 575 МГц, память — на частоте 900 МГц. Частота унифицированных шейдерных блоков составляла 1350 МГц. У GeForce 8800 GTX было 768 Мб видеопамяти GDDR3, а ширина шины составляла 384-бит. Поддерживались новые методы сглаживания, которые позволили блокам ROP работать с HDR-светом в режиме MSAA (Multisample anti-aliasing). Получила развитие технология PureVideo.
Архитектура GeForce 8800 GTX оказалась особенно эффективной и на протяжении нескольких лет являлась одной из самых быстрых видеокарт.
Radeon HD2900 XT, HD 3870 и HD 3850
В 2007 года была представлена флагманская видеокарта Radeon HD2900 XT на базе чипа R600. Частота ядра видеокарты составляла 740 МГц, памяти GDDR4 — 825 МГц. Использовалась 512-битная шина памяти. Объем видеопамяти достигал 512 Мб и 1 Гб.
Более успешной разработкой вышел процессор RV670, выпущенный в том же году. Архитектурой он почти не отличался от предшественника, но изготавливался по 55-нм техпроцессу и с шиной памяти 256-бит. Появилась поддержка DirectX 10.1 и Shader Model 4.1. На базе процессора производились видеокарты Radeon HD 3870 (частота ядра 775 МГц, памяти 1125 МГц) и Radeon HD 3850 (частота ядра 670 МГц, памяти 828 МГц) с объемом видеопамяти 256 Мб и 512 Мб и шиной 256-бит.
GeForce 9800
Чип G92 лег в основу GeForce 9800 GTX — одной из самых быстрых и доступных видеокарт. Он изготавливался по 65-нм техпроцессу. Частота ядра составляла 675 МГц, частота памяти — 1100 МГц, а шина — 256-бит. Объем памяти предлагался в двух вариантах: на 512 Мб и на 1 Гб. Чуть позже появилась модель GTX+, которая отличалась 55-нм техпроцессом и частотой ядра — 738 МГц.
В данной линейке также появилась очередная двухчиповая видеокарта GeForce 9800 GX2. Каждый из процессоров имел спецификации, как у GeForce 8800 GTS 512 Мб, только с разными частотами.
GeForce GTX 280 и GTX 260
В 2008 году компания NVIDIA выпустила чип GT200, который использовался в видеокартах GeForce GTX 280 и GTX 260. Чип производился по 65-нм техпроцессу и содержал 1,4 миллиарда транзисторов, обладал 32 ROP и 80 текстурными блоками. Шина памяти увеличилась до 512-бит. Также была добавлена поддержка физического движка PhysX и платформы CUDA. Частота ядра видеокарты составляла 602 МГц, а памяти типа GDDR3 — 1107 МГц.
В видеокарте GeForce GTX 260 использовалась шина GDDR3 448-бит. Частота ядра достигала 576 МГц, а памяти — 999 МГц.
Radeon HD 4870
Старшая видеокарта новой линейки получила название Radeon HD 4870. Частота ядра составляла 750 МГц, а память работала на эффективной частоте 3600 МГц. С новой линейкой видеокарт компания продолжила свою новую политику выпуска устройств, которые могли успешно конкурировать в Middle-End-сегменте. Так, Radeon HD 4870 стал достойным конкурентом видеокарты GeForce GTX 260. А место лидера линейки HD 4000 вскоре заняло очередное двухчиповое решение Radeon HD 4870X2. Сама архитектура видеокарты соответствовала таковой у Radeon HD 3870X2, не считая наличия интерфейса Sideport, напрямую связывающего два ядра для наиболее быстрого обмена информацией.
GeForce GTX 480
В 2010 году NVIDIA представила GF100 с архитектурой Fermi, который лег в основу видеокарты GeForce GTX 480. GF100 производился по 40-нм техпроцессу и получил 512 потоковых процессоров. Частота ядра была 700 МГц, а памяти — 1848 МГц. Ширина шины составила 384-бит. Объем видеопамяти GDDR5 достигал 1,5 Гб.
Чипом GF100 поддерживались DirectX 11 и Shader Model 5.0, а также новая технология NVIDIA Surround, позволяющая развернуть приложения на три экрана, создавая тем самым эффект полного погружения.
Чипы Cypress и Cayman
Компания AMD выпустила 40-нм чип Cypress. Разработчики компании решили поменять подход и не использовать исключительно буквенно-цифровые значения. Поколению чипов начали присваивать собственные имена. Сам принцип архитектуры Cypress продолжал идеи RV770, но дизайн был переработан. Вдвое увеличилось количество потоковых процессоров, текстурных модулей и блоков ROP. Появилась поддержка DirectX 11 и Shader Model 5.0. В Cypress появились новые методы сжатия текстур, которые позволили разработчикам использовать большие по объему текстуры. Также AMD представила новую технологию Eyefinity, полным аналогом которой позже стала технология NVIDIA Surround.
Чип Cypress был реализован в серии видеокарт Radeon HD 5000. Вскоре AMD выпустила и двухчиповое решение Radeon HD 5970. В целом Cypress оказался очень успешным.
Серия видеокарт Radeon HD 6000, выпущенная в конце 2010 года, была призвана конкурировать с акселераторами GeForce GTX 500. В основе графических адаптеров лежал чип Cayman. В нем применялась немного другая архитектура VLIW4. Количество потоковых процессоров составляло 1536 штук. Возросло количество текстурных модулей — их стало 96. Также Cayman умел работать с новым алгоритмом сглаживания Enhanced Quality AA. Ширина шины памяти чипа составляла 256-бит. Видеокарты использовали GDDR5-память.
GeForce GTX 680
Начиная с 2011 года NVIDIA выпустила поколение графических ускорителей. Одной из примечательных моделей была видеокарта GeForce GTX 680, основанная на чипе GK104, производившемуся по 28-нм техпроцессу. Частота работы ядра 1006 МГц, частота работы памяти 6008 МГц, шина 256-бит GDDR5.
В 2013 года компания представила чип GK110, на котором основываются флагманские видеокарты GeForce GTX 780 и GeForce GTX Titan. Использовалась шина 384-бит GDDR5, а объем памяти повысился до 6 Гб.
Графический процессор — Википедия
Материал из Википедии — свободной энциклопедии
Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 7 сентября 2019; проверки требуют 2 правки. Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 7 сентября 2019; проверки требуют 2 правки.Графический процессор (англ. graphics processing unit, GPU) — отдельное устройство персонального компьютера или игровой приставки, выполняющее графический рендеринг; в начале 2000-х годов графические процессоры стали массово применяться и в других устройствах: планшетные компьютеры, встраиваемые системы, цифровые телевизоры.
Современные графические процессоры очень эффективно обрабатывают и отображают компьютерную графику, благодаря специализированной конвейерной архитектуре они намного эффективнее в обработке графической информации, чем типичный центральный процессор.
Графический процессор в современных видеокартах (видеоадаптерах) применяется в качестве ускорителя трёхмерной графики.
Может применяться как в составе дискретной видеокарты, так и в интегрированных решениях (встроенных в северный мост либо в гибридный процессор).
Отличительными особенностями по сравнению с ЦП являются:
Высокая вычислительная мощность GPU объясняется особенностями архитектуры. Современные CPU содержат несколько ядер, тогда как графический процессор изначально создавался как многопоточная структура с множеством ядер. Разница в архитектуре обусловливает и разницу в принципах работы. Если архитектура CPU предполагает последовательную обработку информации, то GPU исторически предназначался для обработки компьютерной графики, поэтому рассчитан на массивно параллельные вычисления[1].
Каждая из этих двух архитектур имеет свои достоинства. CPU лучше работает с последовательными задачами. При большом объёме обрабатываемой информации очевидное преимущество имеет GPU. Условие только одно — в задаче должен наблюдаться параллелизм.
| Графические процессоры уже достигли той точки развития, когда многие практические вычислительные задачи могут с лёгкостью решаться с их помощью, причём быстрее, чем на многоядерных системах. Будущие вычислительные архитектуры станут гибридными системами с графическими процессорами, состоящими из параллельных ядер и работающими в связке с многоядерными ЦП[2] Оригинальный текст (англ.) GPUs have evolved to the point where many real-world applications are easily implemented on them and run significantly faster than on multi-core systems. Future computing architectures will be hybrid systems with parallel-core GPUs working in tandem with multi-core CPUs[3]. Профессор Джек Донгарра (Jack Dongarra), Директор Инновационной вычислительной лаборатории Университета штата Теннесси, 2011 |
Современные модели графических процессоров (в составе видеоадаптера) могут полноценно применяться для общих вычислений (см. GPGPU). Примерами таковых могут служить чипы 5700XT (от AMD) или GTX 1660 Super (от nVidia).
Внешний графический процессор — это графический процессор, расположенный за пределами корпуса компьютера. Внешние графические процессоры иногда используются совместно с портативными компьютерами. Ноутбуки могут иметь большой объём оперативной памяти (RAM) и достаточно мощный центральный процессор (CPU), но часто им не хватает мощного графического процессора, вместо которого используется менее мощный, но более энергоэффективный встроенный графический чип. Встроенные графические чипы обычно недостаточно мощны для воспроизведения новейших игр или для других графически интенсивных задач, таких как редактирование видео.
Поэтому желательно иметь возможность подключать графический процессор к некоторой внешней шине ноутбука. PCI Express — единственная шина, обычно используемая для этой цели. Порт может представлять собой, к примеру, порт ExpressCard или mPCIe (PCIe × 1, до 5 или 2,5 Гбит / с соответственно) или порт Thunderbolt 1, 2 или 3 (PCIe × 4, до 10, 20 или 40 Гбит / с соответственно). Эти порты доступны только для некоторых ноутбуков.[4][5]
Внешние GPU не пользовались большой официальной поддержкой поставщиков. Однако это не остановило энтузиастов от внедрения настроек eGPU.
На программном уровне видеопроцессор для своей организации вычислений (расчётов трёхмерной графики) использует тот или иной интерфейс прикладного программирования (API).
Самые первые ускорители использовали Glide — API для трёхмерной графики, разработанный 3dfx Interactive для видеокарт на основе собственных графических процессоров Voodoo Graphics.
Поколения ускорителей в видеокартах можно считать по версиям DirectX и OpenGL, которую они поддерживают.
См. также: видеодрайвер.
- AMD
- NVIDIA
Характеристика видеокарты NVIDIA GeForce: список по мощности
Компания Nvidia была основана в 1993 году. Калифорнийские разработчики уже много лет занимаются созданием видеокарт самого разного назначения. Начиная от бюджетных и заканчивая мощными игровыми решениями – все что угодно можно найти в ассортименте продукции компании. Многолетняя история подразумевает наличие множества поколений технологий, которые сменяли друг друга практически каждый год. Именно об этом и пойдет речь в данной статье. Описание всех Nvidia GeForce, список видеокарт по мощности и году выпуска — обо всем читайте ниже.
Немного о компании
Nvidia является самой крупной компанией-производителем компьютерных комплектующих в сфере видеоускорителей. В фирме работает более 8 тысяч сотрудников. На весь мир известно соперничество компании с AMD (второй крупнейший производитель видеокарт). В истории фирмы имеется несколько ключевых событий, которые повлияли на ее дальнейшее развитие.
В 1995 году компания выпустила свой первый продукт под названием NV1. В 1999 году на рынке появляется первое поколение Nvidia Quadro. Этот графический процессор предназначен специально для рабочих станций.
2006 год отметился выпуском легендарной видеокарты 8800GTX. Она показывала лучшую производительность на протяжении нескольких лет, что привлекало покупателей. К тому же данный ускоритель стал первым, в котором реализована поддержка DirectX 10.
В 2008 году компания представляет разработку собственного физического движка под названием PhysX. С 2012 года Nvidia вступает в The Linux Foundation.

Nvidia Geforce: список видеокарт
Первое поколение GeForce появилось в 1999 году. Устройство было разработано на техпроцессе 220 нм. Видеокарта поддерживала интерфейс DirectX 7 и имела 128-битную шину. Продукт выходил в двух вариантах – с 32 и 64 Мб видеопамяти. Для нынешнего времени эти цифры кажутся смешными и несерьезными, но в конце XX века данная разработка была прорывной.
GeForce 2 был анонсирован в 2001 году. Данное поколение уже было разработано на более совершенном процессе 180 нм. Объемы видеопамяти остались неизменными. Вторая версия является первым поколением, в котором реализована поддержка пиксельных шейдеров первого поколения. С этого момента и начался быстрый подъем компании в гору.
Самыми производительными и прорывными в мире графических технологий были видеокарты Nvidia Geforce. Список по мощности представлен в порядке выхода каждого поколения.
Четвертое поколение GeForce 4 появилось в начале 2002 года. В этой разработке создатели уже полностью отказались от 32Мб видеопамяти в пользу больших объемов. Теперь минимальным размером памяти стало 64 Мб, а максимальным – 128 Мб. Весной того же года вышла разогнанная версия GeForce 4 Ti, которая поддерживала DirectX 8 первой версии.

GeForce 5 series начала выпускаться в марте 2003 года. Данное поколение стало первым, в котором появился объем видеопамяти, равный 256 Мб. Устройства поддерживали DirectX 9 и были разработаны на техпроцессе 150 нм. Новое поколение получило новую индексацию, которая помогала различать их по мощности. Самая младшая версия обозначалась индексом 5200, а самая мощная – 5950. Разогнанные версии получали приставку Ultra.
6 серия GeForce вышла в релиз в конце 2005 года. Данное поколение получило 512 Мб видеопамяти в исполнении 6600 GT. 7 series была анонсирована в 2007 году. Отличий от предыдущего поколения не так много, как хотелось бы.

Легендарный графический процессор
Если брать сравнение всех видеокарт Nvidia GeForce по мощности и вкладу в развитие, то именно восьмая серия GeForce стала прорывной. Особенно это касается двух вариантов видеокарт – это 8600 и 8800. Оба устройства выпускались в версиях GTX и Ultra. Для 8800 также была предусмотрена версия GTS. Объем памяти для продукта был выбран не совсем привычный – 324 и 484 Мб, в зависимости от версии. Именно в этом поколении была реализована поддержка DirectX 10.
GeForce 9 появилась через год, но революции, как это было с предшественником, не получилось. Параллельно с 9-й серией компания начинает выпуск новых разработок, которые дают начало новому модельному ряду видеокарт. Именно о нем и пойдет речь далее.

Видеокарты Nvidia Geforce: список по мощности
- В 2009 году Nvidia анонсируют серию GeForce 100 и 200. Обе версии становятся первыми в мире, чей объем видеопамяти может достигать 1 Гб.
- В 2011 году выходит GeForce Series 400. Объем видеопамяти увеличен до максимально возможных 3 Гб на тот период времени. Появилась поддержка DirectX 11. Видеокарты построены на техпроцессе 40 нм.
- Следующая серия GeForce 500 выходит в этом же году. Разработчики усовершенствовали уже имеющиеся технологии и подтянули производительность в играх. Было решено отказаться от минимального объема памяти 512 Мб в пользу 1Гб. Максимальный объем стал равен 3Гб. Все устройства имели шину на 128 бит. Самая дешевая видеокарта серии стоила около 60 долларов, а самая мощная и дорогая – более 500 долларов.
- GeForce 600 были переименованными в видеокарты предыдущего поколения. Сделано это потому, что они остались теми же, но с увеличенной мощностью. Новое поколение начинается только с версии 650. В самом мощном исполнении видеокарта GeForce 690 предлагает пользователю 4 Гб видеопамяти, поддержку DirectX 11.1.
- GeForce 700 выходит в 2013 году и сразу делает скачок по производительности. Версия 750 Ti даже в 2016 году выдает достойные показатели в тестировании и может посоревноваться с младшими и средними моделями серии 900. Также является достойным конкурентом современное решение от компании AMD. Рейтинг видеокарт GeForce и Radeon включает в себя данную видеокарту, которая занимает позиции, близкие к видеокартам Radeon middle-end класса.
- В рамках этого поколения в 2014 году появляется GTX Titan. Данный «зверь» оснащен 6 или 12 Гб оперативной памяти и шиной на 384 бита. Стоимость устройства составляет около 1 тысячи долларов и выше. Производительность ускорителя находится на самом топовом уровне и обходит все предложенные решения от AMD. Но и цена за данное удовольствие соответствующая.

GeForce 900 Series
2015 год и GeForce 900 серия. В данное поколение входит 6 видеокарт. Первая – 950 GTX. Самая младшая, но от этого не самая слабая видеокарта по сравнению с конкурентными решениями. Устройство оснащается 2 Гб видеопамяти и поддерживает DirectX 11. Поддержка DirectX 12 во всех устройствах 900 серии реализована только на программном уровне. Аппаратная поддержка осуществляется только у видеокарт Radeon.
Второе решение – это GTX 960. Тестирования видеопроцессоров компании Nvidia показывают, что данная видеокарта является оптимальным в плане соотношения по производительности и стоимости. Единственное, что огорчает многих пользователей и геймеров – это применение 128-битной шины в то время, когда конкуренты из AMD уже давно используют шину на 256 бит. Это позволяет увеличить пропускную способность и тем самым повысить производительность.
GTX 970 – самое сомнительное устройство в серии. Сильного прироста производительности по сравнению с 960 не наблюдается, но стоимость устройства гораздо выше. Также Nvidia утверждает, что в данной видеокарте установлено ровно 4Гб видеопамяти. Однако на деле оказалось, что внутри графического ускорителя находится всего 3,5Гб памяти.
GTX 980 и 980 Ti – видеокарты hi-end уровня. Показывают самые высокие результаты во всех тестах на производительность и обгоняют все конкурентные решения от AMD. Видеокарты имеют козырь в рукаве – температура и потребляемая мощность графических процессоров Nvidia гораздо ниже, чем у Radeon. Именно поэтому они не требуют дополнительного охлаждения и стабильно работают даже при повышенной нагрузке и в жаркую погоду.
GTX Titan X стоит особняком от всей серии. Данная видеокарта обладает запредельными характеристиками. Устройство оснащается 8Гб видеопамяти и использует 384-битную шину. Стоимость «Титана» оценивается в 1 тысячу долларов за оригинальный вариант без разгона от сторонних производителей.

Новое поколение
В 2016 году было анонсировано новое поколение 10 Series, которое включает в себя всего два устройства – Gtx 1070 и 1080. Все видеокарты Nvidia, основные характеристик которых представлены выше, меркнут по производительности на фоне нового поколения. Каждая видеокарта обладает 8 Гб видеопамяти и использует 256-битную шину. Приблизительная стоимость оценивается в 800-900 долларов. Остается ждать конкурентные видеокарты от компании AMD и сравнить результаты всех тестов, чтобы в очередной раз определить лидера в бесконечной гонке за производительностью и снижением энергопотребления.

Мобильные видеокарты
Видеокарты для ноутбуков начали выпускаться с поколения GeForce 2 и обозначались приставкой Go. После выхода полноценной 8-й серии видеокарт компания решила выпустить мобильные варианты устройств с приставкой M.
На сегодняшний день все ноутбуки могут оснащаться мобильными решениями от Nvidia, начиная с 700m и заканчивая 980m. Поколение 10 Series на данный момент еще не адаптировано для мобильных платформ. Видеокарты Nvidia GeForce, список по мощности которых описан выше, обладают гораздо большей производительностью по сравнению с сериями M. Это связано с особенностями строения ноутбуков и отсутствием возможности уместить там полноценную графическую плату.
Серия Quadro
Данные решения предназначены для профессиональной работы с 2D и 3D-приложениями и разработки компьютерных игр. Их стоимость гораздо выше пользовательских игровых видеокарт, но и возможности намного выше. Интересный момент в том, что данные видеокарты могут плохо себя проявлять в производительности игр, несмотря на свою мощность. Поэтому они используются только в рабочих станциях.
Итог
История модельного ряда видеокарт от Nvidia богата различными решениями и прорывными технологиями. Многолетняя конкуренция с AMD подталкивает компанию все больше развиваться и улучшать свою продукцию. Лозунг «выбери свою видеокарту Nvidia» подходит как нельзя кстати: в ассортименте компании вы найдете решения для любых задач и потребностей.
Схема видеокарты. Внутреннее устройство и описание
Любой пользователь компьютера сталкивался с понятием «видеокарта», но не всегда мог ответить на этот вопрос о том, что это. Это незаменимая часть системы. Следует заострить внимание на устройстве и схеме видеокарты.
Описание компонента

Видеокарта — это устройство, предназначенное для вывода изображения на экран монитора. Параметры видеокарт зависят от компонентов, из которых она сделана. Все, что находится внутри, влияет на ее производительность, частоту, объем памяти и степень охлаждения. Видеокарты бывают двух видов: дискретные и интегрированные.
Интегрированные видеокарты, или встроенные, находятся на материнской плате или центральном процессоре. Они представлены в виде чипа и способны лишь на простейшие функции, которые не требуют особых нагрузок. Такой видеокарте схема не нужна.
Дискретный вариант — совсем другое дело, так как его возможности намного превосходят встроенный. Эти видеокарты делятся на три типа:
- Стандартная видеокарта. На примере фирмы Invidia можно представить такой тип видеокарт, которые не рассчитаны на большую нагрузку. В любом поколении есть такие карты, а их тип можно определить по второй цифре. Например, GT 610, 620, 630 и 640 будут считаться стандартными. Иногда такие видеокарты называют офисными. У них нет разъема для дополнительного питания и они не обладают мощной системой охлаждения.
- Средний класс. Схема видеокарты такого типа немного сложнее, чем офисного варианта. Они маркируются уже как GTS 650, а иногда к названию прилагается приставка «TI». Это означает, что видеокарта обладает разгонным потенциалом и может достичь результатов более мощной модели. Эти графические адаптеры обладают дополнительным разъемом для питания и посредственным охлаждением в виде радиатора и одного вентилятора.
- Игровой класс видеокарт уже поднимается в серии под маркировкой GTX 660, 670 и 680. Чем больше вторая цифра, тем больше возможностей сможет показать данная карта. С ее помощью можно запускать самые мощные компьютерные игры, но такие видеокарты требуют дополнительного питания, поэтому запас блока должен позволять использовать ее. С мощной видеокартой можно воспользоваться разгоном, что увеличит ее частоты и улучшит параметры.
Схема видеокарты
На данный момент существует множество моделей видеокарт, но их архитектура практически одинакова.
Начать описание схемы видеокарты стоит с самого главного — печатной платы. Именно на ней расположены все необходимые компоненты. Размер печатной платы тоже имеет значение. Чем длиннее она, тем больше места будет занимать в системном блоке.

Далее идет «мозг» видеокарты, которым является графический процессор. Его главная задача — обрабатывать команды, которые относятся к графической сфере. Из-за того, что GPU берет на себя часть нагрузки, центральный процессор может выполнять свои задачи быстрее. Ее превосходство может затмить даже центральный процессор, так как она обладает большим количеством вычислительных блоков, или TMU.
Цветопередача
Видеоконтроллер тоже занимает не последнее место в схеме видеокарты. Чтобы генерировать изображение на экране, видеоконтроллер получает команду с центрального процессора, обрабатывает ее в цифровой сигнал, чтобы получилась картинка. У современных видеокарт имеется два вида видеоконтроллеров: внешние и внутренние. Каждый из них способен самостоятельно функционировать, тем самым обеспечивая передачу сигнала на несколько мониторов.
Видеопамять практически не нуждается в описании, так как ее предназначение более чем понятно. Типы памяти отвечают за быстродействие видеокарты, поэтому формат GDDR5 является самым оптимальным вариантом на данный момент.
Цифровой преобразователь несет ответственность за цветопередачу сигнала, который поступает с видеоконтроллера. В схеме видеокарты Nvidia это RGB.
Охлаждение

Последним, но немаловажным, пунктом в схеме видеокарты становится система охлаждения. Постоянная нагрузка в играх приводит к нагреву всей видеокарты, поэтому она нуждается в качественном охлаждении. Оно может быть представлено в виде радиатора с вентиляторами или водяных трубок с охлаждающей жидкостью внутри.
Это была общая схема видеокарт GTX. С каждым поколением меняется только внутренняя архитектура, которая позволяет видеокарте использовать усовершенствованные алгоритмы для работы с изображениями.
Напряжение и питание
Для работы дискретной карты необходимо подключать ее к блоку питания. Для этого существуют специальные разъемы и кабели на 6 и 8 контактов. Иногда они идут в паре, что выделяет представителя мощной видеокарты.
Схема питания видеокарты и ее напряжения такова:
- Графический процессор топовой видеокарты может иметь до 16 виртуальных фаз напряжения. Карты меньшей мощности — от одной фазы.
- На видеопамяти установлено до трех фаз питания.
- Если видеокарта предназначена для подключения дополнительного питания, то у нее расположена одна или две фазы.

Остальные компоненты не обладают отдельным напряжением, поэтому их рассматривать нет смысла.

