Przejdź do zawartości

Karta graficzna

Z Wikipedii, wolnej encyklopedii
Karta graficzna Gigabyte RTX 4070 Aero
Karta graficzna MSI RTX 2080 Gaming X Trio
Procesor graficzny karty 6600GT
Jedna z kart Nvidia – GeForce 8800 GTS

Karta graficzna – w węższym rozumieniu karta rozszerzeń komputera odpowiedzialna za renderowanie obrazu i adaptowanie go na sygnał odpowiedni dla monitora lub innego urządzenia wyjściowego[1][2]. W szerszym znaczeniu termin ten bywa używany jako synonim urządzenia opartego na architekturze GPU, choć technicznie nieprecyzyjny[3], obejmując także zintegrowane układy graficzne[4][5][6][7] oraz moduły pozbawione fizycznych wyjść wideo, które wykorzystują moc obliczeniową procesorów graficznych do zadań specjalistycznych, takich jak akceleracja sztucznej inteligencji[8], obliczenia naukowe (GPGPU)[9] czy kryptografia[10].

Historia

[edytuj | edytuj kod]

Frame buffer

[edytuj | edytuj kod]

Najwcześniejszym komercyjnym protoplastą kart graficznych był frame buffer (bufor ramki) o handlowej nazwie Picture System, z roku 1974[11][12] firmy Evans & Sutherland, wyświetlał obraz w 256 odcieniach szarości o rozdzielczości 512 na 512 pikseli.

Charakter buforów ramki miały wszystkie wczesne systemy graficzne w mikrokomputerach osobistych oparte na układach graficznych generujących obraz na podstawie danych o kolorach i punktach na ekranie przechowywanych w pamięci komputera[a]. Operacje na tej pamięci najczęściej wykonywał procesor główny komputera, czasem wspomagany dodatkowymi układami (np. ANTIC w komputerach Atari, Blitter i Copper w Amigach). W wielu wczesnych komputerach o zamkniętej architekturze[b] była to integralna, niezmienna część architektury komputera[c]. Pojawienie się standardu IBM PC z otwartą architekturą, w której za generację grafiki odpowiadała karta rozszerzenia, umożliwiło instalację sterownika graficznego dobranego w zależności od potrzeb. Pierwszymi standardami graficznymi w komputerach IBM PC były CGA (karta z kolorową grafiką) oraz MDA (monochromatyczna karta pracująca wyłącznie w trybie tekstowym). Pierwsze standardy kart graficznych miały również charakter bufora ramki lecz zwykle już miały dedykowaną, zainstalowaną na karcie pamięć[d]. Tak było również z kolejnymi standardami graficznymi dla komputerów IBM PC i kompatybilnych (takimi jak Hercules, EGA i VGA), a także kartami dla innych komputerów, w tym rodzin Macintosh czy Amiga[13][14].

Istotną cechą bufora ramki jest to w jaki sposób zorganizowana jest pamięć reprezentująca obraz. Wyróżnić można dwa modele[15]:

  • planar - w którym dane o pikselach składowane są bitplanach. W każdym bitplanie dokładnie 1 bit przypada na każdy piksel. Ilość bitplanów determinuje ilość dostępnych kolorów. W modelu tym dane pojedynczego piksela są rozrzucone w pamięci w poszczególnych bitplanach i programowy dostęp do nich jest utrudniony.
  • chunky - w którym wszystkie bity opisujące dany piksel są zapisane razem, jeden po drugim, w pamięci bufora ramki

We wczesnych standardach większość trybów graficznych o ograniczonej ilości kolorów miała model planar. Pierwszym trybem korzystającym z modelu danych chunky był tryb 13h kart VGA o rozdzielczości 320×200 pikseli w 256 kolorach, w którym dane każdego piksela były zapisane w 1 bajcie[e][16].

Kolejne rozwinięcia karty VGA, nazywane wówczas zbiorczo SVGA, nie były już standardem ustalonym przez IBM. Niezależni producenci kart konkurowali oferując coraz większe możliwości, w tym zwiększenie ilości kolorów do 256 w trybie 640×480, oraz tryby w nowych rozdzielczościach, najczęściej: 800×600, 1024×768 (16 do 256 kolorów), a także zwiększano ilość kolorów: do 32768 (15 bitów na piksel), 65536 (16 bitów, czyli 2 bajty na piksel)[f], lub ponad 16 mln. kolorów (24 bity, 3 bajty na piksel)[g]. Tryby te, pomimo często takich samych parametrów i podobnej organizacji danych pamięci obrazu, były implementowane w różny sposób, przez co ich wykorzystanie przez producentów oprogramowania było utrudnione[h]. Powstała organizacja VESA, która opracowała rozszerzenie podstawowego BIOSu, VESA BIOS Extension, które standardyzowało programowanie nowych trybów graficznych[13][14].

Współcześnie bufor ramki to integralna część struktury każdej karty graficznej, czyli wydzielony obszar pamięci VRAM[17][18][19].

Przed główną erą GPU

[edytuj | edytuj kod]

Pierwszą kartą graficzną produkowaną na masową skalę, która implementowała ideę osobnego procesora do przetwarzania grafiki, podobnie jak we współczesnych konstrukcjach, był IBM Professional Graphics Adapter (PGA) z 1984 roku, przeznaczony dla komputerów IBM XT i IBM PC/AT[20][21]. W przeciwieństwie do współczesnych GPU, które przetwarzają dane równolegle, korzystając z wielowątkowości[22], PGA posiadał procesor 8088[21], który przetwarzał dane sekwencyjne z podstawowym pipeliningiem, zgodnie z ówczesną architekturą x86[23]. Aż do wczesnych lat 80. XX wieku, przed pojawieniem się rozwiązań zastosowanych w PGA, systemy graficzne były jednostkami zajmującymi się obsługą pamięci ramki do przechowywania i generowania obrazu, zintegrowanym buforem ramki[24][25].

Akceleratory 2D

[edytuj | edytuj kod]

Pierwsze układy przyspieszające generację grafiki miały charakter koprocesorów, którym można było zlecić niektóre operacje generowania grafiki 2D w pamięci bufora ramki (takie jak rysowanie linii, wielokątów, wypełnianie ich, czy operacje BITBLT[i]). Początkowo było to wykorzystywane głównie w programach typu CAD, a wraz z upowszechnieniem systemów z graficznym interfejsem użytkownika[j] – również przez sam system operacyjny i pracujące w nim aplikacje. Do pierwszych akceleratorów grafiki 2D dla komputerów osobistych należały m.in. IBM 8514/A oraz Artist 10 MC[14][26][27][28][13][29].

Akceleratory 3D

[edytuj | edytuj kod]

W latach 90. modele kart graficznych miały ograniczoną wydajność i oferowały podstawowe funkcje graficzne oraz technologie 3D. Główni producenci tego okresu to: SGI cards; 3dfx (Voodoo); Nvidia (TNT); ATI (Rage); Matrox[30][31].

W 1996 roku 3dfx wypuszcza na rynek, pierwszy powszechnie dostępny akcelerator 3d o nazwie Voodoo Graphics , później znany jako Voodoo 1. Glide interfejs programistyczny opracowany dla tych kart, stał się popularnym standardem, na komputery PC zgodne z architekturą x86 w drugiej dekadzie lat 90., przed erą DirectX.

Główna era GPU[32]

[edytuj | edytuj kod]
  • Pierwsza generacja[33] (1999) związana z DirectX 7, obejmuje postęp w technologiach 3D, większą wydajność obliczeń, wdrożenie akceleracji sprzętowej. W tym samym roku NVIDIA wprowadziła pojęcie GPU (Graphics Processing Unit)[34].
  • Druga generacja[32] (2001–2006) wprowadziła DirectX 8, 9. Programowalne jednostki obliczeniowe: vertex shaders (cieniowanie wierzchołków) oraz pixel shaders (cieniowanie pikseli). Opracowano modele cieniowania Shader Model 1.0, 2.0 i 3.0. Jedną z najbardziej rozpoznawalnych serii GPU tej generacji była NVIDIA GeForce 3.
  • Trzecia generacja[35] (2006–2009) czas DirectX 10 i DirectX 11, Shader Model 4.0, architektura CUDA, umożliwiającą wykonywanie obliczeń ogólnego przeznaczenia (GPGPU). Pierwszą serią kart graficznych w pełni zgodnych z DirectX 10 była NVIDIA GeForce 8.
  • Czwarta generacja[36] (2009–2015) wprowadziła DirectX 11, Shader Model 5.0. Pierwszą serią kart graficznych w pełni kompatybilną z DirectX 11 była AMD Radeon HD 5000.
  • Piąta generacja[37] (2015–2020) wprowadzenie niskopoziomowych API, takich jak DirectX 12 i Vulkan, umożliwiło obsługę wielowątkowości oraz zwiększyło efektywność obliczeniową. Ikonicznym modelem karty graficznej tego okresu była NVIDIA GeForce GTX 1080 Ti.
  • Szósta generacja[38] (2020–obecnie) DirectX 12 Ultimate czyli pełna implementacja śledzenia promieni (ray tracingu). Układy tej generacji oferują znaczący wzrost mocy obliczeniowej i wsparcie dla zaawansowanych efektów graficznych w czasie rzeczywistym.

Rodzaje procesorów graficznych

[edytuj | edytuj kod]

Procesory graficzne (GPU), produkowane na rynek masowy, przez AMD, Intela oraz NVIDIA, dzielimy ze względu na przeznaczenie[39].

1. Procesory dedykowane, przeznaczone do kart graficznych, także tych laptopowych, nie dzielące pamięci RAM z CPU[39].

  • Radeon produkowany przez AMD
  • GeForce produkowany przez Nvidia
  • ARC produkowany przez Intela[40]

2. Procesory zintegrowane, będące częścią płyty głównej lub CPU, dzielące pamięć RAM z CPU[39].

  • Radeony z sufiksem m produkowane przez AMD
  • Intel HD Graphics produkowane przez Intela
  • laptopowe GeForce produkowany przez Nvidia

Produkowane są też inne modele kart graficznych i kart z GPU do zastosowań profesjonalnych i kopania kryptowalut[41].

Funkcje

[edytuj | edytuj kod]

Cechy współczesnych GPU na przykładzie procesorów NVIDIA z 2024[42]

Narzędzia Deweloperskie: Przemysł Gier: Sztuczna Inteligencja(AI) i Uczenie Maszynowe(ML): Grafika i Obliczenia Wizualne: Wirtualna Rzeczywistość (VR): Technologie Profesjonalne i Renderowania: Optymalizacja i Wydajność:
CUDA GameWorks AI Computing IndeX Virtual Reality DirectX 12 Ultimate GPUBoost
OptiX Ray Tracing Engine GameStream Deep Learning Iray vGPU Pixar Universal Scene Description WhisperMode
PhysX (Developer) G-SYNC Machine Learning Material Definition Language (MDL) PostWorks VLink
RTX Real-Time Ray Tracing Multi-GPU SceniX Optimus
ShadowPlay NVAPI ShadowWorks
ShadowWorks Visual Computing
SLI SceniX
3DVision & Surround
4K
TXAA

Budowa karty graficznej

[edytuj | edytuj kod]

Podstawowe elementy karty graficznej

[edytuj | edytuj kod]
  • procesor graficzny (GPU) – serce karty graficznej
  • Video random-access memory (VRAM) – pamięć RAM karty graficznej
  • wyjścia sygnałów
  • złącze do płyty głównej
  • układ chłodzenia

W przeszłości część kart graficznych posiadała:

  • RAMDAC (ang. RAM + Digital-to-Analog Converter) przetwornik cyfrowo-analogowy – odpowiedzialny za przekształcenie cyfrowych danych z pamięci obrazu na sygnał sterujący dla monitora analogowego; w przypadku kart wyłącznie z wyjściem cyfrowym RAMDAC nie występuje.
  • framegrabber – układ zamieniający zewnętrzny, analogowy sygnał wideo na postać cyfrową (tylko w kartach posiadających przechwytywanie obrazu),
  • procesor wideo – układ wspomagający dekodowanie i przetwarzanie strumieniowych danych wideo; w najnowszych konstrukcjach zintegrowany z procesorem graficznym.

Typy slotów / magistral dla kart graficznych

[edytuj | edytuj kod]

W kolejnych generacjach komputerach osobistych stosowane było wiele rodzajów magistral (i zarazem standardów złącz, czyli slotów), które służyły do podłączania kart graficznych. Wśród nich były także takie, które powstały specjalnie do tego celu (np. AGP)[43].

Chronologicznie pojawiły następujące standardy:

  • ISA (Industry Standard Architecture) – złącze magistrali szeroko stosowane w komputerach zgodnych z IBM PC i ich późniejszych rozwinięciach w latach 80. i wczesnych 90.[44][45]
  • Zorro – magistrala używana w komputerach Amiga wprowadzona wraz z Amigą 1000 w 1985[46].
  • MCA - 16- i 32-bitowa magistrala w komputerach linii IBM PS/2
  • VESA Local Bus - 32-bitowa szyna lokalna, używana głównie przez karty graficzne[47]
  • EISA - 32-bitowe rozszerzenie magistrali ISA[48]
  • PCI (Peripheral Component Interconnect) – standard głównej lokalnej magistrali komunikacyjnej w przemyśle komputerowym między 1992 a 2004, został zastąpiony przez PCI-Express[49].
  • AGP (Accelerated Graphics Port) – magistrala zaprojektowana dla kart graficznych, wprowadzona w 1997 roku, używana głównie w komputerach osobistych do połowy lat 2000[50].
  • PCI-Express (PCIe) wersje 1.0 do 3.0 – następca PCI i AGP, wprowadzony jako standard w 2004[51][49].

We współczesnych komputerach osobistych spotykane są:

Wyjścia sygnału

[edytuj | edytuj kod]

historyczne:

  • D-Sub
  • P&D (Plug and Display)
  • DFP (Digital Flat Panel)
  • DVI (Digital Visual Interface)
  • WHDI (Wireless Home Digital Interface)

obecne:

Zasilanie

[edytuj | edytuj kod]

Karta graficzna korzystająca ze złącza PCI Express jest zasilana bezpośrednio z płyty głównej, co umożliwia pobór mocy do 75 W[52]. Układy graficzne o wyższym zapotrzebowaniu energetycznym wyposażane są w dodatkowe złącza zasilania:

  • Złącza PCIe:
    • 6-pinowe – dostarczają dodatkowe 75 W, co pozwala na łączny pobór mocy przez kartę do 150 W[52].
    • 8-pinowe – dostarczają dodatkowe 150 W, umożliwiając łączny pobór mocy do 225 W.

Wraz ze standardem PCIe 5.0 wprowadzono złącze 16-pinowe 12VHPWR, stosowane w kartach graficznych NVIDIA GeForce RTX 4090 oraz niektórych modelach RTX 4080. Po jego wprowadzeniu odnotowano przypadki nadmiernego nagrzewania i topienia się wtyczek[53][54].

  • Molex – starszy typ złącza zasilania, stosowany w wcześniejszych modelach kart graficznych.

Układ chłodzenia

[edytuj | edytuj kod]

Większość kart graficznych do poprawnego działania potrzebuje układu chłodzenia. Najwięcej ciepła wytwarza GPU, dlatego stosuje się trzy rozwiązania:

  • Chłodzenie pasywne – stosowane w mniej wydajnych kartach.
  • Chłodzenie aktywne – poprzez montaż wentylatora lub wentylatorów na radiatorze.
  • Chłodzenie wodne – w kartach o dużej emisji cieplnej montuje się układ chłodzenia wodą.

Elementem wydzielającym ciepło jest również pamięć RAM karty graficznej. Zazwyczaj jest chłodzona wspólnym z GPU układem chłodzenia.

Zastosowania dla wielu procesorów graficznych

[edytuj | edytuj kod]

W angielskiej nomenklaturze połączenie wielu procesorów graficznych określane jest jako Multi-GPU.

Historyczne zastosowania w komputerach stacjonarnych

[edytuj | edytuj kod]

Istniały dwie szerzej znane technologie łączenia kart graficznych w celu zwiększenia wydajności w grach komputerowych. Pierwsza, od Nvidii o nazwie SLI (Scalable Link Interface), wspierana do roku 2020. Druga od ATI później AMD, funkcjonująca pod różnymi nazwami jako: ATI Multi-Rendering (AMR); CrossFire; CrossFireX; Multi-GPU (MGPU) (w kolejności chronologicznej)[55][56]. Rozwijana przez AMD do roku 2019[57]. Zarówno w przypadku AMD, jak i Nvidii, do trybu Multi-GPU wymagany był mostek łączący dwie karty.

Mniej znanym rozwiązaniem było ATI Hybrid CrossFireX, wprowadzone na rynek pod koniec 2007 roku wraz z chipsetami serii AMD 700. Później przemianowane na AMD Dual Graphics[58]. Pozwalało na łączenie dedykowanej karty graficznej z zintegrowanym procesorem graficznym[56], szybko porzucone przez producenta. Za niszową można uznać SLI (Scan Line Interleave) od 3dfx, z drugiej połowy lat 90. XX wieku, mimo identycznego akronimu jak SLI (Scalable Link Interface) od Nvidii, to różne technologie.

Inne historyczne rozwiązania

[edytuj | edytuj kod]

Jeszcze trzy inne firmy wdrożyły w swoich produktach łączenie kart graficznych. Były to S3 Graphics z MultiChrome, XGI Technology z BitFluent Protocol i Metabyte z Parallel Graphics Configuration.

Współczesne standardy i architektury komunikacyjne

[edytuj | edytuj kod]

Obecnie technologie łączenia wielu procesorów graficznych (GPU) są wykorzystywane w akceleracji uczenia maszynowego (AI), wysokowydajnych obliczeniach (HPC)[59], oraz w renderowaniu grafiki 3D[60][61].

Uniwersalne interfejsy i magistrale

  • PCIe (PCI Express) – podstawowa magistrala komunikacyjna między CPU a GPU oraz między GPU i innymi urządzeniami w systemie[62].

Wspierane przez NVIDIA

[edytuj | edytuj kod]
  • NVLink – połączenie GPU–GPU umożliwiające bezpośredni dostęp do pamięci innych kart, przewyższające wydajnością standard PCIe[62][63].
  • NVSwitch – przełącznik umożliwiający pełne połączenie wielu GPU w topologii all-to-all, wykorzystywany w superkomputerach i centrach danych[62][64].
  • GPUDirect – zestaw mechanizmów przyspieszających transfer danych między GPU a innymi urządzeniami (GPU, NIC, dyski) bez angażowania CPU i pamięci systemowej[62][65].

Wspierane przez AMD

[edytuj | edytuj kod]
  • Infinity Fabric Link – wysokoprzepustowe połączenie GPU–GPU stosowane w systemach HPC i AI[66].
  • ROCm (Radeon Open Compute Platform) – platforma oprogramowania i sterowników AMD umożliwiająca efektywne wykorzystanie wielu GPU w obliczeniach naukowych i sztucznej inteligencji[67].

Różnice w terminologii

[edytuj | edytuj kod]

Wraz z pojawieniem się w 1996 roku kart Voodoo firmy 3dfx, zrodził się termin akcelerator graficzny. Karty te wymagały obecności w komputerze zwykłej karty graficznej.

W drugiej połowie lat 90. pozostali producenci zdecydowali się na integrację akceleratorów grafiki trójwymiarowej z samymi kartami graficznymi, podobnie jak to miało miejsce z akceleratorami grafiki dwuwymiarowej. Później także firma 3dfx zdecydowała się połączyć swoje akceleratory z kartami graficznymi.

Karta graficzna jest często nazywana GPU, co pochodzi od skrótu angielskiego terminu „Graphics Processing Unit”. To określenie odnosi się jednak wyłącznie do procesora graficznego, który stanowi jeden z komponentów karty graficznej.

W polskiej terminologii zintegrowane procesory graficzne nazywane są „integrami” (od ang. Integrated graphics), zintegrowanymi kartami graficznymi lub zintegrowanymi układami graficznymi. Stanowią one część płyty głównej lub procesora. Technicznie rzecz biorąc, są to procesory graficzne, a nie karty graficzne.

Znaczenie kart graficznych

[edytuj | edytuj kod]

Karty graficzne, oprócz swojej roli w renderowaniu grafiki i obsłudze wyświetlacza, są wykorzystywane do przyspieszania obliczeń w zastosowaniach naukowych, w tym w symulacjach naukowych, analizach danych i badaniach. Dodatkowo, za sprawą swojej mocy obliczeniowej, są często używane do treningu modeli sztucznej inteligencji, ponieważ potrafią szybko przetwarzać duże ilości danych potrzebnych do uczenia maszynowego i głębokich sieci neuronowych[9].

Karty graficzne o dużej mocy obliczeniowej są wykorzystywane w procesie wydobywania kryptowalut, szczególnie w przypadku niektórych walut opartych na algorytmie Proof of Work (PoW), takich jak Ethereum Classic. W 2025 roku kopanie kryptowalut przy użyciu GPU jest mniej opłacalne niż w okresie szczytowym rynku[68].

  1. początkowo, w latach 70. i 80., pamięć komputerowa była bardzo droga, była to więc zwykle część głównej pamięci operacyjnej komputera przeznaczona na tzw. pamięć ekranu
  2. tj. nieposiadających możliwości rozbudowy przy pomocy kart rozszerzeń
  3. co oznaczało, że nie można było zmienić (ulepszyć) możliwości graficznych komputera
  4. ale widoczną (zmapowaną) w obszarze adresowym procesora, tj. dostepną do odczytu i zapisu dla procesora lecz poprzez magistalę komunikującą się z kartami rozszerzeń, nie jako część pamięci systemowej RAM. Prędkość magistrali determinowała w znacznym stopniu wydajność systemu graficznego.
  5. czyli w 8 bitach, co dawało dokładnie 256 wartości - kolorów piksela
  6. tryby z taką ilością kolorów nazywano High Color
  7. tzw. True color
  8. Były to czasy systemu MS-DOS, w którym nie było systemowych sterowników graficznych (jak ma to miejsce np. w Windows). Twórcy oprogramowania, za wyjątkiem tworzących aplikacje dla wczesnych wersji Windows (o ograniczonym zastosowaniu) czy wybranych programów CAD (głównie - AutoCAD), dla których zapewniano sterowniki, musieli sami zapewnić wsparcie dla poszczególnych typów kart.
  9. czyli szybkie przepisanie danych reprezentujących fragment obrazu graficznego z jednego obszaru pamięci graficznej do drugiego
  10. w szczególności systemów Windows oraz MacOS w przypadku komputerów osobistych, X-Window w przypadku pracujących w systemie UNIX stacji roboczych

Przypisy

[edytuj | edytuj kod]
  1. Składamy komputer. Karta graficzna, budowa, podstawowe informacje, „Poradnik komputerowy”, mamkomputer.info, 18 marca 2016 [dostęp 2016-11-06] (pol.).
  2. Video card | Definition & Facts | Britannica [online], britannica.com [dostęp 2024-04-23] (ang.).
  3. What Is a GPU? Graphics Processing Units Defined [online], intel.com [dostęp 2024-04-23] (ang.).
  4. https://www.intel.com/content/www/us/en/products/docs/processors/what-is-a-gpu.html#:~:text=While%20the%20terms%20GPU%20and,board%20that%20incorporates%20the%20GPU.
  5. APU Performance Evaluation for Accelerating Computationally Expensive Workloads – ScienceDirect [online], sciencedirect.com [dostęp 2024-04-23] (ang.).
  6. Zintegrowana karta graficzna czy dedykowana? Którą wybrać? [online], euro.com.pl [dostęp 2024-04-23] [zarchiwizowane z adresu 2022-08-17] (pol.).
  7. https://www.purepc.pl/test-zintegrowanego-uklady-graficznego-radeon-w-procesorze-amd-ryzen-5-7600x-czy-jest-szybszy-od-intel-uhd-770.
  8. https://www.nvidia.com/pl-pl/ai-on-rtx/
  9. a b http://dsp.vscht.cz/konference_matlab/matlab10/full_text/051_kajan.pdf.
  10. AMD, Nvidia coin mining graphics cards appear as gaming GPU shortage intensifies | PCWorld [online], pcworld.com [dostęp 2024-04-23] [zarchiwizowane z adresu 2023-08-22] (ang.).
  11. The Evans & Sutherland Pciture System, 1974 [online], computerhistory.org [dostęp 2024-04-23].
  12. Mickey W. Mantle, Computer Graphics at Evans & Sutherland and Pixar, „IEEE Computer Graphics and Applications”, 44 (5), 2024, s. 127–142, DOI10.1109/MCG.2024.3435488, ISSN 1558-1756 [dostęp 2026-01-29].
  13. a b c Paweł Borkowski. Gra w karty (graficzne). „Bajtek”. 1/1992 (77), s. 24-25, styczeń 1992. Spółdzielnia „Bajtek”. ISSN 0860-1674. [dostęp 2025-11-14]. 
  14. a b c Paweł Pilarczyk. Od MDA do trójwymiaru. „Enter”. 2/2001, s. 34-35, luty 2001. [dostęp 2026-04-03]. 
  15. Andrzej J. Piotrowski. Macintosh II. „Mikroklan”. 7/87 (10), s. 21-2, wrzesień 1987. Sigma-NOT. ISSN 0860-1941. [dostęp 2026-03-26]. 
  16. VGA - oficjalnie. „Bajtek”. 11/94 (111), s. 24-25, listopad 1994. [dostęp 2026-03-26]. 
  17. GPU Framebuffer Memory: Understanding Tiling [online], Samsung Developer [dostęp 2024-01-21] (ang.).
  18. Microsoft PowerPoint – framebuffer.ppt [online], stanford.edu [dostęp 2024-04-23].
  19. A Deeper Look At VRAM On GeForce RTX 40 Series Graphics Cards | GeForce News | NVIDIA [online], nvidia.com [dostęp 2024-04-23] (ang.).
  20. Thomas Scott Crow, Frederick C. Harris jr., Evolution of the Graphical Processing Unit, University of Nevada Reno, grudzień 2004 (ang.).
  21. a b IBM Personal Computer Professional Graphics Controller Technical Reference, lBM Corporation, 15 sierpnia 1984, s. 1 (ang.).
  22. GPU Performance Background User’s Guide – NVIDIA Docs [online], nvidia.com [dostęp 2024-06-06] (ang.).
  23. Don Anderson Shanley, ISA System Architecture, MindShare, Inc, grudzień 2002, s. 14, Cytat: After executing a JUMP instruction, the microprocessor resumes fetching in-structions from sequential memory locations until another JUMP instruction is executed. Most well-written programs do not contain an excessive number of JUMPs. Statistically then, the microprocessor is executing non-jump instruc-tions the majority of the time. This means that the microprocessor is perform-ing what is commonly referred to as in-line code fetches most of the time. (ang.).
  24. Ian Buck, The Evolution of GPUs for General Purpose Computing. [online], nvidia.com, 2010 (ang.).
  25. Chris McClanahan, History and Evolution of GPU Architecture [online], Georgia Tech College of Computing (ang.).
  26. Bradley Dick Kliewer. Pixels on March. „BYTE”, s. 201-208, styczeń 1989. ISSN 0360-5280. [dostęp 2026-01-18]. (ang.). 
  27. Rick Grehan. Making Windows Rock and Roll. „BYTE”, s. 202-206, styczeń 1993. ISSN 0360-5280. [dostęp 2026-01-18]. (ang.). 
  28. Karta graficzna TIGA. „Bajtek”. 6/92 (82), s. 4, kwiecień 1994. ISSN 0860-1674. [dostęp 2026-02-14]. 
  29. Steve Apiki, Howard Eglowstein, Rick Grehan. The Brains Behind the Graphics. „BYTE”. Vol. 14, No. 12, s. 178-198, listopad 1989. ISSN 0360-5280. [dostęp 2026-04-02]. (ang.). 
  30. Proceedings Template – WORD [online], iczhiku.com [dostęp 2024-04-23].
  31. Tomasz Czarnecki. Wzdłuż trzeciej osi. „Chip”. 3/97, s. 56-70, marzec 1997. 
  32. a b Jon Peddie, The History of the GPU – Eras and Environment, Springer Nature Swizerland AG, 2022, s. 63 (ang.).
  33. Jon Peddie, The History of the GPU – Eras and Environment, Springer Nature Swizerland AG, 2022, s. 66 (ang.).
  34. https://download.nvidia.com/developer/cuda/seminar/TDCI_Arch.pdf.
  35. Jon Peddie, The History of the GPU – Eras and Environment, Springer Nature Swizerland AG, 2022, s. 72 (ang.).
  36. Jon Peddie, The History of the GPU – Eras and Environment, Springer Nature Swizerland AG, 2022, s. 79 (ang.).
  37. Jon Peddie, The History of the GPU – Eras and Environment, Springer Nature Swizerland AG, 2022, s. 83 (ang.).
  38. Jon Peddie, The History of the GPU – Eras and Environment, Springer Nature Swizerland AG, 2022, s. 91 (ang.).
  39. a b c What Is the Difference Between Integrated Graphics and Discrete [online], intel.com [dostęp 2024-04-23] (ang.).
  40. Intel® Arc™ A-Series Graphics [online], intel.com [dostęp 2024-04-23] (ang.).
  41. Professional Workstations with RTX Graphics | NVIDIA [online], nvidia.com [dostęp 2024-04-23] [zarchiwizowane z adresu 2024-02-05] (ang.).
  42. NVIDIA Technologies and GPU Architectures | NVIDIA [online], nvidia.com [dostęp 2024-04-23] [zarchiwizowane z adresu 2024-01-13] (ang.).
  43. Łukasz Bura. PC'98 - Horoskop na Nowy Rok. „Secret Service”. 12/97 (52), s. 92, grudzień 1997. [dostęp 2026-04-02]. 
  44. Tom Shanley, Don Anderson, ISA System Architecture, MindShare, Inc, grudzień 2002, s. 428 (ang.).
  45. The IBM PC [online], ibm.com [dostęp 2024-06-06] (ang.).
  46. Chapter 1: Introduction 1.3 Amiga Bus History, [w:] Dave Haynie, THE ZORRO III BUS SPECIFICATION, Commodore-Amiga, Inc., 20 marca 1991, s. 1–2 (ang.).
  47. Marcin Frelek. Karty graficzne. „Bajtek”. 12/94 (112), s. 24-26, grudzień 1994. [dostęp 2026-03-26]. 
  48. Wojciech Jabłoński, Marek sawicki. ADAX 486DX/33/ EISA. „Bajtek”. 4/93 (92), s. 40-41, 51, kwiecień 1993. Spółdzielnia „Bajtek”. ISSN 0860-1674. [dostęp 2025-12-31]. 
  49. a b PCI Case Study [online], intel.ie [dostęp 2024-06-06].
  50. Intel Announces Final Accelerated Graphics Port (AGP) Interface Specification For High-Performance Workstation Market Segment [online], intel.com [dostęp 2024-06-06].
  51. PCI Express* Architecture [online], intel.com [dostęp 2024-06-06] (ang.).
  52. a b The maximum power consumption of the connectors. – GIGABYTE Global [online], gigabyte.com [dostęp 2024-04-23] (ang.).
  53. Złącze zasilania 12VHPWR w RTX 4090 stopiło się po roku używania [online], ITHardware, 13 października 2023 [dostęp 2025-11-05].
  54. Stopiona wtyczka z RTX 40 lub 50? Uważaj, to może być Twoja wina (Analiza przypadku z Reddita) [online], ITHardware, 27 maja 2025 [dostęp 2025-11-05].
  55. AMD zmienia nazwę CrossFire na Multi GPU – od teraz wsparcie dla 2x GPU [online], benchmark.pl [dostęp 2024-04-23] (pol.).
  56. a b AMD Dual Graphics Technology Review – Hardware Secrets [online], hardwaresecrets.com [dostęp 2024-04-23] (ang.).
  57. AMD Radeon RX 5700 XT przetestowany. Jak wypada w popularnym benchmarku? | Gaming Society [online], gamingsociety.pl [dostęp 2024-04-23] (pol.).
  58. AMD Dual Graphics Analysis: Better Benchmarks; Same Experience? | Tom’s Hardware [online], tomshardware.com [dostęp 2024-04-23] (ang.).
  59. https://images.nvidia.cn/aem-dam/en-zz/Solutions/data-center/nvidia-ampere-architecture-whitepaper.pdf
  60. https://docs-prod.omniverse.nvidia.com/materials-and-rendering/latest/rtx-renderer_overview.html
  61. https://docs.blender.org/manual/en/3.6/render/cycles/gpu_rendering.html
  62. a b c d https://www.researchgate.net/publication/334489746_Evaluating_Modern_GPU_Interconnect_PCIe_NVLink_NV-SLI_NVSwitch_and_GPUDirect.
  63. https://www.nvidia.com/en-us/data-center/nvlink/
  64. https://www.nvidia.com/en-us/data-center/nvlink/
  65. https://developer.nvidia.com/gpudirect
  66. https://www.amd.com/content/dam/amd/en/documents/instinct-tech-docs/other/56978.pdf
  67. https://www.amd.com/en/products/software/rocm.html
  68. https://www.sofi.com/learn/content/is-mining-crypto-worth-it/