Met alle heisa rond Radeon X800's en GeForce 6600GT's besloot AnandTech de consument even een handje te helpen en met een uitgebreid overzicht van al dat grafisch geweld weer up to date te brengen in videokaartenland. Het artikel wordt echter wel beperkt tot kaarten gebaseerd op ATi- en nVidia-chips, zodat chipsets als die van Intel, VIA en SiS met onboard-graphics buiten de boot vallen. Net als Matrox voldoen die volgens AnandTech sowieso niet aan de kwaliteitseisen die gesteld worden door gamers. Omdat de eerste GeForce- en Radeon-kaarten nog net DirectX 7 ondersteunden werden deze wel nog opgenomen in de vergelijking, in tegenstelling tot hun oudere broertjes de TNT- en Rage-kaarten.
Als eerste krijgen we een overzicht van de verschillende ATi-modellen en hun specificaties, met als topmodel de Radeon X800 XT PE en als hekkensluiter de Radeon VE. Hier zien we dat ATi logischerwijze over allerlei modellen beschikt die ondersteuning bieden voor DirectX 7, 8 en 9 maar zelfs ook de niet-officiële DirectX 9 met SM2.0b ondersteuning. Niet-officieel, volgens AnandTech omdat Microsoft deze 'tussenversie' van DirectX niet echt gecertificeerd heeft. ATi biedt bovendien ook enkele eigenschappen van het Shader Model 3.0, maar implementeert deze niet volledig. Wanneer overigens de 2.0b-eigenschappen aangezet worden op de grafische kaarten, worden ze niet meer WHQL-gecertificeerd. Daarom schakelt ATi deze functies standaard uit.
Vervolgens komen de nVidia-modellen aan de beurt, gaande van de state of the art GeForce 6800UE tot de low-end GeForce 256. Net als ATi heeft nVidia ondersteuning voor DirectX 7, 8 en 9 in huis, maar in plaats van de niet officiële DirectX9b, kiest nVidia voor de Microsoft-standaard DirectX9c. De keerzijde van de nVidia-medaille situeert zich bij de SM2.0a-eigenschappen die bijna volledig ongebruikt bleven. In vergelijking met ATi, waar de grenzen tussen de verschillende productlijnen duidelijk zijn, kent nVidia echter meer overlappingen in zijn productlijn. De GeForce 3 biedt bijvoorbeeld maar een kleine prestatiewinst ten opzichte van de GeForce 2 Ultra en dan nog enkel in moderne games. Dit verklaart meteen ook waarom veel gamers de GeForce 3 overgeslagen hebben en meteen voor een upgrade van de GeForce 2 naar de GeForce 4 kozen.
Na de voorstelling van beide productlijnen gaat men over naar de pure prestaties, waarbij men wel meteen vermeldt dat theoretische prestaties niet altijd een betrouwbare weergave van de praktijk zijn. Voor elke versie van DirectX wordt een tabel weergegeven met alle kaarten en hun specificaties, met telkens een korte toelichting. Hierna komt een bespreking van de die-size aan bod. Hieruit blijkt dat, hoewel er hoofdzakelijk met schattingen gewerkt wordt, de afmetingen van de die exponentieel groeien naarmate de kaarten moderner en beter worden. Dit betekent echter dat er uit één wafer, minder chips gemaakt kunnen worden, wat de kosten in de hoogte jaagt. In de conclusie benadrukt AnandTech nog even dat, hoewel de X800 XT en de 6800 Ultra serieuze high-end kaarten zijn die hun hand niet omdraaien voor de modernste spellen, er nog steeds betere prestaties verwacht worden.

Toen nVidia enkele jaren geleden claimde Toy Story 2-afbeeldingen realtime te kunnen renderen weerlegde Pixar deze stelling verontwaardigd met het feit dat de benodigde bandbreedte voor de textures van deze prent zowat 96GB/s bedroeg. Op de dag van vandaag is een derde van die hoeveelheid al mogelijk. In de toekomst moeten we volgens AnandTech niet meteen nieuwe eigenschappen verwachten. Met DirectX 10 dat gepland staat als onderdeel van Longhorn, kan ook die hardware nog wel even op zich laten wachten. Ondertussen kunnen ATi en nVidia zich concentreren op het kleiner maken van de dies en het opdrijven van de productie-aantallen.