In de afgelopen weken is veel te lezen geweest over de introductie van nVidia's langverwachte GeForce3. Het is ook te voorspellen dat wij de komende tijd nog een hele hoop reviews zullen zien over dit onderwerp, aangezien elke zichzelf respecterende site wel een artikeltje wil schrijven over dit nieuwe fenomeen. Aan de komst van de GeForce3 ging een behoorlijke hype vooraf, al maanden wordt gespeculeerd over de precieze specificaties van de GeForce3 en het effect van nieuwe technieken als HSR (Hidden Surface Removal, techniek waarbij oppervlakken die toch niet zichtbaar zijn niet gerendered worden om een hogere snelheid te bereiken) op de prestaties ervan.
Er zijn al wat GeForce3 benchmarks in de nieuwsberichten verschenen, al waren het er niet veel. Wat voortdurend opvalt aan deze benchmarks is dat ze, op zijn zachtst gezegd, een beetje tegenvallen. In de benchmarks die gedraaid worden met de huidige, gangbare applicaties is de GeForce3 vaak even snel of zelfs iets langzamer dan een GeForce2 Ultra, die qua prijs op dit moment een stuk onder de introductieprijs van de GeForce3 zit. Ik wil niet teveel op de zaken vooruit lopen; de Detonator 4 drivers met echte ondersteuning voor de GeForce3 zouden volgens de laatste berichten morgen moeten uitkomen, en deze zouden nog voor een performance boost kunnen zorgen. Toch lijkt het me dat dat nooit zo'n enorme winst kan geven dat de GeForce3 ver boven de GeForce2 Ultra uit kan steken (met de huidige software).
Dit zette mij toch even aan het denken. Ik twijfel er niet aan dat de GeForce3 tot veel nieuwe dingen in staat is, en superieur is aan de voorgaande series. Filmpjes als de Doom 3 demo en allerlei screenshots die wij zo hier en daar te zien krijgen bevestigen dat. Maar dan gaat het allemaal om toekomstige software, programma's die nog niet verkrijgbaar zijn. Het toverwoord lijkt 'optimaliseren' te zijn; de prestaties zijn dan nu misschien nog niet om over naar huis te schrijven, maar het gaat allemaal beter worden met 'geoptimaliseerde' software. We moeten gewoon rustig wachten tot die software er is, en dan zullen wij onze ogen uitkijken en blij zijn met onze prachtige nieuwe GeForce3.
Waar heb ik dat toch eerder gehoord? Bij de introductie van de Pentium 4 kregen - en krijgen wij nog steeds - ook dit soort dingen te horen. De Pentium 4 is dan wel in veel applicaties niet veel sneller, even snel of soms zelfs langzamer dan de huidige processors, maar dit wordt allemaal opgelost met geoptimaliseerde software. En hier zijn de bewijzen ook voor - benchmarks die sterk geoptimaliseerd zijn voor de Pentium 4 laten een stuk betere resultaten zien.
Ik wil het niet gaan hebben over de kwaliteit van de Pentium 4, en of de prijs/prestatieverhouding slecht of goed is. Ik ben er van overtuigd dat Intel met de Pentium 4 een processor heeft neergezet die veel mogelijkheden biedt voor de toekomst, met goed doordachte nieuwe features, waar ze nog veel plezier van zullen hebben. Alleen is dat zo moeilijk te zien met de huidige software. Wat mij op het volgende punt brengt.
Was het niet altijd zo dat de software voorliep op de hardware? Dat je een nieuwe videokaart aanschafte omdat je wíst dat het dan toch sneller liep? Dat je dat schokkerige beeld op die hoge resolutie kon voorkomen door een nieuwe processor in te slaan? Dat nieuwe software je altijd tot wanhoop dreef omdat het niet meer werkte zoals jij dat wilde op jouw hardware?
Eerder klaagde ik over het ontbreken van ontwikkelingen in de hardware. Nu zie ik het iets anders: de ontwikkelingen zijn er, maar ze worden niet meer op de voet gevolgd door de softwareproducenten. Dat is niet per se de schuld van de softwaremakers. Er is namelijk een groot verschil tussen de soorten veranderingen in de hardware nu en, zeg, zo'n vier jaar geleden.
De ontwikkelaars die toen begonnen aan een spel, wisten waar ze aan toe waren. Ze konden de techniek gebruiken van de net uitgekomen 3dfx Voodoo chipset, en er van uitgaan dat er nog vele kaarten zouden komen die min of meer dezelfde mogelijkheden en architectuur - zij het natuurlijk op hogere kloksnelheden en met betere prestaties - als de Voodoo. Hetzelfde geldt voor de processoren: de Pentium II was net uitgekomen, en hierop gebaseerde of hiervan afgeleide processoren zouden de komende tijd nog wel de computerwereld bepalen.
Nu zitten we echter op een soort breekpunt. Intel heeft zich gerealiseerd dat de Pentium II architectuur nu uitgeput is, dat het geen kwestie meer is van simpelweg de kloksnelheid ophogen en dan-zal-het-wel-goedkomen: die mogelijkheid is er gewoon niet meer. Dus worden er allerlei technieken uit de kast getrokken om iets nieuws te maken wat weer een tijdje meekan. Het resultaat is de Pentium 4. Door nieuwe vindingen kan de kloksnelheid weer flink omhoog gegooid worden, maar voor echte prestatiewinst is de processor ook voor een groot deel afhankelijk van software die geoptimaliseerd is voor SSE2.
Hetzelfde geldt ook, misschien in mindere mate, voor de GeForce3. Met de GeForce2 Ultra heeft nVidia alle rauwe snelheid die in de GeForce2 chipset zat eruit gehaald, maar dat stopt ook een keer. Het is opvallend dat de hardwarespecificaties van de GeForce3 (en dan doel ik vooral op de kloksnelheid van de core en het geheugen) niet veel verschillen van die van de GeForce2 Ultra. Ook hier was het dus nodig om nieuwe technieken toe te passen om het beoogde effect - een snellere chipset met meer mogelijkheden - te bereiken. En ook hier geldt dat er weer een grote afhankelijkheid is van de software: zowel in de vorm van de eigen drivers als ook de software die erop moet draaien.
Het is dus erg belangrijk voor voorgenoemde bedrijven om ervoor te zorgen dat softwareontwikkelaars hun software optimaliseren voor deze technieken. En als belangrijkste producenten op hun verschillende gebieden hebben zij ook de 'macht' om dit door te drukken. Dan valt het me toch op dat zij niet eerder met softwareproducenten zijn gaan praten om ervoor te zorgen dat hun technieken goed ondersteund worden bij het uitbrengen van de nieuwe producten.
Natuurlijk moeten die softwareproducenten ook rekening houden met bezitters van oudere of andere processoren en videokaarten. Maar is het niet zo dat de Radeon ook geoptimaliseerd is voor DirectX 8 features, net als de GeForce3? En is het niet zo dat AMD heeft aangegeven in de toekomst ook SSE2 te willen gaan gebruiken, om ervoor te zorgen dat er wel één standaard blijft? De softwaremakers willen uiteindelijk natuurlijk dat hun programma zo snel mogelijk en mooi mogelijk draait, en als dat beter kan met nieuwe producten, dan is het in het verleden nooit zo geweest dat er nagelaten werd om een programma pas goed te laten draaien op de nieuwste hardware, omdat er zoveel mensen waren met wat oudere componenten. In tegendeel, de software was juist altijd de belangrijkste reden voor mensen om nieuwe hardware te kopen.
Ik weet niet door wie het komt dat de nieuwe technologieën zo slecht opgepakt worden. Ik weet niet of de hardwarebakkers niet genoeg hun best doen om de softwaremakers van de voordelen te overtuigen, of dat de softwareproducenten het te ingewikkeld of teveel werk vinden om die nieuwe technologieën te implementeren. Maar ik denk wel dat het de ontwikkeling van zowel software als hardware ten goede komt als de makers van beiden eens wat vaker om de tafel gaan zitten en het allemaal wat beter op elkaar afstemmen. Dan verlopen dit soort overgangen, zoals we nu meemaken, net een stukje soepeler, en worden ook de hardware-verkopen positief beïnvloed, doordat de afwachtende houding die veel mensen nu hebben voorkomen wordt. De technologie is voorhanden, doe er iets mee!