5-30% is PR bullshit? Sorry maar als je zo'n beloftes maakt is het geen PR. Als je niet aan de verwachting voldoet is het zelfs anti-reclame. En Ben de Waal staat aan het hoofd van het driver-team. Hij houdt zich bezig met de technische kant van de zaak, niet de PR, en zal dus een goed beeld hebben op de werkelijke mogelijkheden.
De antwoorden op je vragen staan al in mijn orginele bericht. Maar aangezien je die blijkbaar niet hebt begrepen zal ik hier nogmaals uitleggen.
5-30% is PR bullshit omdat het spel NIET 5-30% sneller gaat. Maar ondertussen denkt iedereen hier dat wel en denk dat Nvidia weer wat geweldigs heeft gedaan.
Een pluim voor de PR afdeling van Nvidia, die hiermee geweldig werk heeft geleverd.
Wanneer straks blijkt dat die 5-30% helemaal niet gehaald word is dit al weer lang vergeten en is er dus geen anti-reclame. Ondertussen is de verbetering van het imago blijvend.
Wat betreft de technische kant. Dat gaat veel te diep voor de discussie hier. Zoals ik al zei staat dat al door ettelijke mensen prima verwoord in de discussie bij techreport. En dan door mensen die daadwerkelijk drivers schrijven, ipv een manager die wel aan het hoofd staat, maar niet (meer) op dat diepgaande nivo er mee bezig is.
Je vergeet compleet dat die code in parallel draait, op een multi-GHz core die niks anders te doen heeft. Dus de gebruikelijke drivercode draait op één core, terwijl de andere core -volledig- gebruikt kan worden voor extra vertex-processing. Da's ettelijke miljarden floating-point berekeningen extra.
Je vergeet dat de driver maar een heel simpel dingetje is. Een simpele vertaling van de DX api's naar de gpu hardware. Dat vergt maar heel weinig cpu cycles.
En als een vertaling maar 0.1% van de cpu usage van een spel in beslag neemt, dan heeft een 30% sneller vertaling dus maar heel weinig effect op de uiteindelijke snelheid van een spel.
En dan maakt het geen zier uit hoe snel die andere core is want de hoogste snelheidswinst die je zelfs in theorie. (met een 5THz cpu) kunt bereiken is immers maar 0.1%.
Drivercode neemt een aanzienlijke hap uit de beschikbare rekentijd. De reden hiervoor is dat zowat alle optimalizaties in de driver gebeuren. De GPU is 'domme rekenkracht' en het is aan de driver om er enkel dingen naar toe te sturen die uiteindelijk op het scherm verschijnen.
De GPU is tegenwoordig geen domme rekenkracht meer. Denk maar aan de shaders die tegenwoordig de beperkende factor zijn in spellen. Daar heeft een driver helemaal niets mee te maken.
Maar zelfs al zouden al die optimalisaties in de driver zitten. (wat voor het grootste gedeelte niet waar is) dan nog is dat 5-30% cijfer misleidend. Optimalisaties geven je eens een keer 5 - 10% winst. Nu gaat die 5-10% winst dus 5-30% sneller. De uiteindelijk snelheidswinst van multithreading komt dan uit op 0,0025% - 3%.
Zou er iemand hier enthousiast worden wanneer in het artikel stond dat multithreading in de driver je spel in gunstige situaties wel 3% sneller zou kunnen maken?
En wat is volgens jou 'DX9 code'? Dát is pas code die heel weinig tijd inneemt. De DirectX runtime is enkel een interface tussen de applicatie en de driver (i.e. de brug tussen user mode en kernel mode). Die doet echt niks rekenintensief. Als een DirectX functie lang duurt is het omdat de onderliggende driver er zo lang over doet.
Tim Sweeney is het niet met je eens. DX zit niet efficient in elkaar. Daardoor krijg je een gigantisch overhead op Direct3D calls. Dat is zelfs zo erg dat het 50% van de cpu tijd in beslag neemt!!
(Niet rekenintensief zei je toch?

)
Het grote voordeel van multicore cpu's is dat je die overhead kunt 'verbergen'.
Die overhead is er trouwens ook de oorzaak van dat je in spellen met multithreading het renderen niet kunt versnellen. Wel kun je AI, physics etc goed multithreaden.
Je kunt dit nalezen in de volgende thread op beyond3D:
http://www.beyond3d.com/forum/viewtopic.php?t=21194&highlight=
En daarmee is de conclusie over die tip van je dan ook duidelijk: De pot verwijt de ketel dat ie zwart ziet!