Eerste benchmarks S3 GammaChrome-videokaarten

Het Chinese HKEPC is erin geslaagd een GammaChrome S18 CE en een S18 Pro van S3 te bemachtigen om aan enkele benchmarks te onderwerpen. Deze twee videokaarten zullen nog dit kwartaal gelanceerd worden en beschikken onder andere over native PCI Express-ondersteuning. Verder zijn ze ook uitgerust met DDR1-geheugen en WMV9-acceleratie. Volgens de specificaties zou deze kaart een 3DMark03-score van 4500 punten halen. De S14 en S19 die later gelanceerd zullen worden, zouden respectievelijk 2300 en 7000 punten moeten halen. De S18 stond eerder al bekend onder de codenaam Metropolis en heeft vier vertex engines, DirectX 9- en Shader Model 2.0+-ondersteuning. Van deze videokaart zullen vier varianten verschijnen: de Ultra, Pro, CE en ULP met een gpu-kloksnelheid van respectievelijk 500MHz, 400MHz, 300MHz en 200MHz.

S3 S18 CE en S18 Pro

De Chromotion 2 programmeerbare video-engine ondersteunt overigens ook MPEG2- en MPEG4-hardwareversnelling en biedt vergelijkbare mogelijkheden als nVidia's PureVideo. Voor het testen werd gebruik gemaakt van een AMD Athlon 64 4000+ op een Gigabyte GA-K8NXP-SLI-moederbord met 512MB geheugen. Om te beginnen besteedt men even aandacht aan de warmteontwikkeling en energieconsumptie. In onbelaste toestand meet men met de S18 CE 31,4°C en met de S18 Pro 32,8°C. Bij de GeForce 6200 is dit 35,1°C. Wanneer de kaarten onder druk gezet worden stijgt de temperatuur respectievelijk naar 45,7°C, 48,2°C en voor de GeForce naar 56,5°C. Ook wanneer het energieverbruik gemeten wordt, doen beide S3-kaarten het voortreffelijk. De CE-versie verstookt idle zowat 73,4W, de Pro-variant verbruikt 74,8W en de GeForce houdt het bij 76,3W. Onder belasting stijgt het verbruik voor de S18 CE naar 82,7W, voor de S18 Pro naar 86,2W en voor de GeForce 6200 zelfs tot 90,5W.

Vervolgens wordt echter overgeschakeld naar enkele echte benchmarks. Als eerste mag de de S18 CE ATi's Radeon X300 bekampen. Zowel in 3DMark03 en 3DMark05 als Doom 3 weet S3 het een klein beetje tot beduidend beter te doen. Enkel in Half-Life 2 moet men ATi een voorsprong geven. Wanneer de S18 Pro de GeForce 6200 mag bekampen, presteert S3 opnieuw uitstekend. Dit keer weet het zijn concurrent te verslaan in beide 3DMark-testen, maar moet de S18 Pro het onderspit delven in zowel Doom 3 als Half-Life 2. Tot slot worden de resultaten van een overgeklokte S18 Pro op 450MHz vergeleken met de standaardversie op 400MHz. Daarmee wordt in 3DMark03 een prestatiewinst van 300 punten gehaald.

Benchmarkscores op 1024x768
3DMark03 3428
2562
4121
3801
3DMark05 1233
1014
1623
1414
Grijs: S18 CE | Rood: Radeon X300 | Oranje: S18 Pro | Blauw: GeForce 6200

Door Yoeri Lauwers

Eindredacteur

07-02-2005 • 10:24

45

Bron: HKEPC

Reacties (45)

45
44
17
2
1
22
Wijzig sortering
Het stroomverbruik is niet alleen van de videokaart zelf, maar van het complete systeem, want in het artikel wordt duidelijk gemaakt dat het vanaf de 230v aansluiting wordt gemeten
Nou, dat ziet er goed uit op prestatiegebied. Jammer alleen dat niemand meer S3 durft te kopen vanwege hun verschrikkelijke driver support (net zoals bij Creative; de Live! vond ik zo'n beetje oplichting).

Het lijkt mij dus dat dit toch voornamelijk een weggemoffeld OEM-kaartje gaat worden

edit: Ik zie net pas dat ze nog niet Shader Model 3 ondersteunen. Dat is wel erg jammer.

edit: Creative geluidskaarten
nou ja... Het is wat je goed noemt.... voor kantoortoepassingen prima, maar voor de rest.....

Als de prestaties vergelijkbaar zijn met een X300 en een Geforce 6200 motiveert me dat niet echt om er een aan te schaffen...
Helemaal mee eens. Of het wat is ligt bovendien aan de prijs en waarschijnlijk is die een heel stuk duurder dan de X300 en de GF6200.
Een kaart die idle 70Watt slurpt lijkt me nou niet echt wenselijk voor kantoortoepassingen. Een simpel flutkaartje (S3 Trio ofzo ;) ) voldoet al op kantoor (iig tot longhorn uitkomt dan).

Daarnaast, als de prestaties vergelijkbaar zijn met een X300 of GF6200, maar de prijs is veel gunstiger. Waarom zou je deze kaart dan niet overwegen? Een ander lijkt me dus gewoon van de prijs afhankelijk, en die is helaas nog onbekend.
Maar daar betaal je ook voor, goede driver support is gewoon duurder.
zoals schaap al aangeeft ...

drivers :s ...

ik neem trouwens aan dat de prestaties nog verder omhoog kunnen gaan wanneer er aan de drivers gesleuteld wordt... en laat nu dat net het puntje zijn waar we met s3 toch ó zo'n goeie ervaringen hebben...

verder had ik niet verwacht dat S3 voor een keertje toch eens mee zou kunnen met de concurrentie op gebied van prestaties
Nou, dat ziet er goed uit op prestatiegebied. Jammer alleen dat niemand meer S3 durft te kopen vanwege hun verschrikkelijke driver support (net zoals bij Creative).
Nou, het huidige S3 heeft weinig meer te maken met het S3 uit de 'glorietijd' hoor. Ze hebben (dacht ik) al een tijdje een nieuwe eigenaar en zijn qua techniek ook een heel andere weg ingeslagen dan in de tijd van de flutchipsets die ze uitbrachten.
Alleen het geluk bij een Creative (nVidia of ATI dus) is dat je altijd nog de drivers van de chipontwerpers zelf kan gebruiken wel goed werken, dat punt heeft SIS dan niet... en je hebt helemaal gelijk, het is verschrikkelijk geweest de voorgaande jaren.
Ik vraag me af of die idle waarden wel kloppen?

Door 10W extra te verbruiken worden de kaarten 15° tot 20° warmer? Het lijkt dan ook dat het idle verbruik een stuk lager moet liggen. Dit hoop ik toch althans.

Bekijk het zo: kamertemperatuur 21°, idle 70W -> 32°
kamertemperatuur 21°, load 80W -> 45-56°

Dit klopt niet.
Je vergeet dat warmteoverdracht (koeling) veel sneller verloopt bij een groter temperatuursverschil. Zodra de kaart heter wordt, verliest hij dus ook weer sneller die warmte.
Dat is het hem juist, door slechts 10W extra wordt het verschil met de omgevingstemperatuur 15° tot 20° groter terwijl dit bij de initiële 70W slechts 12° was!

Lees mijn 1e post nog eens over. :)
Het omgekeerde is ook waar: in idle wordt de heatsink op een lage temp gehouden omdat alle warmte nog door de lucht weggegvoerd kan worden. Onder load lukt dit niet meer dus de heatsink wordt warmer. Hierdoor wordt ook het temperatuurverschil tussen chip en heatsink kleiner -> slechtere warmteoverdracht -> hogere chiptemp dan verwacht.Zo'n heatsink kan ook niet eindeloos door blijven gaan natuurlijk, hoe hoger de load hoe slechter een heatsink gaat presteren.

Maar misschien zijn ook de sensoren die ze gebruikt hebben niet helemaal 100% nauwkeurig, denk maar aan de temp uitlezing van Asus moederborden.
Sorry, je hebt gelijk. |:(
Mischien dat in idle-stand de fan uitgezet is?
Ik ben blij dat ik niet de enige ben die zich afvraagd of die opgenomen vermogen bij idle-waarden wel kloppen.
70W voor een kaart die staat de idlen, da's toch ongelooflijk veel?
Is dat niet hetzelfde als een processor onder vol-last?
Dat kan die VGA koeler vast niet afvoeren.
Nee, hier klopt iets niet.
Dat is idd ongeveer hetzelfde als een gemiddelde cpu :)
Een ATI Radeon x800 Pro verbruikt in idle toestand maar 38W en 68W onder load :+
Whieee Moderator Apple Talk 7 februari 2005 10:40
als dit kaartje voor een lage prijs in de winkel komt te liggen en er fatsoenlijke drivers geleverd worden kan dit kaartje nog wel eens redelijk populair worden. Maar eerlijk is eerlijk, iedereen die zelf een losse videokaart koopt zal toch eerder neigen naar een ATi of nVidia, puur omdat de high-end kaarten ook van die merken zijn...

OEM kaartje dus...
Kennelijk kan S3 daar nu dus tegenop met zijn kaarten. De prijzen zijn mij niet bekend, maar als ze goedkoper zijn dan vind ik ze een serieuze concurrent voor ATI en Nvidia. Want ondanks de concurrentie zijn videokaarten zijn tegenwoordig BELACHELIJK duur. Het interesseerd ze kennelijk niets, want de consument koopt wel.
Zelfs ik als verstokte gamer vind het niet eens waard om een videokaart van meer dan 150 Euro te kopen. Ik snap niet dat er mensen zijn die elk jaar een nieuwe videokaart kopen van € 250,-
Ik weet dat het gulden-tijdperk allang voorbij is, maar het is wel ff 550,- Gulden waar je over praat. Daar kocht ik jaren geleden zowat 2 topkaarten voor.

Mooi dat er weer een concurrent bij is. En ik hoop dat ze lagere prijzen en daardoor succes hebben.
Dit zijn wel leuke kaarten. Als je nu een pc koopt krijg je een GForce 440 oid als videokaart, doe mij dan deze maar hoor.

Overal een S3 in. :P

Alleen jammer dat er niks over de prijs wordt gezegd, wordt ie duurder of goedkoper als de X300/6200 ?

Waarschijnlijk duurder, hij presteert beter.. :Z
Als kleine partij kan S3 zich niet veroorloven een dure kaart op de markt te zetten.
OEM's zullen 'm dan niet kopen en dan is de afzetmarkt ineens wel heel erg klein.
De OEM's kijken namelijk heel erg scherp naar de prijs/prestatieverhouding.
OEM's zullen hem zoiezo al niet zo snel kopen want er zijn maar weinig gemiddelde computergebruikers die S3 kennen. Een nVidia of ATi klinkt immers sneller omdat ze die naam kennen (Of GeForce op z'n minst toch al).

Maar als S3 haar driversupport eindelijk eens goed krijgt en wat extra marketing in combinatie met een goede prijs toepast dan heeft dit kaartje nog een kans :)
Als deze kaart gelijk geprijst wordt (het snelste model) als een 6200 zal het een succes kunnen worden.

Als S3 te hard van stapel loopt en ze gaan meer voor de kaart vragen omdat de kaart ook sneller is zullen ze in de retail markt niks verkopen. Puur omdat in de onderkant van de videokaart markt de prijs het belangerijkste is.

"Waarom hetzelfde belalen voor minder." Maar iedereen hier heeft ook gelijk. S3 moet iedereen eerst overtuigen als een "Betrouwbare partner". Want zonder goede drivers/ support (op de langere termijn) is S3 niks.
Het is een leuk begin, maar ze zijn er nog lang niet dus.
Wanneer deze kaartjes echter qua prijs gaan concurreren met Ati of NVidia, zie ik ze nog wel in kantoorapparaten verschijnen. (wanneer er geen onboard is natuurlijk)
Als je bedenkt dat het grootste deel van de wereldbevoking geen geld heeft voor snellere kaarten en dat daarnaast de meeste computers niet voor 3d applicaties worden gebruikt, lijkt het mij dat er toch wel een markt moet zijn voor deze redelijk concurrende kaartjes.
Hhahaha, maar iedereen die geen geen 3d apps draait heeft toch gewoon een onboard video-oplossing.

Tenzei dat je bv wilt dat videos gerenderd worden door je videokaart, maar de cpus van tegenwoordig zijn daar snel genoeg voor.
Ik zie in deze kaarten goede kandidaten voor Microsoft MCE '05 PC's. Vooral doordat de Chromotion 2 programmeerbare video-engine ondersteunt overigens ook MPEG2- en MPEG4-hardwareversnelling heeft. daarbij komt dan ook nog eens de gunstige temperaturen en stroom verbruik tegenover de vergelijkbare kaarten van ati en nvidea.
Vereiste is dan wel een goede kwaliteits output.
Net zoals de deltachrome, zul je deze kaarten vooral tegenkomen in aziatische notebooks, die wij hier nooit te zien krijgen.
De hele deltachrome serie is eigenlijk een inloopserie voor S3, om opnieuw "in de running" te geraken in de 3d markt. Hun volgende chip, destination films, zal gericht zijn op de desktop market.

btw, VIA liet de deltachrome ontwikkelen omdat de (erg) oude s3 grafische chips, die gebaseerd waren op de savage, te vervangen.
Zulke insteekkaarten in notebooks? Wellicht dat deze kaartjes in Aziatische OEM-PCtjes komen te zitten, maar iig niet in notebooks ;).

De chips kunnen natuurlijk wel voor notebookgraphics gebruikt worden :).
In Sonoma-notebooks passen toch PCIe videokaarten? Waarom doen we dan niet wat we nu al met mini-PCI doen, maar dan met PCIe?
sorrie, had ik niet bedoeld als insteekkaart, maar geintegreerd op een VIA moederbord.

Sorona heeft support voor axiom & MXM, maar die mobiele pci-express platvormen zijn relatief nieuw. Men heeft op een notebook appart slot nodig voor de grafische kaart voor de warmte op de gepaste manier te kunnen afvoeren.
Ik wil een bescheiden oproep doen (misschien naïef, maar who the f*ck cares...);
Als je wat geld teveel hebt (niemand, maar soit) => koop er een voor je tweede pc (die van je broertje :)) om wat tegengewicht te geven !
mijn zusje is hartstikke terveden met haar Mx4000 :P

Deze kaart is NIET GOED,

Ow!! wat zei jan nu weer?!!
Tja, als je de review doorleest kom je in het gedeelte waarin ze doom3 en Halflife 2 gaan testen....23fps of zoiets in die richting, en veel lager dan de x300 of 6200...

Ik ZOU het ZO leuk vinden als S3 nou gewoon eens een keer op houd met budget en zuinig en weinig warmte, EN GEWOON EENS EEN KEER EEN FATSOENLIJKE KAART BOUWD!!!!!
En als jij even Nederlands leert, vervolgens zware studies aanvat om chipontwerper te worden, waarop je vervolgens zelf de kaart die je wi,l kan bouwen, dan is het een betere wereld geworden dankzij jou :+

Op dit item kan niet meer gereageerd worden.