Warum performt Doom3 auf Gforcen besser...
-
-
weil se ATI nimmer mögen seit irgend nen depp da ne leaked version an der E3 raus geschmuggelt hat ^^ jetzt müssen ATi Karten nach jedem Frame ein Fram pause als bestrafung einlegen
-
Das liegt vor allem daran das ati den open GL nicht mehr richtig suportet! Bzw. die Treiber und die Graka selber auf Direct 3d einstellt.
Das kann man fast bei allen games feststellen. In open GL waren die Nvidias nie so schlecht! Hab mal nen Artikel gelesen wos genau erklährt wurde. Weis nur nicht mehr wo -
Der Artikel von 3DCenter klingt ziemlich professionell und meiner Meinung nach ist so einen grossen Unterschied nicht rein Treibermässig zu erklären.
Wie im Artikel beschrieben, glaube ich auch, dass der riessige Unterschied wirklich auf die Architecktur zurückzuführen ist. -
Zitat
Original von MondGsicht
Der Artikel von 3DCenter klingt ziemlich professionell und meiner Meinung nach ist so einen grossen Unterschied nicht rein Treibermässig zu erklären.
Wie im Artikel beschrieben, glaube ich auch, dass der riessige Unterschied wirklich auf die Architecktur zurückzuführen ist.Sorry hatte nicht mehr alles genau im Kopf.
-
ich begreife echt nicht, warum die da jetzt so ein Riesentrara draus machen. Das ganze war ja sowieso schon von Anfang an klar. Schliesslich hat 3DCenter schon letztes Jahr berichtet, dass die Doom-Entwickler hauptsächlich mit Nvidia zusammenarbeiten und das ganze Game absolut Nvidia-Optimiert sein wird.
Ich seh echt das Problem nicht. Dafür ist es ja bei Halflife2 genau umgekehrt.
-
Zitat
Original von Balthazzar
weil se ATI nimmer mögen seit irgend nen depp da ne leaked version an der E3 raus geschmuggelt hat ^^ jetzt müssen ATi Karten nach jedem Frame ein Fram pause als bestrafung einlegenlol.. und die käufer müssen dann darunter leiden... ich hab lieber ati aber auch bessere performance...
die publischer sollen mal machn das man unter linux zoggn kann..
so wie ut04
windows macht die geilen frames kaputt... linux und win98 ruleZ -
Zitat
Original von Mc Queen
ich begreife echt nicht, warum die da jetzt so ein Riesentrara draus machen. Das ganze war ja sowieso schon von Anfang klar. Schliesslich hat 3DCenter schon letztes Jahr berichtet, dass die Doom-Entwickler hauptsächlich mit Nvidia zusammenarbeiten und das ganze Game absolut Nvidia-Optimiert sein wird.Ich seh echt das Problem nicht. Dafür ist es ja bei Halflife2 genau umgekehrt.
Naja, der SLI modus von Nvidia ist auch darauf zurückzuführen das Doom3 für Nvidias gedacht ist. Da man 512MB hat und so den Ultra krass viel Detail Modus zum laufen bringt.
Aber bei aller optimierung muss ich sagen, das die 6800er Ultra sowiso nicht schlecht ist. Die holt langsam mächtig auf!!
Freu mich schon auf meine -
Zitat
windows macht die geilen frames kaputt... linux und win98 ruleZ
Diese Aussage könnte von meiner Grossmutter (hat kA. von IT) stammen, da steht soviel Mist drin! -
Zitat
Original von DaveInflamez
Naja, der SLI modus von Nvidia ist auch darauf zurückzuführen das Doom3 für Nvidias gedacht ist. Da man 512MB hat und so den Ultra krass viel Detail Modus zum laufen bringt.
Aber bei aller optimierung muss ich sagen, das die 6800er Ultra sowiso nicht schlecht ist. Die holt langsam mächtig auf!!
Freu mich schon auf meineda hast du sicher recht, doch noch immer würde ich mir niemals eine 6800Ultra kaufen. Die X800XT-PE hat nach wie vor jenste Vorteile, welche mir persönlich wichtiger sind. Ausserdem sind im ORB beim 03 wie beim 01 Mark die ersten Seiten fast ausschliesslich von X800XT's besetzt. Es scheint also massiv schwieriger zu sein, aus einer 6800Ultra dasselbe rauszukitzeln, wie aus ner X800XT.
-
womit wir wieder bei dieser disukusion sind 6800 oder x800xt
Ich denke die 6800er hat mehr reserven. Da die GPU neu ist und die vom x800 noch die Alte ist und somit das ganze potential ausgeschöpft wurde! Treiberseitig versteht sich! Aber mit entsprechenden kühllösungen, ists schon klar das man die noch höher bringt.
Auserdem sind ja noch nicht soviel 6800er karten zu haben.
Ich hab bis jetzt noch nicht viel gesehen -
Zitat
Original von Red_Wolf
lol.. und die käufer müssen dann darunter leiden... ich hab lieber ati aber auch bessere performance...
die publischer sollen mal machn das man unter linux zoggn kann..
so wie ut04
windows macht die geilen frames kaputt... linux und win98 ruleZ1. Des war ned soooooo ernst gemeint ;]
2. viele nahmhafte games bekommen mittlerweile so eine art "linuxpatch" nachgelieftert... Farcry z.B. http://www.linux-gamers.net/mo…/article.php?articleid=39
und ich bin mir sicher, dass auch doom3 für linux ned lange auf sich warten lässt (wenns es ned schon gibt)
-
Zitat
Ich denke die 6800er hat mehr reserven. Da die GPU neu ist und die vom x800 noch die Alte ist und somit das ganze potential ausgeschöpft wurde!
...ein grandioses Argument.....somit ist wohl der Prescott dem A64 masslos überlegen, weil der A64 grösstenteils ja noch auf der XP-Architektur aufgebaut ist. *IronieOFF*
Guck dir doch einfach die Benches an. Dann picke dir die wichtigen für dich persönlich raus, und schaue dann, welche der Karten dort jeweils besser abschneidet. Dann weisst du welche besser für DICH ist.
Mir ist das halt eh egal......mir sind die 3DMarks wichtig, dass ich kein neues Netzteil kaufen muss, dass ich die Karte nach wie vor passiv kühlen kann, und die Werte bei hohen Auflösungen und hoher Bildqualität.....tja, somit ist der Fall sonnenklar für mich.....da kommt nur die X800XT in Frage. Gar keine Frage!
-
wie schon erwähnt, ati hat keine guten openGL treiber (ich will 3dfx wieder ) )
zur zeit werden neue opengl treiber bei ati gemcaht (werden die catalyst 4.9 stand bei computerbase)
im moment ist da halt nvidia vorne...was solls ich bleibe meiner rad9800pro noch tröi und die nexte karte wird eh wieder ati sein schon nur weilse scheee leise sind (was mir als wasserkühler ansich soo derbe am anus vorbeigeht aber das argument ist gut) -
was mich interessieren würde, ist, welche Karte bei maximaler Kühlung am besten performt! Kann man da drauf gehen, welche Karte von standart her kühler ist?
-
das kannst du ja im ORB nachgucken......das ist eindeutig die X800XT......auf Seite eins sind 19 von 20 Karten X800XT....bei beiden 3DMarks!
-
stimmt, nicht nachgedacht! thx, dann wirds bei mir auch ne XT schneien
-
ich fänds cool wenn epic ma benchmarks mit ihrer neuen Grafikengine auf den karten machen würde.. dann wüsst ich ganz genau womit ich demnächst meine Augen verwöhnen werd
P.S. für alle die ned wissen wovon ich rede: http://www.edgefiles.com/downl…deos/unreal3engine_e3.zip
-
.... lärm: scheissegal weil ich sowiso immer sound um mich habe
.... Neues Netzteil: hab ich schon lange, 480W
.... warum Nvidia? Weil ich schon immer ne Nvidia hatte, ausser 2xVodoo2 SLI
Und bis ich meinen 6800er Gefort kaufe wird sich sicher noch einiges ändern!!
Freu mich schon! -
Zitat
Original von DaveInflamez
.... warum Nvidia? Weil ich schon immer ne Nvidia hatte, ausser 2xVodoo2 SLI[ironicmode]
Ich wähle SVP, weil ich schon immer SVP gewählt habe...
[/ironicmode]jedem das seine