ATI bescheisst bei der Texturfilterung

  • genau.
    im artikel tönt es so als würden die optimierungen ziemlich viel rechenaufwand ersparen, von dem her denke ich kann man davon ausgehen dass korrigierte benchmarks ziemlich anders (zu gunsten von nvidia) aussehen werden.


    man darf gespannt sein :)

  • es ist ein cheat, die bildqualität wird beeinträchtigt, und offenbar stärker als das bei nvidia der fall war/ist.
    dazu kommt dass die ati treiber offenbar erkennen wenn ein programm zugeschalten wird dass die filterung sichtbar macht, dann wird die optimierung ausgeschaltet und es wird mit vollqualität gefiltert was dann aber die performance stark beeinträchtigt, oder richtiger gesagt auf das "eigentliche" niveau senkt.

  • Der klärt erstmal auch gar nix, der enthüllt nur etwas. Ich frage mich aber schon, wieso niemandem die dadurch ja eigentlich sichtbar schlechtere trilineare Filterung aufgefallen ist. Computerbase anscheinend ja auch nicht wirklich.
    Ich seh auf den normalen Screenshots auf jeden Fall KEINEN Unterschied, aber das war beim ähnlichen Fall bei nvidia auch nicht anders...

    "It really is as useful as a snooze button on a smoke alarm" Jeremy Clarkson


    "Wennsd den Baum siehst, in den du rein fährst, hast untersteuern. Wennsd ihn nur hörst, hast übersteuern" Walter Röhrl

  • stimmt nicht.
    wie gesagt erkennt der treiber wann die mipmap stufen eingefärbt werden. von da her ist es logisch anzunehmen dass er auch erkennt wenn ein screenshot gemacht wird und er dann die optimierung ebenfalls ausschaltet.

  • Nope, Fehlüberlegung, denn dann hätte ihre Screenshot-Differenz Methode auch nicht funktioniert.

    "It really is as useful as a snooze button on a smoke alarm" Jeremy Clarkson


    "Wennsd den Baum siehst, in den du rein fährst, hast untersteuern. Wennsd ihn nur hörst, hast übersteuern" Walter Röhrl

  • Zitat

    Original von tornado
    Nope, Fehlüberlegung, denn dann hätte ihre Screenshot-Differenz Methode auch nicht funktioniert.


    hmm stimmt.

  • so lange die quali nicht nachlässt ist es eigentlich egal...


    und 2. war das bei nvidia anders.ich weiss noch. als ich angefangen habe die 5X.XX Detonator Treiber mit meiner GF4 Ti 4200 zu nutzen. das war die hölle. Nur texturfehler und bei Desert Combat hat man in Teletubbie-land gegeneinander gekämpft weil alle texturen komplett im arsch waren. denn hab ich eine 5900XT ausprobiert und da waren die fehler auch noch da. tja und komischer weise hat nvidia bei den 5X.XX Treibern "gecheatet" also ziehe ich die ursache der texturfehler auf diese optimierung. wenn das bei ati auch der fall sein wird, dass die spiel denn an qualität verlieren und sogar texturfehler erkennbar sind, naja denn sge ich nur.ich lass diese generation aus. denn eine "halbe" ati will ich net und eine überteuerte, hässlige, platzbesessene nvidia will ich auch net. damit hätte diese generation an grafikkarten zu viele negative seiten... und meine 9800Pro ist mir ja noch treu.


    aber egal.. man muss wirklich die ganzen tests abwarten...

    !!! WENN DU DICH MIT DEM TEUFEL EINLÄSST, VERÄNDERT SICH NICHT DER TEUFEL, DER TEUFEL VERÄNDERT DICH !!!



    - - - - - - - - - - - - - -

    Zepto Znote 6615WD 15.4" WSXGA+ 1680x1050
    Intel Core Duo T2500 / 2048MB DDR2 PC5300 / nVidia GeForce Go 7600 512MB / Hitachi 100GB 5400 U/min / Samsung DVD-RW

  • also das mit dem überteuert stimmt wohl net ganz, und hässlich schon gar net. Ausserdem finde ich den Preis völlig in Ordnung, da sie fettere Kühler brauchen, und auch sonst "mehr an der Karte dran ist", wenn man das so sagen kann(âusserdem muss auch beachtet werden, das es wohl billiger ist nen CHip zu überarbeiten als nen neuen zu entwickeln.. War ja klar das es so kommt, Ati kann sich das Cheaten erlauben, nvidia nicht. Ich wette, falls es stimmt was ati da macht bzw. gemacht hat spricht man in 1 monat nimmer davon, aber das von Nvidia wird ihnen in 10 jahren noch vorgehalten.

  • Zitat

    Original von logitec
    also das mit dem überteuert stimmt wohl net ganz, und hässlich schon gar net. Ausserdem finde ich den Preis völlig in Ordnung, da sie fettere Kühler brauchen, und auch sonst "mehr an der Karte dran ist", wenn man das so sagen kann(âusserdem muss auch beachtet werden, das es wohl billiger ist nen CHip zu überarbeiten als nen neuen zu entwickeln.. War ja klar das es so kommt, Ati kann sich das Cheaten erlauben, nvidia nicht. Ich wette, falls es stimmt was ati da macht bzw. gemacht hat spricht man in 1 monat nimmer davon, aber das von Nvidia wird ihnen in 10 jahren noch vorgehalten.


    Ist mir auch aufgefallen. Wenn das genau gleiche bei Nvidia der Fall gewesen wäre, hätte es ein riesen Geschrei gegeben von wegen: Die sind nicht fähig, etc.
    Hatte jetzt auch ne ATI. Werd jetzt einige Tests abwarten und Tee trinken, dann werd ich mir die bessere Karte holen.

    Bürste, Schwarz, Promo, Virginia.
    Na, wer hat sich verlesen?

  • Zwingt man die X800 durch abschalten des Mechanismus alles korrekt darzustellen fällt die Leistung der X800 bis auf 99,9%, exakt auf die Leistung der 9800XT zurück.



    Muahaha ist alles was ich dazu sagen kann.



    Klick

  • War ja klar das sowas kommen musste im Stil von: Nvidia hat das gleiche gemacht. Wenn du mich fragst hätte Ati daraus lernen müssen, das es eh immer bekannt wird...

  • Das Kann ich jetzt auch fast nicht glauben. Ich meine dass die Karte ohne die Optimierungen langsamer sein soll, schon, aber dass sie gleich schnell sein soll, wie eine 9800XT find ich schon sehr krass. Die 16 Pipes müssen doch auch noch irgend einen Einfluss haben.

  • Guter Beitrag zu diesem Thema aus einem anderen Forum:


    "Aus Gründen der "Fairness" ist es zwar denkbar, bei NV die TrilOpt und bei ATI die Stage Optimierung auszuschalten, allerdings frage ich mich bei derlei Dingen, wieviele der Käufer das auch tatsächlich tun. Ich schätze mal das gut 60-70% die Treibereinstellungen niemals anrühren werden, 30-40% verwenden vielleicht FSAA und Aniso. Vielleicht 5-10% kümmern sich noch um oben genannte Details. Das ist natürlich nur ne grobe Schätzung und differiert sich auch stark zwischen den Karten Preisklassen. Dennoch frage ich mich, wie sinnvoll derartige Tests sind, die von dem was die meisten Leute nach dem Kauf nutzen bzw. sehen, total abweichen. Jeder Hersteller hat nunmal seine Default Settings. Sicherlich sind auch Tests mit höheren Detail-Settings und den Abstufungen Sinnvoll und äußerst interessant. Aber generell _nur_ so zu testen, halte ich für n bissl daneben. Sicherlich ist es richtig, auf die Hersteller Druck auszuüben und die zu besserer IQ zu bewegen, aber IMHO nicht auf dem Rücken der Leser. Die Hersteller optimieren und haben ihre Default Settings. Wenn dabei die IQ leidet, liegt es an der Presse das deutlich zu machen. Ist allerdings nichts zu sehen, dann gibt es auch keinen Grund aus jeder Kleinigkeit ein Drama zu machen. Bei einem Autotest werden auch nicht auf jedes Fahrzeug die identischen Reifen aufgezogen, sondern das genommen was als Erstausrüstung auf den Felgen ist. Auch da könnte man streiten, wie fair das denn nun ist und das man die Leistung der Fahrwerke eigentlich nur mit identischen Reifen testen kann..."


    Und das gilt wie schon erwähnt logischerweise sowohl für NVidia als auch für Ati.

    "It really is as useful as a snooze button on a smoke alarm" Jeremy Clarkson


    "Wennsd den Baum siehst, in den du rein fährst, hast untersteuern. Wennsd ihn nur hörst, hast übersteuern" Walter Röhrl

  • ist doch eher positiv für ATI!
    Denn wenn die Karte default wirklich so lahm wie ne 9800xt ist, und sie dann mit Optimierungen ohne jeglichen Bildqualiverlust diese Leistung erbringen, dann Hut ab!
    Denn ich seh absolut keine optische Verschlechterung des Bildes!
    Soviel von meiner Seite zu diesem Thema :D