nVidia stichelt intern gegen Crossfire

  • Auf dem Grafikkartenmarkt herrscht seit Jahren ein harter Kampf zwischen ATi und nVidia. Nachdem es letztes Jahr schon die ein oder andere Stichelei an die Öffentlichkeit geschafft hat, ergreift nVidia erneut die Initiative und schießt in einer Slide-Show scharf gegen ATis Pendant zur SLI Technik: Crossfire.



    Auf insgesamt 19 Folien nimmt man sämtliche bekannten Fakten zu Crossfire aufs Korn. Was für den Leser witzig oder nachdenklich sein mag, ist abermals ein Beweis dafür, welche Schlammschlacht intern und gegenüber dem Handel mittlerweile zwischen den Konkurrenten herrscht.


    "Schlammschlacht deluxe" trifft den Nagel wohl auf den Kopf, wie ich finde. Obwohl ich nVidia einen gewissen Wahrheitsgrad zugestehen muss....
    Da Lesen aber bekanntlich bildet, führt euch den ganzen Bericht zu Gemüte und entscheidet selbst!


    Ganzer Artikel @ computerbase.de

  • Zum Glück haben sie das Kommentieren gleich gesperrt, sonst wär das Geflame gleich losgegangen. Was nicht heissen soll, dass hier jetzt geflamt werden darf :rolleyes


    Nvidia spricht wichtige Punkte an. ATi ist in Verzug. Müssten sie noch die Probleme beim CrossFire ausmerzen, hätte das keine guten Konsequenzen.


    Denke nicht, dass ATi bloss mit dem Silicon Image-Chip liebäugelt, der angeblich nur bis 1600 geht. Es wäre imo keine grosse Sache des zu ändern. Nvidia muss ja auch so einen ähnlichen Chip benutzen auf ihren Karten.



    Weiss jemand wie nvidia das meint mit den "Scaling Results"?



    btw HDR: Habt ihr irgend von einem Game gelesen, dass des unterstützen wird, also ich noch nicht.

  • Ich finde ATI irgendwie trotzdem sympathischer.
    Klar. Crossfire ist nicht so der Hammer, aber auf dem Graka-Markt kann sich ja schnell wieder alles ändern und dann kann ATI wieder lachen.


    Edit: Könnt ihr euch noch an den Betrug von NVidia erinnern?

    Don't count your chickens!

    2 Mal editiert, zuletzt von Scharmr ()

  • Zitat

    Original von br@insc@n
    btw HDR: Habt ihr irgend von einem Game gelesen, dass des unterstützen wird, also ich noch nicht.


    Far Cry, oder nicht!? Habs gedacht, bin mir aber nicht mehr so sicher... und wenn ich mich ned irre auch noch Splinter Cell 3..

  • nein, glaube Far Cry I hats auch schon, oder war da "nur" Diplacement Mapping und 64bit im Patch!? Müsste mich schwer täuschen! Es hat ziemlich sicher HDR!

  • Mal interessant solche Sachen zu lesen. Den aufgezeigten Fakten darf man meiner Meinung nach schon Beachtung schenken. Das mit dem Silicon Valley Chip sowie dem Speedverlust am PCI-E bzw. PCI Slot finde ich am interessantetsten.


    Persönlich ist mir Nvidia sympathischer. Egal ob im Grafikkarten oder Mainboard bereich. Ich setzte eigentlich (fast) nur noch auf Nvidia Produkte.
    Bei den Grakas würde ich eher auf eine ATI zurückgreifen als bei den Mainboards. Mal schauen, die nächste Karte wird wahrscheinlich eine von ATI sein.


    Wie hoch überlegen oder unterlegen die Karten sein werden, wird die Zukunft zeigen. Ich persönlich bin gespannt darauf. ;-)

  • also mann kann diverse Games mit dem HDRish "Patch" spielen, unter anderem Far Cry I, DoomIII, Quake II, ... (die, die ich gesehen hab)


    Sei einfach ENORM ressourcenfressend! Sieht aber genau so aus, wie auf dem nVidia-Bild!


    Hier ein Beispiel mit HDRish:
    http://www.forum-3dcenter.org/…?p=3336518&postcount=4143


    ist halt aber noch nicht echtes HDR ;)


    HTPC: Wolfdale E8200 C2D, 256 GM SSD Samsung 840, 4 GB Mushkin HP2-6400, Asus Radeon 6450 low profile, Zalman CNPS7000-Cu, Pio BDC-202 BluRay, Ahanix D.Vine MCE303 low profile

    Homecinema: Sony KDL55W905, Front: Piega 5 Premium, Back: KEF KHT, Onkyo TX-NR 809, Onkyo BD-SP 809
    Workstation: T430s, 16 GB DDR3, 180 GB SSD


    LAV Filters - open source ffmpeg based media splitter and decoders - including the NVIDIA CUVID Hardware decoder
    Advanced MPC-HC Setup Guide

    2 Mal editiert, zuletzt von zbolle ()

  • Zitat

    Original von br@insc@n
    Denke nicht, dass ATi bloss mit dem Silicon Image-Chip liebäugelt, der angeblich nur bis 1600 geht. Es wäre imo keine grosse Sache des zu ändern. Nvidia muss ja auch so einen ähnlichen Chip benutzen auf ihren Karten.


    Wenns keine grosse Sache wäre hätte mans doch schon längstens geändert, oder seh ich das falsch... :rolleyes