Grafikkarte tauschen

  • Ich hab seit über einem Jahr ne 8800GTS (G80, 320 MByte) im Einsatz.


    Allerdings habe ich vor ca. 1/2 Jahr den Rest der Hardware ausgetauscht und dann auch gleich nen Monster Monitor gekauft (30", 2560x1600).


    Einige ältere Spiele (WoW, Flatou2) kann ich in der nativen Auflösung von 2560x1600 problemlos spielen.


    Bei neuern Spielen (Crysis, UT3, usw.) muss ich allerdings die Auflösung arg zurückschrauben, um noch spielbare Framrates zu erhalten.


    Ich denke das Problem liegt bei den 320 MByte der Graka, der Rest des PCs (Q6600, 4 GByte RAM) sollte reichen um zumindest ohne FSAA usw. zu spielen (was bei der hohen Auflösung auch gar nicht nötig ist).


    Meine Frage; soll ich mir ne 8800GT mit 512 oder 1024 MByte kaufen?
    In der aktuellen PCGHW steht, das 1024 Mbyte zumindest bis 1680x1050 keinen Unterschied ausmacht zu 512 MByte.
    Aber wenn ich auf der nativen Auflösung spiele, hab ich mehr als doppelt soviele Pixel die dargestellt werden müssen.
    (1,7 Mio. Pixel bei 1680x1050, 4 Mio. Pixel bei 2560x1600).


    Die Asus Extreme N8800GT/HTDP/1G - 1024 MB gäbs bei uns im topd grad für 379.- zu kaufen. Bei toppreise zwar schon ab 348.- mit Versand aber scheinbar nirgends lieferbar.


    Ich denke, dass sich der Aufpreis auf 1024 MByte in meinem Fall auszahlt, oder nicht?


    Oder sollte ich gleich in 2 x 8800gt512 investieren? dann müsste aber auch n neues Board das SLI fähig ist her :(

    [Backup Server] Intel i5 3470 (4x3.2GHz), 8GB, 120GB SSD, ~50TB, Lian-Li D8000
    [24/7 Server] Xeon W3670 (6x3.2GHz), 18GB, 2.4TB SSD, 13TB HDDs
    [Gaming 1] Xeon E5-1620 v3, 16GB, 3TB SSD, Geforce 1070 8GB, 27" Acer Predator + 22" + 30"
    [Büro] Medion Erazer X7841 Laptop, i7 6700HQ, 16GB, 2.5TB SSD, Geforce 970M 3GB, 17.3" FHD

    [Oldschool] Asus P2B-B, 466MHz Celeron, 0.5GB SDRAM, geForce 2, 606 GB

    4 Mal editiert, zuletzt von Tobi_Wan ()

  • Naja, in den Tests die ich gefunden habe (zum beispiel den hier ) ist die Graka zum Teil sogar schneller als ne Ultra, einfach sobald extrem viel Videospeicher benötigt wird (Hohe Auflösung, FSAA, AF).
    Deswegen denke ich, ich fahre besser mit ner 8800gt mit 1024 MByte als mit ner 8800GTS (G92) mit 512 MByte.

    [Backup Server] Intel i5 3470 (4x3.2GHz), 8GB, 120GB SSD, ~50TB, Lian-Li D8000
    [24/7 Server] Xeon W3670 (6x3.2GHz), 18GB, 2.4TB SSD, 13TB HDDs
    [Gaming 1] Xeon E5-1620 v3, 16GB, 3TB SSD, Geforce 1070 8GB, 27" Acer Predator + 22" + 30"
    [Büro] Medion Erazer X7841 Laptop, i7 6700HQ, 16GB, 2.5TB SSD, Geforce 970M 3GB, 17.3" FHD

    [Oldschool] Asus P2B-B, 466MHz Celeron, 0.5GB SDRAM, geForce 2, 606 GB

    Einmal editiert, zuletzt von Tobi_Wan ()

  • Dort habe ich schon geschaut, aber da hats noch keinen Test der 1GByte Variante.
    Dort würden sie eben auch bis zu 2560 x 1600 testen was natürlich sehr interessant wäre.
    Aber was man schön sieht, bei Auflösungen um 2560x1600 und 4xAA und 16xAF (Krank!) in UT3, ist sogar ne GTS G80 mit 640 MByte schneller als ne GTS (G92) 512 oder ne GT!


    Hier zu sehen


    Das sagt mir, das bei dieser Auflösung und AF und AA der Videospeicher der Flaschenhals ist, Karten mit 512 MByte und weniger haben gerade mal 3.9fps, wobei die 640er GTS immerhin noch 17fps hat!

    [Backup Server] Intel i5 3470 (4x3.2GHz), 8GB, 120GB SSD, ~50TB, Lian-Li D8000
    [24/7 Server] Xeon W3670 (6x3.2GHz), 18GB, 2.4TB SSD, 13TB HDDs
    [Gaming 1] Xeon E5-1620 v3, 16GB, 3TB SSD, Geforce 1070 8GB, 27" Acer Predator + 22" + 30"
    [Büro] Medion Erazer X7841 Laptop, i7 6700HQ, 16GB, 2.5TB SSD, Geforce 970M 3GB, 17.3" FHD

    [Oldschool] Asus P2B-B, 466MHz Celeron, 0.5GB SDRAM, geForce 2, 606 GB

  • Das liegt aber weniger an der Speichermenge als an der Speicheranbindung. Die GT hat nur eine 256Bit Anbindung, die 640er GTS hat immerhin 384Bit. 1024MB macht imo noch wenig sinn, dann besser ein SLI gespann von 2 512er Karten.

    Signatur sein ist doof, ich will ein Avatar werden, wenn ich gross bin!

  • Naja n SLI Gespann bedeutet für mich grad mal locker 700.- Ausgaben


    Board (160 - 200.-) + 2 Graka (je so 250 - 280.-).


    Das ist mir zuviel.


    Zudem habe ich gelesen, dass bei SLI und Crossfire das Spielen gar ned so genial ist wie man denkt.
    Durch das Verfahren des Abwechselnden rendern eines Bildes kann es durch schlechte Synchronisation zu gefühlten rucklern kommen, auch wenn das Game anhand der FPS absolut flüssig sein solte.
    So hat man zwar wunderschön viele Benchmarkpunkte und viele FPS in den Games, aber manchmal ruckeln die gespürt fast mehr als wenn man nur eine Karte hätte.
    Nvidia hat das jedenfalls bestätigt und auch gesagt dass sie bereits daran arbeiten (Steht in neuster PCGHW).

    [Backup Server] Intel i5 3470 (4x3.2GHz), 8GB, 120GB SSD, ~50TB, Lian-Li D8000
    [24/7 Server] Xeon W3670 (6x3.2GHz), 18GB, 2.4TB SSD, 13TB HDDs
    [Gaming 1] Xeon E5-1620 v3, 16GB, 3TB SSD, Geforce 1070 8GB, 27" Acer Predator + 22" + 30"
    [Büro] Medion Erazer X7841 Laptop, i7 6700HQ, 16GB, 2.5TB SSD, Geforce 970M 3GB, 17.3" FHD

    [Oldschool] Asus P2B-B, 466MHz Celeron, 0.5GB SDRAM, geForce 2, 606 GB

  • Zitat

    Original von Tobi_Wan
    Zudem habe ich gelesen, dass bei SLI und Crossfire das Spielen gar ned so genial ist wie man denkt.
    Durch das Verfahren des Abwechselnden rendern eines Bildes kann es durch schlechte Synchronisation zu gefühlten rucklern kommen, auch wenn das Game anhand der FPS absolut flüssig sein solte.
    So hat man zwar wunderschön viele Benchmarkpunkte und viele FPS in den Games, aber manchmal ruckeln die gespürt fast mehr als wenn man nur eine Karte hätte.
    Nvidia hat das jedenfalls bestätigt und auch gesagt dass sie bereits daran arbeiten (Steht in neuster PCGHW).


    Joa, das wurde von ca. einem jahr von 3dcenter.de entdeckt, schön das mal wer drauf reagiert ;)
    Wobei das eigentlich nur auffällt wenn eine Karte deutlich mehr zu tun hat, sprich irgendwie unter die 45FPS Grenze fällt.

    Signatur sein ist doof, ich will ein Avatar werden, wenn ich gross bin!