gaming pc, passts?

  • Zitat

    Original von Tulpe
    ich würde immernoch vom bequiet auf seasonic wechseln (ich weiss nicht ob die bequiet zuverlässiger geworden sind).
    willst du deinen cpu ocen? dann musst du auf eine K version wechseln, einer hat ja oben geschrieben xeon haben keinen offenen multi.


    Ich denk OC tu ich ned, wenn dann würde ich einen i4770 nehmen aber atm is der xeon schon nice mitm preis.



    Genau die Karte hattest du? Oder einfach 2 von Gigabyte?


    Was ich mich noch Frage, wärs möglich mein Aktuelles Netzeil weiter zu nutzen?


    Aktuelles Netzteil

  • Zitat

    Original von CruSher
    Hatte 2 von diesen Gigabyte Karten mit diesen Kühlern. Beide konnte ich nach ca. 1 Jahr einschicken, da das Kugellager oder Lüfter selbst defekt war :<


    Mach mir keine Angst, hab selbst auch ne Gigabyte, bisher aber ohne Probleme.


    Zitat

    Original von sweatcher
    Ich denk OC tu ich ned, wenn dann würde ich einen i4770 nehmen aber atm is der xeon schon nice mitm preis.


    Wieso nicht den schnellsten i5? Den Cache vom Xeon wirst du beim zocken kaum merken. HT auch kaum, manchmal sogar eher negativ.


    Zitat

    Was ich mich noch Frage, wärs möglich mein Aktuelles Netzeil weiter zu nutzen?


    Aktuelles Netzteil


    Natürlich kannst du das weiter verwenden, wenn du schon so eins hast spricht nichts dagegen.

    Signatur sein ist doof, ich will ein Avatar werden, wenn ich gross bin!

    8 Mal editiert, zuletzt von Mannyac ()

  • Zitat

    Original von sweatcher


    Genau die Karte hattest du? Oder einfach 2 von Gigabyte?


    Ich hatte 2 Generationen von diesen Gigabyte "Windforce" Kühlern Editions. Bei beiden hatte ich nach ziemlich genau nach 1 Jahr Probleme mit den Lüftern.
    1. Windforce: Eingeschickt, Geld bekommen. Neue Windforce (die nächste Generation) gekauft. 2. Windforce eingeschickt, Geld bekommen. Nun habe ich ne andere drin..

    Gaming: AMD Ryzen 5 2600X, MSI B450M, 32GB RAM, Sapphire RX6900XT Nitro+ SE, 4TB SSD, 10TB HDD, Win11, Samsung Odyssey G7 32" 1440p@165Hz
    Server: AMD Ryzen 5 3600, Gigabyte B450M4, Quadro P400, 16Gb RAM, 500GB SSD, Plex Encoder

    Storage: Intel i3 3220T, ASRock Z77 Pro4, 4Gb RAM, 111 TB Storage (Seagate Exos), Plex Storage

    3 Mal editiert, zuletzt von CruSher ()

  • Zitat

    Original von sweatcher
    Naja beim letzten PC war s auch so, zuerst hatte ich nen core 2 duo, 1 jahr später kam gta 4 raus und musste upgraden aufn quad.


    Mit dem Unterschied das hier beide gleichviel Cores haben (nämlich 4). Der Xeon hat aber weniger Takt, dafür mehr Cache und HT. Beim Zocken wird der Xeon den Kürzeren ziehen gegenüber dem i5. Da bringt dir mehr Cache und HT wenig bis gar nichts.


    http://ht4u.net/reviews/2013/i…ell_cpus_test/index42.php


    Zitat

    Intel Core i5 4670K BOX, 3.4GHz, LGA 1150, 4C/4T, unlocked 233.-
    Intel Xeon E3-1230 V3, 3.3GHz, LGA 1150, 4C/8T 262.-


    Zum Vergleichen musst du schon den i5 ohne K nehmen, der ist nochmal etwas günstiger.

    Signatur sein ist doof, ich will ein Avatar werden, wenn ich gross bin!

  • Zitat

    Original von sweatcher
    Naja beim letzten PC war s auch so, zuerst hatte ich nen core 2 duo, 1 jahr später kam gta 4 raus und musste upgraden aufn quad.


    Intel Core i5 4670K BOX, 3.4GHz, LGA 1150, 4C/4T, unlocked 233.-
    Intel Xeon E3-1230 V3, 3.3GHz, LGA 1150, 4C/8T 262.-


    lol das waren noch zeiten :-)
    aber es wäre sinnvoller gewesen damals eine bessere graka statt cpu zu holen, weil mit meinem 8400 e0 (sofern ich mich recht erinnere bei der bezeichnung) @4.5ghz und später 9450 quadcore g0 @4.3ghz lief gta mit dem c2d flüssiger. aber der graka update war die entscheidung dazu von 4.5ghz auf standardtakt runterzugehen (von 8800gtx auf 4770x2)
    was die heutigen cpus angeht:
    ich habe einen 2500k @3ghz und eine gtx680 und zocke alles auf dem höchsten qualitäts einstellungen @1920x1080
    die cpu ist nicht mehr so stark massgebend wie eine gute grafikkarte.

    "Gegen Stimmen im Kopf gibts Medikamente." by 2cool4u 15.03.2011 21:31
    "Bin zur Baustelle gelaufen da in einer Nebenstrasse, ging zum Baggerführer erklärte was ich machen möchte. Dieser fragte was das für eine Karte sei ect.
    Er zückte 250.-SFr und hat mich noch zum Kaffee eingeladen." by Rezzer 17.3.2014 23:10 (ging um eine GTX580)

    5 Mal editiert, zuletzt von Tulpe ()

  • Zitat

    Original von Mannyac


    Wäre da nicht G-Sync, gerade von Nvidia angekündigt worden, würde ich mit dir übereinstimmen ;)


    Zum Ruckelln, Tearing und Lags zu reduzieren wird die Grafikkarte
    besser mit dem Moni syncronisiert. Und geht nur mit einzelnen,
    nicht erhältlichen Asus Bildschirmen.


    Interessiert das echt eine Sau?


    Ruckeln ist ja meist ein Problem zu grober Gameeinstellungen
    oder zu schwacher Hardware, Tearing liegt oft nur am Monitor und
    Lags die mich stören würden wären mir auch in Shootern selten aufgefallen.



    Meiner Meinung nach kaum mit Mantle zu vergleichen....


    Und wie ich gelesen habe, will EA Frostbite 3 an diverse kleine
    Gameschmieden lizensieren. Ist ja ne mächtige Engine und für
    die Kleinen ist es deutlich einfacher und billiger als selbst eine zu bauen.
    Und wenn die Mantle Optimierung durch DICE schon mal vorgenommen
    wurde, müssen es die Anderen kaum mehr machen. :applaus

    Horsepower sells cars, torque wins races!
    Caroll Shelby

    2 Mal editiert, zuletzt von kingalive ()

  • Zitat

    Original von kingalive
    Zum Ruckelln, Tearing und Lags zu reduzieren wird die Grafikkarte
    besser mit dem Moni syncronisiert. Und geht nur mit einzelnen,
    nicht erhältlichen Asus Bildschirmen.


    Interessiert das echt eine Sau?


    Nein, da hast du das Prinzip nicht ganz verstanden.


    Zitat

    Ruckeln ist ja meist ein Problem zu grober Gameeinstellungen
    oder zu schwacher Hardware, Tearing liegt oft nur am Monitor und
    Lags die mich stören würden wären mir auch in Shootern selten aufgefallen.


    Schaltest du Vsync aus, hast du Tearing wenn du über oder unter die Bildwiederholrate vom Monitor fällst. Schaltest du Vsync ein, hast du im Idealfall 60fps, fällt die Wiederholrate darunter, hast du nur noch 30fps (=Ruckeln), könnte die Grafikkarte mehr als 60FPS leisten, muss sie Frames verwerfen, künstlich gebremst werden, was in Inputlag enden kann. TrippleBuffering würde diese Probleme lösen, damit hast du dann aber mindestens 3 Frames Inputlag, was je nach Shooter sehr störend merkbar ist (zB. SourceEnginge, da merkt man es gut.)


    Mit G-Sync hat der Monitor keine feste Framerate mehr, diese wird dynamisch an die FPS angepasst. Das war bisher nicht möglich (VGA, DVI, HDMI können das alles nicht, DisplayPort ist nötig). Sprich, wenn die Karte ein Bild fertig gerendert hat stellt der Monitor das dar und wartet bis das nächste Bild der Grafikakrte kommt. Sprich, kein Ruckeln mehr zwischen 40-60FPS, kein bremsen mehr über 60FPS, kaum mehr Inputlag. Eigentlich die logische Weiterentwicklung.
    Momentan kanns nur der Asus Monitor. Samsung und Philips sollen anscheinend folgen. Noch schöner wäre natürlich was Herstellerübergreifendes wo AMD auch mitmacht. Am besten gleich in den neuen DisplayPort Standard integrieren. Aber alles in allem ist das ein Feature auf welches ich seit Jahren warte.
    Es gibt sicher viele die den Unterschied nicht merken, das sind wahrscheinlich auch die Leute die keine Mikroruckler mit SLI oder Crossfire merkten, denen Tearing nicht auffällt, denen egal ist wenn der TV ein 3:2 Pulldown machen muss weil er kein 24P kann... leider bin ich hinsichtlich solcher Sachen sehr empfindlich.


    Zitat

    Meiner Meinung nach kaum mit Mantle zu vergleichen....


    Ich hoffe selber auch sehr das sich Mantle durchsetzen wird, oder wenigstens MS oder OpenGL soweit unter Druck setzt das sie etwas ähnliches (und damit Herstellerübergreifendes) bieten werden.
    Mit G-Sync ist das nicht vergleichbar, ist ja auch was ganz anderes. Trotzdem ist G-Sync nicht zu unterschätzen, schon gar nicht für den Ambitionierten Shooter-Gamer der bisher immer mit Tearing leben musste.

    Signatur sein ist doof, ich will ein Avatar werden, wenn ich gross bin!