ZitatOriginal von MondGsicht
Doppelte Leistung und nur noch ein bisschen rausholen? und das für den Preis?
Ja das stimmt schon, aber eben, schau mal an wie "schelcht" am anfang die ATI drin war..
ZitatOriginal von MondGsicht
Doppelte Leistung und nur noch ein bisschen rausholen? und das für den Preis?
Ja das stimmt schon, aber eben, schau mal an wie "schelcht" am anfang die ATI drin war..
ZitatOriginal von Mannyac
Ja das stimmt schon, aber eben, schau mal an wie "schelcht" am anfang die ATI drin war..
hmm.... finds kein Vergleich. Die Ati war auch auf dem Papier der GF3 nicht besonders stark überlegen, konnte aber von Anfang an bei doch einigen Games diese überholen oder kam zumindest nah an sie heran.
Die Parhelia hingegen loost in jedem Game gegen eine theoretisch weeeit unterlegene GraKa ab.
Die Sache mit dem Preis kommt noch dazu
Ich sehe eher wenig Hoffnung, dass man die Karte ausser für reine AA-Zocker für viel gebrauchen kann. Aber sie können mich gern vom Gegenteil überzeugen, die Leutz von Matrox Ich fänds ja gut....
ZitatOriginal von tornado
Ich sehe eher wenig Hoffnung, dass man die Karte ausser für reine AA-Zocker für viel gebrauchen kann. Aber sie können mich gern vom Gegenteil überzeugen, die Leutz von Matrox Ich fänds ja gut....
Ich denke auch ncith das es extreme Performance Schübe geben wird, aber ein bisschen was liegt sicher noch drin..
öhm, sushi, matrox gibts seit 30jahren... die sind einigese erfahrener als nvidia...
matrox hat die parhelia nie als killerkarte gedacht. höchstens wenns um bildqualität geht... und dort ist sie gut... die erste karte seit der voodoo5 bei der mich das fsaa überzeugt, im sinne von leistungseinbrüchen.
es ist doch tragisch dass nvidia nach 3 generationen noch gleich hohe oder höhere leistungseinbrüche bei fsaa hat wie 3dfx mit der v5, zudem 3dfx das schönste fsaa noch immer hat!
ich denke die parhelia ist gut. mit treiberoptimierungen wird die auch ne ti46 erreichen... nicht überholen, aber erreichen ist möglich!
Ja und nochmal, ich rede nicht von der Erfahrung mit Grafikkarten sondern mit reinen 3D-Beschleunigern à la 3fdx/voodoo/geforce/radeon etc.
im 3dsektor muss man nicht viel anders machen. in einem 3dchip gibts grundsätzlich 2 teile, der 2d und 3d teil. der 3dteil besteht aus einer art mikroprozessor wie einer normalen cpu. der grafikchip hat jedoch nur gewisse operationen die er auch wirklich braucht, ist also risc orientiert. der grafikchip hat eine gewisse anzahl pipelines und textureinheiten die dann die polygone welche aus den pixelpipelines kommen mit farben tapezieren. dabei werden mehrere ebenen übereinander gelegt wie transparenzeffekte, spiegelung, lichtquellen, all dies spielt eine rolle.
die hardwarearchitektur ist nicht neu, auch matrox hatte bereits mit dem g200 oder evnt sogar mit der millenium eine 3dkarte. jedoch sind die probleme die treiber. wenn zb. in ogl eine karte nicht korrekt angesprochen wird, oder über hürden kann das die leistung ins bodenlose treiben, wie man das zb. bei der g400 gesehen hat. das ICD war so beschissen dass die karte am anfang gar nicht richtig lief. was aber niemand weis, die g400 war mit einem richtigen ICD so schnell wie ne tnt2 ultra....
ich denke nvidia kriegt auf den sack. auch mit den neuen gerüchte von wegen nv30 erst nächstes jahr...
und auch nochmal, wo soll matrox weniger erfahrung haben?
Ach lassen wir das, frag dich doch selber warum die matrox langsamer ist als andere Karten, und trotzdem nicht weniger kostet sondern eher mehr.
sorry formaterer aber ich stimme sushi zu.
Nvidia hat den Schwerpunkt schon viel länger auf den 3D Beschleuniger Teil gelegt. Die anderen haben den Schwerpunkt auf den 2D gelegt, was sie auch super hingekriegt haben.
naja, habt ihr die benches richtig angeschaut? sobald mal fsaa zugeschaltet wird ist die parhelia schneller.
ich seh nicht ein wieso sie langsam sein soll. mit 3 monitoren schafft die karte in q3 noch 2/3 ihrer vorherigen leistung ,das ist grandios... wenn ich mal geld für 3 monitore hab werd ich mir so eine kaufen.
zu nvidia:
- schnell
- scheissbildqualität
- heiss
- problembehaftet
darum kauf ich die nicht.
lächerlich find ich vorallem accuview, den grösten teil den dieses AA macht ist blurren. das ist lächerlich
Ja super, da kann ich auch dagegenhalten:
Zur Parhelia:
- 3 Monitor Support, wer brauchts?
- langsam
- teuer
Geforce 4 Karten haben eigentlich ne recht gute Bildqualität, von "scheisse" kann also nicht annähernd die Rede sein. Und warum die problembehaftet sein sollen weiss ich auch nicht. Das wird sich bei der parhelia ja auch erst noch zeigen, ob sie problembehaftet ist oder nicht. quincunx ist scheisse, musst es ja auch nicht benutzen. Dafür gibts praktisch keine Leistungseinbussen.
Hier noch ein Review: http://gamespot.com/gshw/filte…ts/0,12844,561854,00.html
Ein paar Zahlen:
- 20% langsamer in Quake 3 bei 1280 x 1024 als ne Radeon 8500
- 30% langsamer in Quake 3 bei 1280 x 1024 als ne Ti4600
- 18% langsamer als ne Radeon 8500 in 3DMark
- 32% langsamer als ne Ti4600 in 3DMark
Wenn du nvidia nicht magst, dann kauf halt ne ATI. Weiss nicht wieso du die Parhelia so in Schutz nimmst.
wann kommt hier einentliuch die Xabre 400 auf den markt ?
ich versteh nicht wieso du auf ner karte rumhackst die noch nicht mal erhältlich ist.
mit triple head hat die parhelia in q3 max quality 1024 noch 140fps, das find ich enorm.
in jedem bench mit aa ist sie schneller als ne ti4600...
aquanox
ohne aa,
parhelia 36fps
ti4600 72fps
mit aa
perhelia 34fps (!!)
ti4600 30fps
hmm... was heisst das wohl über die treiberqualität? entweder ist die hardware grandios wenn es nur ca 3% verlust mit aa gibt, oder die treiber sind nicht ausgereift.
dungeon siege
ohne aa
parhelia 37fps
ti4600 45fps
mit aa
parhelia 34fps (!!)
ti4600 27fps
sogar in giants, nvidias hochburg schlägt die parhelia die ti4600 mit aa...
max payne liegt die ti4600 ca 4% vorne.
rtcw bei 1280x1024 überhlot die parhelia die ti4600 ebenfalls bei AA.
wenn du halt nvidia versessen bist und nicht einsehen willst dass es auch andere karten gibt, dann ist das ja ok, aber als hardwaretester solltest du versuchen objektiv zu bleiben. oder klar machen dass du es nicht bist.
die parhelia hat ganz klar mehr potenzial. die karte verliert bei aa immer ca 10%, das ist enorm wenig. das deutet auf schlecht treiber hin!
ICH bin parteiisch, aber nicht für die parhelia. persönlich warte ich auf die 3dlabs p10.
ZitatOriginal von DarkLordSilver
wann kommt hier einentliuch die Xabre 400 auf den markt ?
gar nicht geplant. ist nur asienmarkt....
mit ausnahme ein retailer bringt sie nach europa...
ZitatOriginal von pc-formatierer
wenn du halt nvidia versessen bist und nicht einsehen willst dass es auch andere karten gibt, dann ist das ja ok, aber als hardwaretester solltest du versuchen objektiv zu bleiben. oder klar machen dass du es nicht bist.
Komm jetzt schalt mal nen Gang tiefer ja. Ich glaube vielmehr, dass du selber nicht objektiv bist.
Lies das Review bei Gamespot, findest du 7.6 von 10 ne gute Bewertung? Ich bin übrigens immer für die schnellste Hardware, der Hersteller ist mir egal. Ich bin also keineswegs nvidia versessen
hab ja auch geschrieben dass ich nicht objektiv bin. aber nicht pro-parhelia
lies das review bei 3dcenter. und das bei icrontic, dort stehen nämlich die ersten fps werte bei triplehead in q3... 140fps... nicht soooo schlecht...
übrigens scheiss ich auf geschwindigkeit, sorry, aber ich schau auf features wie AA oder AF, viel wichtiger heutzutage...
Ok das klingt ja auch vernünftig. Dann lass mich aber auch auf die Geschwindigkeit geil sein
Ich finde AA zwar geil, aber spielen ohne AA in höheren Auflösungen find ich meistens noch geiler. Und für mich als 3DMarker ist diese Karte ebenfalls keine Alternative. Triple head find ich ja toll, dass die da noch so gut abschneidet. Aber ich sehe einfach nicht den richtigen Anwendungszweck dafür. 3 Monitore kosten auch was, und Platz dafür musst du auch noch zuerst haben. Wo ich mir auch nicht so verdammt sicher wäre, ob das zum gamen nicht mehr verwirrend ist als wirklich geil, aber das müsste man mal ausprobieren. Weil die Monitore stehen ja nicht direkt zusammen, sondern das sind dann so Spalten dazwischen. Sicher etwas, was das menschliche Auge als äusserst merkwürdig auffassen würde. Aber eben, müsste man probieren
Kann mir nicht vorstellen, dass ein Triple Moni Setup beim gamen etwas anderes bringen würde als Verwirrung und Performance Einbussen.
Sehs ja schon bei uns in der Bude (Börsenhandelsplatz). Da sind die Arbeitsstationen der Trader mit 3 18" TFT Screens ausgerüstet. Konzentrierern kannste Dich da immer nur auf ein Bild, auch wenn der Abstand von einen zum nächsten knapp 10 cm ist. Bei denen sieht das dann auch so aus, dass auf einem Screen die verschiedenen Kursticker laufen, auf dem zweiten Newsticker und aufm dritten (oder mittleren) Mailsystem, IE und dergleichen. D.h. das ist dann meist der "Haupt"-Arbeitsscreen.
Für solche Anwendungen finde ich Multimonitoring perfekt, für alles andere Verschwendung.
Ja ich find auch Multiscreen braucht man zum arbeiten. Ich würds sofort machen. Auf dem einen lässt man Outlook und den WM Newsticker laufen und auf dem Anderen programmiert man
hmmm, wenn du die 3 monis nebeneinander stellst, könnte ich mir vorstellen, dass z.B. bei einem Auto-, Motorbootrennen, Flugzeugspiel die Traversen der Fenster sind oder die äusseren Monis die Schieben darstellen, d.h. ich hätte dann 3 Scheiben und in jeder Scheibe läuft das entsprechende bild...
Voraussetzung: 3-Schirm betrieb von Game unterstützt...
abgesehen davon: sinnlos
hmm, flightsimulator unterstützt das schon lange.
quake 3 auch. die haben da mal n video gezeigt, das sah arschgeil aus...