och naja auf der CeBit dieses jahr hab ich schon 700Watt netzteile gesehn.
die müeen sie ja nun aucj loswerden..
auf http://www.ati-news.de sind jetzt die Specs zu dem r420 erschienen und die Preise wurden auch bekannt gegeben
och naja auf der CeBit dieses jahr hab ich schon 700Watt netzteile gesehn.
die müeen sie ja nun aucj loswerden..
auf http://www.ati-news.de sind jetzt die Specs zu dem r420 erschienen und die Preise wurden auch bekannt gegeben
ui, die 9800XT säuft über 100W? wusste ich garnicht. da glaubs die nV 5800 ultra 75W, die nV 5900 ultra knapp unter 70W säuft und die Radeon 9800 pro auch etwa in dieser Grössenordnung, kann ich mir das kaum vorstellen, dass die 9800XT soviel braucht. steht das irgendwo?
ZitatOriginal von Duke
Ja scheiss nVidia!!!
eh, bitte bissl zurückhaltender. Beschimpfungen bringen keinem was. ausserdem wieder mal das Zitat vom weisen killersushi:
ZitatOriginal von killersushi
Die meisten hier waren bis zur Radeon 9700 selber pro-nvidia (inkl. ich), spuckt mal nicht zu grosse Töne als ob ihr schon immer auf ATI gesetzt hättet.
ZitatOriginal von Snipa
ui, die 9800XT säuft über 100W? wusste ich garnicht. da glaubs die nV 5800 ultra 75W, die nV 5900 ultra knapp unter 70W säuft und die Radeon 9800 pro auch etwa in dieser Grössenordnung, kann ich mir das kaum vorstellen, dass die 9800XT soviel braucht. steht das irgendwo?
eh, bitte bissl zurückhaltender. Beschimpfungen bringen keinem was. ausserdem wieder mal das Zitat vom weisen killersushi:
Da zitiere ich lieber das Oracle aus Matrix:
Alles was ein Anfang hat, hat auch ein Ende..
so meine Graka History:
ATi Rage 8 Pro 8MB AGP -> TNT2 Pro 32MB -> GF4 Ti 4200 64MB -> Radeon 9800Pro
Bei mir fällt ganz klar die Wahl auf die Graka die weniger Saft braucht..
und falls die mehr als 1Molex braucht fällt sie sowieso weg..
Ich habe ja jetzt schon keinen mehr frei!
Parhelia 2.. ich warte auf dich
also ich nehme wieder so ein Preis-Leistungs-Hammer wie die 9800Pro für 200€
Ich wünsche es mir natürlich dass es wieder von ATi kommt...
Da nVidia bei mir irgendwie das Vertrauen verloren hat, durch das ganze Optimieren der Treiber... Ich werd so lange keine nVidia Karte mehr kaufen, bis es keine Konkurenz mehr gibt und nVidia vernünftige Treiber bastelt wo ich keine Texturfehler habe. Bei Desert Combat sind die bodentexturen sowas von versaut, man kommt sich vor wie im teletubiland
ZitatOriginal von Shadow
nVidia fordert anscheinend, das man für jeden Stecker eine eigene Schiene verwendet, und das an diesen Stromschienen sonst kein Gerät hängt!
Der Strombedarf von nV40 Karten wird auf klar über 100 Watt geschätzt!
mfg
muss immer wieder lachen wenn ich so quatsch lese...die "schienen" laufen im netzteil alle genau an den gleichen punkt es ist also wirklich absolut scheissegal wo man die geräte anschliesst, wers ned glaubt kann mal das netzteil aufmachen. und die paar ampere die da fliessen machen den querschnitten auchned zu schaffen
übrigens sauft die karte eh so gut wie nie die volle leistung, dazu müssten alle 16 pipes unter vollast laufen, alle extensions in benutzung sein und genügend daten vorhanden um bei jedem takt daten durchzujagen...die angaben sind immer nur "worst-case"-belastungsbezogen...
ausserdem ists mehr als logisch das bei mehr transistoren mehr leistung benötigt wird, das gibt mehr wärme und der rest ist altes brot...
ZitatOriginal von Snipa
eh, bitte bissl zurückhaltender. Beschimpfungen bringen keinem was. ausserdem wieder mal das Zitat vom weisen killersushi:
zum Glück hab ich das ernst gemeint, wenn man den Satz weiter unter lesen kann.......
ZitatOriginal von Duke
Ja scheiss nVidia!!!
Die heutigen CPUs brauchen ja auch so viel strom wie vor 10 Jahren......
Finde es wieder mal lustig wie alle auf nVidia Sinn los rum hacken, wie unfähig die doch sind und usw. Besonders da ATI die ersten wahren mit einer externen Strom versorgung, das hat aber keiner gestöhrt. Sowas kann ich nicht ernst nehmen.....
Die PCI X Karten werden keinen Molex Stecker haben, das haben diverse Hersteller auch bestätigt. An der Cebit war keine einzige PCI X Karte mit externer Strom Versorgung (auch keine 5950 Ultra)
ZitatOriginal von OutOfRange
muss immer wieder lachen wenn ich so quatsch lese...die "schienen" laufen im netzteil alle genau an den gleichen punkt es ist also wirklich absolut scheissegal wo man die geräte anschliesst, wers ned glaubt kann mal das netzteil aufmachen. und die paar ampere die da fliessen machen den querschnitten auchned zu schaffen
übrigens sauft die karte eh so gut wie nie die volle leistung, dazu müssten alle 16 pipes unter vollast laufen, alle extensions in benutzung sein und genügend daten vorhanden um bei jedem takt daten durchzujagen...die angaben sind immer nur "worst-case"-
belastungsbezogen...
ausserdem ists mehr als logisch das bei mehr transistoren mehr leistung benötigt wird, das gibt mehr wärme und der rest ist altes brot...
Schon mal gehört das der Kabel Querschnit die maximale Strom Menge bestimmt? Schon bei 10A werden die Kabel leicht warm.
ZitatOriginal von Duke
Besonders da ATI die ersten wahren mit einer externen Strom versorgung, das hat aber keiner gestöhrt. Sowas kann ich nicht ernst nehmen.....
Voodoo 5500 Karten gabs lang, lang vor der ersten ATI mit eigenem Stromstecker ...
ZitatOriginal von Kaioken
Voodoo 5500 Karten gabs lang, lang vor der ersten ATI mit eigenem Stromstecker ...
das war aber auch eine Dual GPU Karte. Da hats übrigens auch keiner gestöhrt, wie jetzt mit zwei Molex Stecker bei nVidia.
na einer stört mich auch net, aber 2 schon
ZitatOriginal von Duke
Schon mal gehört das der Kabel Querschnit die maximale Strom Menge bestimmt? Schon bei 10A werden die Kabel leicht warm.
Und du glaubst die Litzendrähte kümmern sich um 10A ? die gehen mind. bis 16A, evtl. gibts da ein Problem mit den Steckverbindern welche ev. die Last nicht aushalten können.
ZitatOriginal von OutOfRange
Und du glaubst die Litzendrähte kümmern sich um 10A ? die gehen mind. bis 16A, evtl. gibts da ein Problem mit den Steckverbindern welche ev. die Last nicht aushalten können.
Dazu ein Zitat von au-ja.de:
ZitatAlles anzeigenNVIDIAs NV40 wird stromdurstig aber schnell!
Wie theinquirer.net berichtet, wird NVIDIAs NV40 alles andere als stromsparend arbeiten. Das Referenzdesign für den Grafikchip sieht zwei 12 V-Molex-Stromanschlüsse vor, die laut theinquirer.net aus unterschiedlichen Stromschienen gespeist werden müssen, und an diesen sollte sich kein weiterer Stromabnehmer befinden!
Ein Foto einer solchen Referenz-Karte findet sich bei pcinpact.com, auch Bilder der GPU gibt es hier zu sehen. Sie soll 220 Millionen Transistoren haben, während die NV36 noch mit 82 Millionen auskommen mußte.
Ähnlich hatte sich auch heise.de geäußert:
"Nach den im Netz kursierenden Spekulationen, die aber mittlerweile als relativ sicher gelten, enthält der bei IBM gefertigte NV40 16 Pipelines, die die Shader-Spezifikation 3.0 unterstützen. Die dafür erforderlichen 200 Millionen Transistoren mit einer Strukturgröße von 0,13 µm führen offenbar zu einem neuen Rekord bei der Leistungsaufnahme."
Dort werden die beiden Stromanschlüsse bestätigt und der Strombedarf der Karte auf ca. 100 Watt geschätzt. Damit erreicht der NV40 das Niveau von Intels vielgescholtener Prescott CPU!
Die Frage, ob NVIDIA mit dem NV40 wenigstens ein gutes Performanceniveau erreicht, beantwortet ein Blick auf bodnara.co.kr: 12510 Punkte in 3DMark2003 sind ein sehr gutes Ergebnis! Die Asus Radeon 9800XT, welche den Sieg in unserem aktuellen Grafikkartenroundup davon trug, erreichte gerade einmal 6147 Punkte in dieser Disziplin!
Unser erster Eindruck: NVIDIAs NV40 wird extrem schnell, aber auch sehr stromdurstig! Heutige Netzteile bieten zumeist drei oder vier Schienen mit Molex-Steckern, zwei davon komplett für die Grafikkarte zu reservieren erscheint uns sehr fragwürdig. Zudem werden schwache Netzteile NVIDIAs neuem Überflieger kaum noch gewachsen sein - wer einen Prescott mit der NV40 kombinieren will, ist somit im 500+ Watt-Lager gut aufgehoben.
Aber der Stromverbrauch ist nur die eine Seite des Problems, denn wo viel Strom verbraucht wird, entsteht auch viel Abwärme. Bereits Intels Prescott machte unsere Teststation deutlich lauter und hob die Innentemperatur in ATX-Gehäusen merklich an. Die Kombination mit einer NV40 GPU mag man sich da kaum vorstellen...
liegt wohl eher daran dass die Molexstecker das ned aushalten, mit den Strängen hat das wohl kaum was zu tun
aber was dran wird schon sein.. zumindest ein teil des ganzen sollte wahr sein...
naja auch egal!
freuen wir uns auf die neue graka generation, auch wenn es schwieriger werden dürfte diese passiv oder leise zu kühlen, ich werde mir wohl einen r420 holen und hoffe, dass ich ihn softmodden kann auf ne x800 XT mit 16 Pipelines, dies soll möglicherweise möglich sein...
mfg
hmmm denke meine 9800Pro wird sicherlich nochned ausgetauscht
ZitatAlles anzeigenOriginal von Shadow
aber was dran wird schon sein.. zumindest ein teil des ganzen sollte wahr sein...
naja auch egal!
freuen wir uns auf die neue graka generation, auch wenn es schwieriger werden dürfte diese passiv oder leise zu kühlen, ich werde mir wohl einen r420 holen und hoffe, dass ich ihn softmodden kann auf ne x800 XT mit 16 Pipelines, dies soll möglicherweise möglich sein...
mfg
das mit dem Soft-Mod könnt ihr alle vergessen, die X800 wird nur 128Bit Speicheranbindung haben. Tja ATi lässt sich jetzt net mehr so leicht das Geld aus der Tasche ziehen, in dem man billige Karten auf High-End moddet
ich meine auch mehr einen mod der X800 Pro auf eine X800 XT, erstere soll Ende April erscheinen, zweite im Juni!
mfg
hmm, die quelle kannte ich noch nicht, zumindest nicht in diesen details, da muss ich mir das ganze ja nochmals heftig überlegen!
mfg