Laut Wikipedia:
[1] OEM steht für Original Equipment Manufacturer. (dt.: Hersteller des Originalerzeugnisses)
[1a] Allgemein Industrie: Bezeichnung für Hersteller, deren Erzeugnisse als Baugruppen oder Komponenten in Geräte anderer Hersteller eingebaut und vermarktet werden.
[1b] Computerindustrie: Im Computerbereich steht diese Bezeichnung für Hardware- oder Softwarehersteller, die lizensierte Produkte dritter Hersteller unter eigenem Namen mit ihren eigenen Produkten gebündelt vermarkten. OEM-Software ist meistens an den Kauf bestimmter Hardware des OEM-Lizennehmers gebunden.
R600
-
-
Jetzt wartens doch erst mal die defintive Produktevorstellung ab, dann wisst ihr wirklich was Sache ist...
-
Also wenn die ATI Karten wirklich so auf den Markt kommen wie Sie beschrieben werden muss man sich echt an den Kopf langen.
Einfach mal alles aufs PCB was geht und dann Saft drauf bis zum abwinken kann nicht das Ziel sein.
Wenn das so weitergeht haben wir in 5 Jahren 1kW Grakas.Nene, so nicht ATI.
Man sollte neben Benchmarks und Kosten pro FPS auch einen neue Bewertung "Leistung Pro Watt angeben".Sie sollten sich mal überlegen etwas an der Architektur zu arbeiten damit der Chip trotz hoher Performance wenig Stromverbrauch hat.
Genau wie bei den CPUs, dort ist man schon lange darauf gekommen das pure MHz und Wattleistung nichts bringt.
Das hat sogar Intel mit ihren 4GHz Boliden eingesehen und man sieht was es gebracht hat; verdammt viel Leistung die grad mal so 60W braucht.
Da hat n Thunderbrid mit 1.4GHz fast das doppelte gebraucht (das waren noch Zeiten) und war fast nur einen Bruchteil so schnell.Schon alleine die Server in den USA verbrauchen 45 TWh (45 Milliarden Kilowattstunden!) Strom pro Jahr (mit Kühlung, netzwerk usw).
Wenn jetzt auch die Heim PCs schon langsam an der 1kW Grenze nagen fragt man sich wo das enden soll.Ich finde ATI hat versagt (sofern sich an den Angaben zum R600 nichts ändert).
Die sollen besser mal dual core grakas entwickeln und am stromverbrauch schrauben.
Ich meine; wenn man 2 von den fettesten im Crossfire Betrieb laufen lässt
brauchen die schon 540W...wtf?Der Büropc hier (Core 2 Duo 6400, 2GB RAM, x300 oder x550 ka, 2 HDs),
braucht momentan gerade mal ca. 80W Wenn das Wattmeter des NTs (Coolermaster ;), jo, ich durfte den PC zusammenstellen ^^) stimmt.
Und das Trotzdem Vista als Hostsystem läuft und ich auf ner VM mit win 2k arbeite und noch google Earth usw. offen ist.Ich denke ATI stand unter Zeitdruck wegen der geforce 8 und haben deswegen "einfach mal was rausgebracht" egal obs jetzt optimiert ist oder ned.
Nehmen wir an ein Zocker hat 2 * R600 im Crossfire und spielt dann natürlich auch demenstsprechend viel.
D.h. bei ca. 30h Gamen pro Woche (das kommt bei eingen schon hin)
sind das 16.2 kWh pro WocheBei 25 Rp. pro kWh also 4 Fr. pro woche, kling jetzt ned viel aber das sind dann schon über 200.- im Jahr nur für den Strom für die Grakas...
Naja, einer der sich 2 solche teile leisten kann kratzt das wenig, aber ist dennoch ökologisch absolut idiotisch, 0.8 MWh/Jahr nur für die grafikleistung in nem PC..... und nein, ich bin kein Grüner
-
Vor allem, wenn man bedenkt, dass spätestens, wenn die ersten CH-AKW's abgeschaltet sowie die Verträge mit Frankreich für Importstrom auslaufen, eine derbe Stromlücke entstehen wird (Quelle: FACTS)
Dann wirds nicht mehr drum gehen, dass der Strom teuer ist, sondern schlicht und ergreifend nicht vorhanden sein wird.
Mehrleistung wird im Moment zu teuer erkauft, da muss Ingenieurtechnisch noch viel mehr gehen.
-
Zitat
Original von Kangaroo
Dann wirds nicht mehr drum gehen, dass der Strom teuer ist, sondern schlicht und ergreifend nicht vorhanden sein wird.
Vergiss es, so weit wirds nicht kommen. Da wird vorher was weiss ich für ein Kraftwerk gebaut oder sonst importiert. In der Schweiz sind wir in der Hinsicht ja sowieso in ner relativ guten Lage. Dass es teurer wird, kann sein...Aber natürlich unterstütze ich die Entwicklung von sparmsamen Komponenten voll und ganz. Das hat nur Vorteile, und definitiv nicht nur ökologische.
-
Zitat
Original von Tobi_Wan
Der Büropc hier (Core 2 Duo 6400, 2GB RAM, x300 oder x550 ka, 2 HDs),
braucht momentan gerade mal ca. 80W Wenn das Wattmeter des NTs (Coolermaster ;),Unmöglich ausmessung!!
C2D @1,7V@Vapochil
8800GTX
600W NT+1HD etc etcUnter Last = knapp 600Watt
Idle zwischen 480 und 550Wattkurz erwähnt
-
Und was genau soll das zeigen Dogi? Da ist nichts, aber auch gar nichts vergleichbar
Ok, 80W sind vielleicht etwas knapp, aber um die 100W ist sicher möglich. Kannst ja mal rechnen:C2D in idle -> 20W
GraKa in idle -> 20W
Zugemüse auf MoBo, HD -> 20W
Wandlerverluste auf MoBo (geschätzt 80% Wirkungsgrad) ->75W
Wandlerverluste im NT (Wirkungsgrad typisch 70%) -> 105WUnd das ist nicht zu knapp berechnet, eher ein wenig grosszügig. Wenn Reviewer testen erreichen sie mit kompletten Systemen der unteren Leistungsklasse auch um 90-100W idle.
Wie soll sonst ein Laptop mit um die 30W inkl. Display auskommen? -
STIMMT -->> (:keksanmich)!
Meine Augen sahen 800Watt
SRY -
http://www.computerbase.de/new…d_grafikkarten_crossfire/
Bin gespannt auf die Lasso-Stromversorgung.
-
Zitat
Original von Enis
Hmm, werd mir wohl ne neue R600 kaufen wenn ich von der RS zurück komme. Bis da sollte ja auch der Refresh-Chip draussen sein...
Hehe irgendwie hat da einer immer die gleichen Ideen beim GraKa Kauf wie ich was.
Angeblich soll ein neues, stromsparenderes Stepping ja sogar schon fertig sein, aber einfach in der Schublade warten und im Herbst als Refresh kommen, mal schauen.Eigentlich reizt mich zwar im Herbst eine Konsole mit neuem GTA4 viel mehr zurzeit, für PC seh ich irgendwie die Supergames noch nicht so, die eine neue Karte rechtfertigen würden, aber ist ja noch Zeit.
Nur der Stromfresseraufschrei durch alle Foren ist schon sehr komisch, klingt immer als ob Nvidia ein Stromsparmodell gebracht hätte, auf etwas mehr oder weniger kommts in den irren Dimension gar nicht mehr an.
Und kaufen werden sie doch alle.. -
Zitat
Original von Holdrio
Nur der Stromfresseraufschrei durch alle Foren ist schon sehr komisch, klingt immer als ob Nvidia ein Stromsparmodell gebracht hätte, auf etwas mehr oder weniger kommts in den irren Dimension gar nicht mehr an.
Und kaufen werden sie doch alle..njo... ich hab seit meiner TNT2 Pro nur ATI Grakas gekauft. Das wird sich aber ändern, wenn die so viel Strom verbrauchen.. hab kein Bock auf ein Heizkraftwerk, meine jetzige PC Konfiguration verbrät schon genug. Dann hab ich noch n 24" CRT, der im Video Modus auch gut etwas über 100Watt verbrät...
-
Und wieviel Strom frisst die 8800GTX denn eigentlich? Soweit ich den Bildern entnehmen kann, hat die auch 2 PCIe Stromstecker, das wären schon 2x75W plus die 75W die sie direkt aus dem PCIe Slot saugen dürfen. Also müsste der Verbrauch auch über 150W sein oder wieso haben Sie der Karte 2 PCIe Stromstecker gegönnt?
-
Das allgemeine ATI Problem,Viel Strom=Viel Abwärme=Prod.Probleme und Laute Lüfter
Wieso 2xPCI-E? Sieht gut aus und es braucht wieder neue Netzteile etc.
Geld muss ja verdient und ausgegeben werden -
Zitat
Original von dogimann
Das allgemeine ATI Problem,Viel Strom=Viel Abwärme=Prod.Probleme und Laute Lüfter
Vor noch gar nicht so langer Zeit war das eher das nVidia-Problem -
-
Zitat
wollte ich auch grad schreiben, wie aktuell das Board hier ist erstaunt mich immer wieder
Naja, sollen die den nur verschieben, derweil werkelt nvidia an seinen low cost g8x und hat sicher schon ein entwicklerteam das am nachfolger forscht.
AMD hätte sich besser Nvidia gekauft
AMD hat Probleme gegen den Core 2 Duo
ATI hat probleme gegen den g80
keine gute Kombination...Naja, mal schauen was DAAMIT (um the Inquirer zu zitieren) dieses jahr so gegen Nvidia und Intel machen kann.
Momentan geht kein Weg an nem Core 2 Duo oder ner Geforce 8 vorbei wenn man was gutes zu nem vernüftigen Preis will.
Und bis AMD mal den Core 2 Duo schlagen kann, ist Intel schon mit seinen bezahlbaren Quad Cores am Markt.
-
erinnert mich irgendwie an die X1800er, kaum war die draussen, wurde sie von der X1900er nochmals ordentlich überboten (leistungsmässig)...
-
Zitat
Original von Tobi_Wan
Naja, sollen die den nur verschieben, derweil werkelt nvidia an seinen low cost g8x und hat sicher schon ein entwicklerteam das am nachfolger forscht.
Hm, ATI wird auch schon am R700 werkeln, der R600 hat das Tape-Out AFAIR schon hinter sich. Und wieso sollte man schon was neues bauen wenn sich das alte noch gut verkauft? (und auch noch lange bessere Bildquali und Performance bringt als die Konkurenz in diesem Bereich)ZitatAMD hat Probleme gegen den Core 2 Duo
Naja, Probleme sind etwas anderes. Intel hatte aus dieser Sicht auch einige Jahre Probleme mit dem Athlon 64, trotzdem wurden sie gut verkauft. Und im Serverbereich, sobald du über 2 Cores hinaus gehst hast du mit AMD nach wie vor die bessere Lösung, weil er da Leistungmässig einfach viel besser skaliert. Intels neuer Xeon sollte da auch besser werden sobald jeder Core seinen eigenen FSB hat. Momentan ist das aber nicht so.ZitatATI hat probleme gegen den g80
Wieso sollten sie Probleme haben? Ich glaube die X1950 wird so gut verkauft wie selten mal weil einfach die Preis/Leistung stimmt. G80 ist ein absolutes High-End Produkt, das macht einen verschmerzbar kleinen Teil des Marktes aus. Wenn sie da jetzt ein halbes Jahr nicht mitmischen können tut das nicht gross weh. Ich denke der R600 wird den G80 schon heftig überflügeln weil er auch einiges später kommt. Und heftig verkaufen tut er sich am Anfang trotzdem nicht, der Hig-End Markt ist einfach zu klein. Ausserdem, vielleciht werkeln Sie auch noch einfach an einem funktionierenden DX10 Treiber, damit Sie schon zum Launch sowas am Start haben.ZitatUnd bis AMD mal den Core 2 Duo schlagen kann, ist Intel schon mit seinen bezahlbaren Quad Cores am Markt.
So ein schmarrn. AMD wird mit dem K8L Core auch nachziehen. Ob der dann an den Core2Duo rankommt wage ich zwar zu bezweifeln (weil Intel halt wirlkich ein gutes Stück Hardware mit dem Pentium 3.. ääääh dem Core2Duo erschaffen hat), aber sie werden sich wieder ein gutes Stück holen. Und eben, betreffend dem Servermarkt kannst du ja weiter oben noch etwas erfahren.Du denkst einfach etwas zu eng. Es gibt nicht nur die ober1337-pro-gamer-krass-overclocker. Dieser Markt ist viel kleiner als der Rest.
-
Ich dachte immer: "Um so länger, um so besser..."
-
Zitat
Original von Mannyac
...wieso sollte man schon was neues bauen wenn sich das alte noch gut verkauft? (und auch noch lange bessere Bildquali und Performance bringt als die Konkurenz in diesem Bereich)
Wie ist das zu verstehen? In jedem Review lese ich, dass der G80 eine überragende Abbildungsqualität hat! Ist die einfach im Vergleich zur 7900-Serie derart viel besser, ATI aber imer noch besser?
Ich frage das, weil für mich momentan (in den nächsten paar tagen!) effektive die Entscheidung 8800GTS-320 vs. X1950XT (evtl. XTX occ.) ansteht - da die R600 ja noch lange nicht kommt, wird der Preissturz bei den jetzigen Top-Modellen eh auf sich warten lassen.Zitat
...die X1950 wird so gut verkauft wie selten mal weil einfach die Preis/Leistung stimmt. G80 ist ein absolutes High-End Produkt, das macht einen verschmerzbar kleinen Teil des Marktes aus.
Preis/Leistung? Die ist doch beim G80, insbesondere 8800GTS-320 massiv besser! Die Karte ist doch ein Schnäppchen, hat bereits bei Standardtakt 10-20% (z.T. bis 50%!) mehr Leistung als die ATI-Topkarte (übertaktet sieht's dann noch viel krasser aus!) und lässt sich im Gegensatz zu den ATI's (die X1950XTX ist absolut ab obersten Limit, die verträgt ja wenn's hoch kommt 20-40MHz auf der GPU und auf den RAM, das ist ja vernachlässigbar) auf 8800GTX-Takte und z.T. weit darüber übertakten!