• Laut Wikipedia:
    [1] OEM steht für Original Equipment Manufacturer. (dt.: Hersteller des Originalerzeugnisses)
    [1a] Allgemein Industrie: Bezeichnung für Hersteller, deren Erzeugnisse als Baugruppen oder Komponenten in Geräte anderer Hersteller eingebaut und vermarktet werden.
    [1b] Computerindustrie: Im Computerbereich steht diese Bezeichnung für Hardware- oder Softwarehersteller, die lizensierte Produkte dritter Hersteller unter eigenem Namen mit ihren eigenen Produkten gebündelt vermarkten. OEM-Software ist meistens an den Kauf bestimmter Hardware des OEM-Lizennehmers gebunden.

    Game-PC: i7 7600K, 16GB, GTX 1080, 960GB SSD, HP Omen X 35

  • Jetzt wartens doch erst mal die defintive Produktevorstellung ab, dann wisst ihr wirklich was Sache ist...

    "It really is as useful as a snooze button on a smoke alarm" Jeremy Clarkson


    "Wennsd den Baum siehst, in den du rein fährst, hast untersteuern. Wennsd ihn nur hörst, hast übersteuern" Walter Röhrl

  • Also wenn die ATI Karten wirklich so auf den Markt kommen wie Sie beschrieben werden muss man sich echt an den Kopf langen.
    Einfach mal alles aufs PCB was geht und dann Saft drauf bis zum abwinken kann nicht das Ziel sein.
    Wenn das so weitergeht haben wir in 5 Jahren 1kW Grakas.


    Nene, so nicht ATI.
    Man sollte neben Benchmarks und Kosten pro FPS auch einen neue Bewertung "Leistung Pro Watt angeben".


    Sie sollten sich mal überlegen etwas an der Architektur zu arbeiten damit der Chip trotz hoher Performance wenig Stromverbrauch hat.


    Genau wie bei den CPUs, dort ist man schon lange darauf gekommen das pure MHz und Wattleistung nichts bringt.
    Das hat sogar Intel mit ihren 4GHz Boliden eingesehen und man sieht was es gebracht hat; verdammt viel Leistung die grad mal so 60W braucht.
    Da hat n Thunderbrid mit 1.4GHz fast das doppelte gebraucht (das waren noch Zeiten) und war fast nur einen Bruchteil so schnell.


    Schon alleine die Server in den USA verbrauchen 45 TWh (45 Milliarden Kilowattstunden!) Strom pro Jahr (mit Kühlung, netzwerk usw).
    Wenn jetzt auch die Heim PCs schon langsam an der 1kW Grenze nagen fragt man sich wo das enden soll.



    Ich finde ATI hat versagt (sofern sich an den Angaben zum R600 nichts ändert).
    Die sollen besser mal dual core grakas entwickeln und am stromverbrauch schrauben.
    Ich meine; wenn man 2 von den fettesten im Crossfire Betrieb laufen lässt
    brauchen die schon 540W...wtf?



    Der Büropc hier (Core 2 Duo 6400, 2GB RAM, x300 oder x550 ka, 2 HDs),
    braucht momentan gerade mal ca. 80W Wenn das Wattmeter des NTs (Coolermaster ;), jo, ich durfte den PC zusammenstellen ^^) stimmt.
    Und das Trotzdem Vista als Hostsystem läuft und ich auf ner VM mit win 2k arbeite und noch google Earth usw. offen ist.



    Ich denke ATI stand unter Zeitdruck wegen der geforce 8 und haben deswegen "einfach mal was rausgebracht" egal obs jetzt optimiert ist oder ned.


    Nehmen wir an ein Zocker hat 2 * R600 im Crossfire und spielt dann natürlich auch demenstsprechend viel.
    D.h. bei ca. 30h Gamen pro Woche (das kommt bei eingen schon hin)
    sind das 16.2 kWh pro Woche


    Bei 25 Rp. pro kWh also 4 Fr. pro woche, kling jetzt ned viel aber das sind dann schon über 200.- im Jahr nur für den Strom für die Grakas...
    Naja, einer der sich 2 solche teile leisten kann kratzt das wenig, aber ist dennoch ökologisch absolut idiotisch, 0.8 MWh/Jahr nur für die grafikleistung in nem PC...


    .. und nein, ich bin kein Grüner

    [Backup Server] Intel i5 3470 (4x3.2GHz), 8GB, 120GB SSD, ~50TB, Lian-Li D8000
    [24/7 Server] Xeon W3670 (6x3.2GHz), 18GB, 2.4TB SSD, 13TB HDDs
    [Gaming 1] Xeon E5-1620 v3, 16GB, 3TB SSD, Geforce 1070 8GB, 27" Acer Predator + 22" + 30"
    [Büro] Medion Erazer X7841 Laptop, i7 6700HQ, 16GB, 2.5TB SSD, Geforce 970M 3GB, 17.3" FHD

    [Oldschool] Asus P2B-B, 466MHz Celeron, 0.5GB SDRAM, geForce 2, 606 GB

    14 Mal editiert, zuletzt von Tobi_Wan ()

  • Vor allem, wenn man bedenkt, dass spätestens, wenn die ersten CH-AKW's abgeschaltet sowie die Verträge mit Frankreich für Importstrom auslaufen, eine derbe Stromlücke entstehen wird (Quelle: FACTS)


    Dann wirds nicht mehr drum gehen, dass der Strom teuer ist, sondern schlicht und ergreifend nicht vorhanden sein wird.


    Mehrleistung wird im Moment zu teuer erkauft, da muss Ingenieurtechnisch noch viel mehr gehen.

    Init7-Empfehlungscode: 23368766186

  • Zitat

    Original von Kangaroo
    Dann wirds nicht mehr drum gehen, dass der Strom teuer ist, sondern schlicht und ergreifend nicht vorhanden sein wird.


    Vergiss es, so weit wirds nicht kommen. Da wird vorher was weiss ich für ein Kraftwerk gebaut oder sonst importiert. In der Schweiz sind wir in der Hinsicht ja sowieso in ner relativ guten Lage. Dass es teurer wird, kann sein...


    Aber natürlich unterstütze ich die Entwicklung von sparmsamen Komponenten voll und ganz. Das hat nur Vorteile, und definitiv nicht nur ökologische.

    "It really is as useful as a snooze button on a smoke alarm" Jeremy Clarkson


    "Wennsd den Baum siehst, in den du rein fährst, hast untersteuern. Wennsd ihn nur hörst, hast übersteuern" Walter Röhrl

    Einmal editiert, zuletzt von tornado ()

  • Zitat

    Original von Tobi_Wan
    Der Büropc hier (Core 2 Duo 6400, 2GB RAM, x300 oder x550 ka, 2 HDs),
    braucht momentan gerade mal ca. 80W Wenn das Wattmeter des NTs (Coolermaster ;),



    Unmöglich ausmessung!!


    C2D @1,7V@Vapochil
    8800GTX
    600W NT+1HD etc etc


    Unter Last = knapp 600Watt
    Idle zwischen 480 und 550Watt


    kurz erwähnt ;)

    Nur noch am HP Läppi unterwegs :gruebel
    Streite Dich niemals mit einem Idioten, denn damit läßt Du Dich auf sein Niveau herab und dort schlägt er Dich mit seiner Erfahrung!

  • Und was genau soll das zeigen Dogi? Da ist nichts, aber auch gar nichts vergleichbar :skull
    Ok, 80W sind vielleicht etwas knapp, aber um die 100W ist sicher möglich. Kannst ja mal rechnen:


    C2D in idle -> 20W
    GraKa in idle -> 20W
    Zugemüse auf MoBo, HD -> 20W
    Wandlerverluste auf MoBo (geschätzt 80% Wirkungsgrad) ->75W
    Wandlerverluste im NT (Wirkungsgrad typisch 70%) -> 105W


    Und das ist nicht zu knapp berechnet, eher ein wenig grosszügig. Wenn Reviewer testen erreichen sie mit kompletten Systemen der unteren Leistungsklasse auch um 90-100W idle.
    Wie soll sonst ein Laptop mit um die 30W inkl. Display auskommen? :D

    "It really is as useful as a snooze button on a smoke alarm" Jeremy Clarkson


    "Wennsd den Baum siehst, in den du rein fährst, hast untersteuern. Wennsd ihn nur hörst, hast übersteuern" Walter Röhrl

  • STIMMT -->> (:keksanmich)!


    Meine Augen sahen 800Watt :stupid
    SRY

    Nur noch am HP Läppi unterwegs :gruebel
    Streite Dich niemals mit einem Idioten, denn damit läßt Du Dich auf sein Niveau herab und dort schlägt er Dich mit seiner Erfahrung!

  • Zitat

    Original von Enis


    Hmm, werd mir wohl ne neue R600 kaufen wenn ich von der RS zurück komme. Bis da sollte ja auch der Refresh-Chip draussen sein...


    Hehe irgendwie hat da einer immer die gleichen Ideen beim GraKa Kauf wie ich was. :D
    Angeblich soll ein neues, stromsparenderes Stepping ja sogar schon fertig sein, aber einfach in der Schublade warten und im Herbst als Refresh kommen, mal schauen.


    Eigentlich reizt mich zwar im Herbst eine Konsole mit neuem GTA4 viel mehr zurzeit, für PC seh ich irgendwie die Supergames noch nicht so, die eine neue Karte rechtfertigen würden, aber ist ja noch Zeit.


    Nur der Stromfresseraufschrei durch alle Foren ist schon sehr komisch, klingt immer als ob Nvidia ein Stromsparmodell gebracht hätte, auf etwas mehr oder weniger kommts in den irren Dimension gar nicht mehr an.
    Und kaufen werden sie doch alle..

    [COLOR="Navy"]Asus Maximus II / Q9450 [COLOR="Blue"]-> IFX-14[/COLOR] / 2x2GB Corsair 6400C4 / 8800 GTS 512MB [COLOR="Blue"]-> HR-03GT[/COLOR] / X-Fi Titanium
    Lian Li PC-7077B / Corsair HX520W / 3 X Samsung F1 640 GB (AHCI) [/COLOR]

  • Zitat

    Original von Holdrio
    Nur der Stromfresseraufschrei durch alle Foren ist schon sehr komisch, klingt immer als ob Nvidia ein Stromsparmodell gebracht hätte, auf etwas mehr oder weniger kommts in den irren Dimension gar nicht mehr an.
    Und kaufen werden sie doch alle..


    njo... ich hab seit meiner TNT2 Pro nur ATI Grakas gekauft. Das wird sich aber ändern, wenn die so viel Strom verbrauchen.. hab kein Bock auf ein Heizkraftwerk, meine jetzige PC Konfiguration verbrät schon genug. Dann hab ich noch n 24" CRT, der im Video Modus auch gut etwas über 100Watt verbrät...

    Marktplatz Bewertung
    Kiste 1: Sloti 800 TB
    Kiste 2: DLT3C @ 2.6GhZ
    ...
    Kiste 7 & Kiste 8: PhII 720BE, 8GB ram. 1x mit X25-m II 80GB & 4870, 1x mit indilinx MLC 32GB

    [SIZE=7]Dieser Beitrag, inkl. vorhandenen Anhängen, ist ungeschützt und könnte während der Übermittlung oder nachträglich von 3. verändert werden. Der Absender schliesst deshalb jede Haftung oder rechtliche Verbindlichkeit für elektronisch versandte Nachrichten aus. Weiter ist der Inhalt des Postings frei erfunden, eventuelle Annäherungen an die Realität sind höchstens unbeabsichtigt und zufällig entstanden. Zu all meinen PCs haben mehrere Leute Zugang und nutzen diesen auch.[/SIZE]

  • Und wieviel Strom frisst die 8800GTX denn eigentlich? Soweit ich den Bildern entnehmen kann, hat die auch 2 PCIe Stromstecker, das wären schon 2x75W plus die 75W die sie direkt aus dem PCIe Slot saugen dürfen. Also müsste der Verbrauch auch über 150W sein oder wieso haben Sie der Karte 2 PCIe Stromstecker gegönnt?

    Signatur sein ist doof, ich will ein Avatar werden, wenn ich gross bin!

    Einmal editiert, zuletzt von Mannyac ()

  • Das allgemeine ATI Problem,Viel Strom=Viel Abwärme=Prod.Probleme und Laute Lüfter =)


    Wieso 2xPCI-E? Sieht gut aus :gap und es braucht wieder neue Netzteile etc.
    Geld muss ja verdient und ausgegeben werden

    Nur noch am HP Läppi unterwegs :gruebel
    Streite Dich niemals mit einem Idioten, denn damit läßt Du Dich auf sein Niveau herab und dort schlägt er Dich mit seiner Erfahrung!

  • Zitat

    Original von dogimann
    Das allgemeine ATI Problem,Viel Strom=Viel Abwärme=Prod.Probleme und Laute Lüfter =)


    Vor noch gar nicht so langer Zeit war das eher das nVidia-Problem ;)

    "It really is as useful as a snooze button on a smoke alarm" Jeremy Clarkson


    "Wennsd den Baum siehst, in den du rein fährst, hast untersteuern. Wennsd ihn nur hörst, hast übersteuern" Walter Röhrl

  • Zitat

    Original von Odin
    R600 erneut verschoben:


    http://de.theinquirer.net/2007…00_erneut_verschoben.html


    wollte ich auch grad schreiben, wie aktuell das Board hier ist erstaunt mich immer wieder ;)


    Naja, sollen die den nur verschieben, derweil werkelt nvidia an seinen low cost g8x und hat sicher schon ein entwicklerteam das am nachfolger forscht.


    AMD hätte sich besser Nvidia gekauft ;)


    AMD hat Probleme gegen den Core 2 Duo
    ATI hat probleme gegen den g80
    keine gute Kombination...


    Naja, mal schauen was DAAMIT (um the Inquirer zu zitieren) dieses jahr so gegen Nvidia und Intel machen kann.


    Momentan geht kein Weg an nem Core 2 Duo oder ner Geforce 8 vorbei wenn man was gutes zu nem vernüftigen Preis will.


    Und bis AMD mal den Core 2 Duo schlagen kann, ist Intel schon mit seinen bezahlbaren Quad Cores am Markt.

    [Backup Server] Intel i5 3470 (4x3.2GHz), 8GB, 120GB SSD, ~50TB, Lian-Li D8000
    [24/7 Server] Xeon W3670 (6x3.2GHz), 18GB, 2.4TB SSD, 13TB HDDs
    [Gaming 1] Xeon E5-1620 v3, 16GB, 3TB SSD, Geforce 1070 8GB, 27" Acer Predator + 22" + 30"
    [Büro] Medion Erazer X7841 Laptop, i7 6700HQ, 16GB, 2.5TB SSD, Geforce 970M 3GB, 17.3" FHD

    [Oldschool] Asus P2B-B, 466MHz Celeron, 0.5GB SDRAM, geForce 2, 606 GB

    2 Mal editiert, zuletzt von Tobi_Wan ()

  • Zitat

    Original von Tobi_Wan
    Naja, sollen die den nur verschieben, derweil werkelt nvidia an seinen low cost g8x und hat sicher schon ein entwicklerteam das am nachfolger forscht.


    Hm, ATI wird auch schon am R700 werkeln, der R600 hat das Tape-Out AFAIR schon hinter sich. Und wieso sollte man schon was neues bauen wenn sich das alte noch gut verkauft? (und auch noch lange bessere Bildquali und Performance bringt als die Konkurenz in diesem Bereich)


    Zitat

    AMD hat Probleme gegen den Core 2 Duo


    Naja, Probleme sind etwas anderes. Intel hatte aus dieser Sicht auch einige Jahre Probleme mit dem Athlon 64, trotzdem wurden sie gut verkauft. Und im Serverbereich, sobald du über 2 Cores hinaus gehst hast du mit AMD nach wie vor die bessere Lösung, weil er da Leistungmässig einfach viel besser skaliert. Intels neuer Xeon sollte da auch besser werden sobald jeder Core seinen eigenen FSB hat. Momentan ist das aber nicht so.


    Zitat

    ATI hat probleme gegen den g80


    Wieso sollten sie Probleme haben? Ich glaube die X1950 wird so gut verkauft wie selten mal weil einfach die Preis/Leistung stimmt. G80 ist ein absolutes High-End Produkt, das macht einen verschmerzbar kleinen Teil des Marktes aus. Wenn sie da jetzt ein halbes Jahr nicht mitmischen können tut das nicht gross weh. Ich denke der R600 wird den G80 schon heftig überflügeln weil er auch einiges später kommt. Und heftig verkaufen tut er sich am Anfang trotzdem nicht, der Hig-End Markt ist einfach zu klein. Ausserdem, vielleciht werkeln Sie auch noch einfach an einem funktionierenden DX10 Treiber, damit Sie schon zum Launch sowas am Start haben.


    Zitat

    Und bis AMD mal den Core 2 Duo schlagen kann, ist Intel schon mit seinen bezahlbaren Quad Cores am Markt.


    So ein schmarrn. AMD wird mit dem K8L Core auch nachziehen. Ob der dann an den Core2Duo rankommt wage ich zwar zu bezweifeln (weil Intel halt wirlkich ein gutes Stück Hardware mit dem Pentium 3.. ääääh dem Core2Duo erschaffen hat), aber sie werden sich wieder ein gutes Stück holen. Und eben, betreffend dem Servermarkt kannst du ja weiter oben noch etwas erfahren.


    Du denkst einfach etwas zu eng. Es gibt nicht nur die ober1337-pro-gamer-krass-overclocker. Dieser Markt ist viel kleiner als der Rest.

    Signatur sein ist doof, ich will ein Avatar werden, wenn ich gross bin!

    4 Mal editiert, zuletzt von Mannyac ()

  • Zitat

    Original von Mannyac
    ...wieso sollte man schon was neues bauen wenn sich das alte noch gut verkauft? (und auch noch lange bessere Bildquali und Performance bringt als die Konkurenz in diesem Bereich)


    Wie ist das zu verstehen? In jedem Review lese ich, dass der G80 eine überragende Abbildungsqualität hat! Ist die einfach im Vergleich zur 7900-Serie derart viel besser, ATI aber imer noch besser?
    Ich frage das, weil für mich momentan (in den nächsten paar tagen!) effektive die Entscheidung 8800GTS-320 vs. X1950XT (evtl. XTX occ.) ansteht - da die R600 ja noch lange nicht kommt, wird der Preissturz bei den jetzigen Top-Modellen eh auf sich warten lassen.


    Zitat


    ...die X1950 wird so gut verkauft wie selten mal weil einfach die Preis/Leistung stimmt. G80 ist ein absolutes High-End Produkt, das macht einen verschmerzbar kleinen Teil des Marktes aus.


    Preis/Leistung? Die ist doch beim G80, insbesondere 8800GTS-320 massiv besser! Die Karte ist doch ein Schnäppchen, hat bereits bei Standardtakt 10-20% (z.T. bis 50%!) mehr Leistung als die ATI-Topkarte (übertaktet sieht's dann noch viel krasser aus!) und lässt sich im Gegensatz zu den ATI's (die X1950XTX ist absolut ab obersten Limit, die verträgt ja wenn's hoch kommt 20-40MHz auf der GPU und auf den RAM, das ist ja vernachlässigbar) auf 8800GTX-Takte und z.T. weit darüber übertakten!

    "Höchstgeschwindigkeit und Beschleunigung von 0 auf 100 km/h sind interessante statistische Werte - Werte, die Sie allerdings kaum je verwenden werden. Unser Ansatz im Hinblick auf die Leistung basiert auf der täglichen Fahrpraxis. Eine schnelle Beschleunigung beim Überholen mit wenig Gangwechseln ist ein wichtiges Sicherheitsmerkmal. Sofort verfügbare Kraft bedeutet eine grössere Kontrolle. Und mehr Spass. Sie können sich auf die kultivierte Kraft von SAAB verlassen."

    7 Mal editiert, zuletzt von Sh@rky ()