Habt ihr igendwas gehört zum Hardware Videokopierschutz von sandy bridge?
http://www.n-tv.de/technik/Kop…-Chip-article2283546.html
Wie äussert sich der?
Und wer will dann noch son Schrott?
Habt ihr igendwas gehört zum Hardware Videokopierschutz von sandy bridge?
http://www.n-tv.de/technik/Kop…-Chip-article2283546.html
Wie äussert sich der?
Und wer will dann noch son Schrott?
Digitec auf Rechnung geht, als Firma....
Ganz davon ab wird der Leistungsunterschied zum Cooper wohl gerade von der
schärferen Nockenwelle kommen, welche dem One fehlt.
Mit Software allein ist der Unterschied sonst bei einem Saugmotor kaum möglich.
Auch wenn er gedrosselt wird, mehr als 100-110PS würd ich nicht erwarten
nach der Softwarekur. Und dafür lohnt es kaum....
LG
Die Zeus Dinger waren damals etwas vom Besten auf den Markt.
Mehrere Kunden von mir haben die sicher schon 7-8 Jahre im Einsatz.
Glaube kaum, dass die ohne Gewalt jemals eingehen....
Auch sind sie viel toleranter mit verschiedenen Verbrauchern im Netz oder an Stromleisten als das neue Zeug.
Achtung, diese 14Mbit Chipsätze sind nur kompatibel bis 85Mbit Powerline. Darüber gibts Neues, welche mit den alten Chips nicht zusammenarbeiten will.
Gib halt etwas mehr Spannung auf den Speicher.
Dann wird er die Timings wohl mitmachen?
Die UVD 3 Einheit der aktuellen ATI 6XXX Generation ist in der Lage
Flash(videos) (auch HD), Xvid und Divx (ebenso mit HD), x264 und VC-1, wie auch Content im VLC Player oder auch im aktuellen Cyberlink durch die
Grafikkarte zu beschleunigen und damit den Prozessor deutlich zu entlasten.
Grösstenteils können das auch aktuelle NV Grafikkarten.
Intel Onboard GPU oder auch in der CPU nur sehr bedingt....
Was aber bei entsprechend potenter CPU nicht so sehr ins Gewicht fällt.
Somit hat die Graka durchaus gewissen Einfluss zumindest auf Webvideo und Flashinhalte.
Allerdings spielt der Grafikspeicher dabei nur eine untergeordnete Rolle.
Mehr als 256MB Grafikspeicher dürfte durch Webinhalte kaum benutzt werden können.
LG
Du hast 4 pseudo Threats ja. Aber HT ist nur dazu da den 2 Kerner richtig auszulasten. Es sind keine echten 4 Threats die alle mit gleich viel vorhandener Leistung ausgeführt werden können. Optimalerweise jeweils auf einen Kern.
Nächstes Game wär BC2 ganz nett. Das kann nämlich auch 3 Threats gut auslasten.
LG
Schalt mal die Energiesparoptionen im Windoof aus.
Im Normalfall ist da Ausbalanciert eingestellt.
Nimm mal Höchstleistung.
Aber ohne Q&C sollte er sowieso nicht auf 800 Mhz drosseln und schon gar nicht unter Belastung. Ich denk das liegt an dem speziellen Mainboard oder an einer
fehlerhaften Q&C Implementation im Bios.
Wenn alles nix hilft schreib mal Asus an.
Halt uns bitte auf dem Laufenden.
Ich hab vor einiger Zeit dasselbe Board mit einem Ph II 955er verbaut und wie es aussieht hat der beim Zocken unter Last inzwischen Bluescreens. Aber jetzt weiss ich schon mal auf was ich schauen muss.
LG
Es sieht bisher eher so aus, wie wenn Bulldozer (AM3+) ausschliesslich auf AM3+ laufen würde. Aber auch AM3 CPU's (Phenom II X4 oder X6) sollen auf AM3+ gehen.
So zumindest laut AMD.
Das Foto des neuen 890FX MSI Boards sagt aber etwas anderes.
Denn das ist ganz klar ein AM3 Board, wo eben der Aufdruck AM3+kompatibel drauf steht. Grundsätzlich gab es von anfang an Spekulationen, dass Bulldozer auch in AM3 läuft, was AMD irgendwann aber verneint hat.
Ob es dafür gute Gründe gibt ist bisher eher unklar. Die ersten 990FX Boards (AM3+) unterscheiden sich bis auf den Sockel so gut wie nicht von aktuellen 890FX Boards von dem her, ist es vielleicht nur eine künstliche Abgrenzung, wie sie Intel ständig macht. (3x 775 mit verschiedenen CPU's, 1156->1155, 1366->1356 etc.)
LG
Nun der einzige Misserfolg für AMD war beim Phenom der nicht zu reproduzierende TLB Fehler. Auf welchen sich die Presse wie die Geier gestürzt hat.
Ansonsten hat sich der Phenom II X4 und X6 sicher nicht schlecht verkauft. Wo bekam man schon mal so viel Leistung für Gaming, Videobearbeitung und auch ansonsten eine gute Allroundleistung für so wenig Geld? (gute Zockerkiste für CHF 1100.-, mit SSD!)
Wenn man sich dann noch ausmalt, wie wenig parallelisiert heutige Software ist, kann man bei Optimierung der Software die nächsten Jahre sehr, sehr gut damit leben. Wenn wir realistisch sind, reicht so ein Phenom II für 99,9% der User lockerleicht aus. Denn langsam ist anders...
Auch sonst ist der Phenom kein schlechtes Design, wenn man bedenkt, dass sich die Architektur seit dem K7 kaum verändert hat, ist der Leistungszuwachs enorm.
Ganz davon ab, Bulldozer doch auf AM3?
http://www.pcgameshardware.de/…ozer-kompatibel/CPU/News/
Das wär das ultimative Bonbon von AMD!
Nur CPU wechseln und i7 fressen
done
Aber, kriegt man heutzutage einen Master wenn man dieselbe Frage
auf 100 Arten stellt und dann die Resultate auswertet?
Spiele Benchs wären sehr viel aussagekräftiger.
Ganz klar ist es mal wieder an der Zeit den Kopierern* von Intel zu zeigen,
wer der innovativste CPU Hersteller ist.
Ganz wie zu Zeiten des Athlon und Athlon 64 wo Intel ihre Penntüten
brachte und die Fanboys wie der Lüftkühler, trotz Gurkendesign im blauen Lager, ihren P4 hochgelobt haben.
*Kopierer ist hier wörtlich zu verstehen
Nativer Quad, integrierter Memcontr, integrierte Northbrige, x86-64,
Serielle punkt zu punkt Verbindungen etc.
War alles schon lange vor Intel umgesetzt.
LG
Der Bulldozer Zambesi soll ja im Frühling kommen und hier sind erste Meldungen:
http://www.pcgameshardware.de/…as-Core-i7-980X/CPU/News/
http://www.pcgameshardware.de/…der-Core-i7-950/CPU/News/
Und nein es sind kein vollwertigen 8 Kerne vorhanden.
4 Module (man könnte sagen physische Kerne) und 8 logische
Kerne, CMT.
Amd gibt an mit einem Modul 80% der Leistung eines Doppelkerners zu erreichen. Was auch irgendwie passt, denn es sind ja in einem Modul nicht sämtliche Teile eines Doppelkerners anzutreffen.
Ob die Shader allein allerdings soo viel bringen?
Was aber natürlich die Stromversorgung nicht unnötig belastet (PCIe+8+6Pin=250W)
und den 6950er Ram, welcher eh nicht für die Takte der 6970 gemacht sind etwas schonen würde.
So ein ähnliches Bild hat der NV Chip in meinem Lenovo NB heut auch gebracht, auch auf dem externen Monitor.
Defekte NV Nr 2 bei mir in 4 Wochen.
Da sag noch einer was gegen ATI.
Bei sehr vielen Verbauten nie ein Problem auch nach Jahren.
ZitatOriginal von Mannyac
Sharp gibts leider noch keine Quattron mit Full LED. Philips und Samsung hat mich bisher auch noch nie überzeugt. LG kenne ich eher aus dem Billigsektor, habe ich nie gross angeschaut muss ich sagen.
Im Moment habe ich einen Sony aber mit CCFL, bin eigentlich zufrieden damit. Sony hat aber aktuell nur so Glare Displays im Angebot, das muss ich nicht haben. Panasonic hat eigentlich auch immer ganz gute LCDs gemacht, aber halt nur kleine.
Summa summarum: im Moment würde ich wohl auch eher zu einem Plasma tendieren.
Naja es gibt schon recht nette Samsung und Philips LED's und auch ein Kumpel hat einen sehr lässigen LG LED welcher qualitativ echt nett wär.
Kein Plasma, aber für LED ned schlecht.
LG
ZitatOriginal von Mannyac
Vom Kontrast her kann aber erst der Full LED mit einem Plasma mithalten.
Würd ich nicht so empfinden auch bei teuren Full LED's kaum zu vergleichen.
Sieht man allein schon in den Spezifikationen.
Als Fernseher kommt mir nur der Plasma ins Haus. Auch als Moni in der Stube zum Zocken nur der Plasma.
Ganz klar Panasonic, aber auch gewisse Samsung Plasmas sind nicht zu verachten.
Weder die besten Philips Full LED's noch das Teuerste Samsung Zeugs noch LG oder Sharp hat das meiner Meinung nach was zu wollen.
LG
Lenovo x120e mit E-240 oder E-350:
http://www.dailytech.com/Lenov…20sE420s/article20520.htm
Plasmarauschen sieht man bei uns in der Stube auf dem neuen Panasonic etwa ab knapp 1m, bei 42" hockt man eh nicht so nahe.
Aber die Kiste hat ein Hammerbild, plastisch, kontrastreich, scharf, keine Helligkeits- und Farbverschiebungen wegen Blickwinkel.
Ich hab schon zig LCD und LED gesehen die können da keinesfalls mithalten!
Selbst auf meinem Uraltplasma kann ich da ab 2m nix mehr erkennen von wegen Rauschen.