Dragon Age Origins: 16 CPUs im Test - Quadcore bis zu 75 Prozent vor Dualcore

Dafür lach ich dann über deine Signatur. XP oder Windows 7, aber von Vista sollte man definitiv auf Win7 wechseln. Gibt es nicht sogar eine günstige Upgrade Version für Vista-Owner?
Jaja, ComputerBILD bildet auch, was ?

btt: die Leistung des i5 ist bei seinem Preis echt :what:
So langsam wird's eng mit meinem 6000+
 
kuer schrieb:
Warum OCte CPU's. Ich hätte gerne normale CPU's gesehen. Trotz dem beachtlich wie der I7 920 abgeht. Respekt. Schade das der Test für mich so nicht zu gebrauchen ist
Ähem. Jede CPU, die wir übertaktet haben, ist auch ohne OC drin :schief: Du hast einen 955 BE, da reicht der 965 BE als Orientierung ja wohl vollends.

MELVIN schrieb:
Mir fehlt im Fazit irgendwie auch immer dieser eine Satz, der klarstellt, dass zum einen die Benchmarksettings die Quads überproportional begünstigen (wer hat schon eine HD 5870? Und wer von denen die eine haben spielt schon "nur" in 1680*1050@4AA?), dass die Benchmarkszene verhältnismäßig CPU-lastig ist und damit nicht UNBEDINGT repräsentativ und dass ein schneller Dualcore auch locker ausreicht.
Die Szene ist auch mit einer GTX 285 oder GTX 260 noch sehr CPU-limitiert, so wie viele andere Szenen in DAO auch. Quads werden hier nicht begünstigt, die sind schlicht schneller. Ein schneller Dualcore reicht eben nicht mehr, gerade beim Streaming merkt man das. Auf einem Q6600 läuft der Titel runder als auf dem 3,6-GHz-E8400. Und genauso steht es im Text und die Balken sagen das auch aus. Die Zeit der DCs neigt sich dem Ende zu.
 
Zuletzt bearbeitet:
Quads werden hier nicht begünstigt, die sind schlicht schneller.

Ja, aber das Leistungsplus würde mit einer verbreiteteren Grafikkarte wie einer GTX 260 oder HD 4870 wahrscheinlich deutlich geringer ausfallen. Das gleiche gilt wahrscheinlich, wenn die Settings einer HD 5870 würdig wären (z.B. 1920*1200@8AA).

Ein schneller Dualcore reicht eben nicht mehr, gerade beim Streaming merkt man das. Die Zeit der DCs neigt sich dem Ende zu.

Naja 24 Minimum-fps (E8400) in einer verhältnismäßig CPU-lastigen Szene in einem Rollenspiel würde ich nicht gerade als "reicht eben nicht mehr" definieren. Vorallem weil es sich dabei wahrscheinlich um eine Art Ausreißer handelt, da die Average-fps mit 37 deutlich höher liegen. Und das sich die Zeit der Dualcores dem Ende neigt predigt ihr schon seit über einem Jahr, trotzdem gibt es wenn es hoch kommt zwei oder drei Spiele, bei denen man mit einem E8400 minimale Abstriche machen müsste. Viele anderen Spiele, die ihr für eure "Dualcore reicht nicht mehr"-These zur Begründung heranzieht (RE5, Anno 1404, Far Cry 2.....) laufen auf einem E8400 einfach mal einwandfrei. Das kommt in den entsprechenden Benches so aber nie rüber.
 
|MELVIN| schrieb:
Ja, aber das Leistungsplus würde mit einer verbreiteteren Grafikkarte wie einer GTX 260 oder HD 4870 wahrscheinlich deutlich geringer ausfallen.
Nein, würde es nicht. Erst unterhalb einer GTX260/HD4870.
|MELVIN|=|MELVIN| schrieb:
Naja 24 Minimum-fps (E8400) in einer verhältnismäßig CPU-lastigen Szene in einem Rollenspiel würde ich nicht gerade als "reicht eben nicht mehr" definieren. Vorallem weil es sich dabei wahrscheinlich um eine Art Ausreißer handelt, da die Average-fps mit 37 deutlich höher liegen.
Es handelt sich um keinen Ausreißer, es werden drei Runs gemittelt, die alle 24 Min-Fps ergaben. Hinzu kommt das hakende Streaming.
|MELVIN| schrieb:
Viele anderen Spiele, die ihr für eure "Dualcore reicht nicht mehr"-These zur Begründung heranzieht (RE5, Anno 1404, Far Cry 2.....) laufen auf einem E8400 einfach mal einwandfrei. Das kommt in den entsprechenden Benches so aber nie rüber.
Wo sagen wir, dass bei diesen Spielen ein E8400 nicht ausreicht? Nirgends. Das kommt weder im Fließtext noch in den Diagrammen so rüber :schief: Du legst uns Aussagen in den Mund, die wir so nicht getroffen haben.
|MELVIN| schrieb:
Und das sich die Zeit der Dualcores dem Ende neigt predigt ihr schon seit über einem Jahr, trotzdem gibt es wenn es hoch kommt zwei oder drei Spiele, bei denen man mit einem E8400 minimale Abstriche machen müsste.
Du fehlinterpretierst auch hier. Das Ende der DCs meint nur, dass ein QC deutlich mehr Fps erreicht - das Zeitalter der Multicore-CPUs ist aufgrund der Konsolen nun mal Stand der Dinge. Davon, dass ein E8400 nicht mehr ausreicht, spricht hier aber keiner.
 
Wo sagen wir, dass bei diesen Spielen ein E8400 nicht ausreicht? Nirgends. Das kommt weder im Fließtext noch in den Diagrammen so rüber :schief: Du legst uns Aussagen in den Mund, die wir so nicht getroffen haben.

Das sagt ihr nicht direkt, aber es kommt definitiv so rüber, als ob ohne Quad das Spiel nicht vernünftig spielbar wäre. Ich merke selber in anderen Foren, dass viele User eure Benches so interpretieren. Das ist natürlich nicht eure Schuld, dass viele die Balken nicht selber vernünftig deuten können. Aber trotzdem nervt es irgendwie, wenn man jemandem zum X-ten mal klar machen muss, dass es Schwachsinn ist von einem E6600@3GHz@HD4850 auf einen Q9550 zu wechseln, und man dabei immer gegen eure Benches argumentieren muss.....

Davon, dass ein E8400 nicht mehr ausreicht, spricht hier aber keiner.

Naja:

Ein schneller Dualcore reicht eben nicht mehr,...
 
Wenn die Leute nicht in der Lage sind, Balken zu interpretieren, kann ich ihnen nicht helfen. Selbst wenn es im Fließtext steht, aber der wird ja gerne "übersehen".
Aber trotzdem nervt es irgendwie, wenn man jemandem zum X-ten mal klar machen muss, dass es Schwachsinn ist von einem E6600@3GHz@HD4850 auf einen Q9550 zu wechseln, und man dabei immer gegen eure Benches argumentieren muss.....
Schwachsinn ist das ja auch nicht, je nach Spiel versteht sich. Ich bin von einem 4,0-GHz-E8200 auf den i5 gewechselt und jeder CPU-lastige Titel profitierte enorm.
 
Hallo zusammen,

interessante Diskussion die hier läuft. :D
Mich würde zu den Benchmarks interessieren, ob das abschalten von AA/AF nennenswerte Auswirkungen auf die Perfomance hat. In einem anderen Artikel war von etwa 10% die Rede. Ist das auch noch zutreffend, bei den genannten Settings?

Danke und Gruß
 
|MELVIN| schrieb:
Viele anderen Spiele, die ihr für eure "Dualcore reicht nicht mehr"-These zur Begründung heranzieht (RE5, Anno 1404, Far Cry 2.....) laufen auf einem E8400 einfach mal einwandfrei. Das kommt in den entsprechenden Benches so aber nie rüber.

PCGH ist nicht die Zeitschrift die die Untergrenze bencht. Anno1404 würde auch auf einem Dual-Atom besser laufen als auf einem Single Core. Das liegt in der Natur der Sache. Jedenfalls interessiert mich das als PCGH Leser herzlich wenig.
Ich möchte wissen, wo die Obergrenze ist, welche High-Tech-Dinger es wert sind Geld dafür hinauszuwerfen - Und was in der Technik Stand der Dinge ist.

Will ich Low End, kann ich Computer-Wild-Spiele lesen.

PS : Habe ich doch genau vor 2 Monaten den idealen Zeitpunkt gewählt auf einen Q9550 umzusteigen. Hat mich 175 Euro gekostet - jetzt kostet er 207 Euro. Danke PCGH für eure Empfehlung im September bzgl. der Preisentwickelung ...
 
Zuletzt bearbeitet:
Die CPU limitiert, da ändert sich (nahezu) nichts.

.

VielenDank für die Auskunft. So wie ich die Benchmarks interpretiere wird es noch spielbar laufen auf einem 3,2GhzDuo, wenn auch nicht geschmeidig :schief:
Bei Venetica hatte ich auch FPS Schwankungen manchmal bis 25FPS und das scheint eigentlich weniger CPU lastig zu sein. Naja bald kommt der I5 und dann rennt es :D

PS: Ist zwar offtopic, würde mich aber interessieren: Soweit ich weiß läuft der I5 750 mit Turbo ja bis 3,2 GhZ wenn nur ein/zwei Kerne benutzt werden, lässt sich dieser Takt auch fixieren ohne die Spannung anheben zu müssen?
 
Interessant wie manche krampfhaft versuchen ihren/einen Dual-Core besser darzustellen als er ist. Da soll dann xtra mit Settings (1920x1200@8xAA) gebencht werden, welche die Performance so weit in den Keller drückt, nur damit der Abstand zwischen Quad- und Dual-Core auf ein Minimum zusammenschrumpft. -.- (dabei wurde ja sogar schon xtra mit 4xAA gebencht)

Auch wenn ein Dual-Core in den meisten Games noch ausreichend ist, das ändert nichts daran das seine Tage gezählt, und Quads sehr oft (und immer öfter) spürbar besser/schneller sind. Das ist schließlich nicht das erste Spiel (die erste Anwendung) wo ein aktueller (übertakteter) Dual-Core von (m)einem 3 Jahre alten Quad-Core geschlagen wird - das sagt doch schon alles.

Wer sich in den letzten 1-2 Jahren bewusst für einen Dual-Core und gegen einen Quad entschieden hat, der muß nun damit leben das diese Entscheidung nicht wirklich optimal war. Die Jungs die sich damals nen Q6600 gekauft haben beklagen sich jedenfalls nicht. Warum auch, ihr 2,4GHz Quad liegt schon mit Standardtakt vor einem 1,2GHz (!) schnelleren Dual-Core. :D

Ich hab damals (Ende 2006, Anfang 2007) schon gesagt, lieber einen Quad der in Dual-Core Games etwas langsamer (und trotzdem schnell genug) ist, als einen Dual-Core welcher später in Quad-Games deutlich langsamer ist...
 
Zuletzt bearbeitet:
Vielleicht sagen Bilder/Grafiken doch mehr als tausend Worte. Probieren wir es mal:
Beispiel FC2:

Link1 (PCGH):
20 VGA-CPU-Kombinationen im Test mit Crysis Warhead, Far Cry 2 und Fallout 3 - VGA-CPU-Kombination
(natürlich FC2 anklicken)
Link2 (ht4u):
Nehalem für alle - Intel Core i5 und Core i7 auf Sockel 1156 im Test - Benchmarks: Spiele (Far Cry 2) (Seite 31) - Tests bei HardTecs4U
(untere Grafik)
ht4u testet mit ner GTX280. WOW! Vergleicht mal mit der PCGH Grafik von FC2 mit der GTX285...

Dazu der PCGH Comment:
Während sich 3D-Beschleuniger wie eine Radeon HD 4850 oder GTS 250 mit einem Core 2 Quad Q6600 oder Phenom X4 9950 BE zufrieden geben, entfalten sich eine Radeon HD 4890 oder Geforce GTX 285 erst in Kombination mit einem Phenom II X4 955 respektive Core 2 Quad Q9650 oder noch schneller - allerdings nur, wenn Sie es mit der Auflösung sowie der Detailfülle und der AA-Stufe nicht übertreiben.

Bei ht4u beträgt der Unterschied E8600 vs. Q9650 exakt 1,1 fps, E8600 vs. i7 940 5,2 fps

Das Prob ist: Die (suggerierten) Kernaussagen sind völlig gegensätzlich.
 
Schau dir die Settings an (1x vs. 4x MSAA! Ultra High statt Very High!) - hier gibt es keine völlig gegensätzlichen suggerierten Kernaussagen. Im Übrigen sehe ich bei HT4U keinen DC vs. QC im Vergleich.
 
Interessant wie manche krampfhaft versuchen ihren/einen Dual-Core besser darzustellen als er ist. Da soll dann xtra mit Settings (1920x1200@8xAA) gebencht werden, welche die Performance so weit in den Keller drückt, nur damit der Abstand zwischen Quad- und Dual-Core auf ein Minimum zusammenschrumpft. -.- (dabei wurde ja sogar schon xtra mit 4xAA gebencht)

Bei der verwendeten HD 5870 wäre auch 1920*1200@8AA noch absolut spielbar gewesen. Wer kauft sich denn eine HD 5870 um in 1680*1050 zu zocken? Das ist sicherlich die Minderheit. Aber der Abstand zwischen Quad- und Dualcore wäre in dieser wesentlich praxisrelevanteren Kombination wahrscheinlich geringer, da gebe ich dir recht.

Das ist schließlich nicht das erste Spiel (die erste Anwendung) wo ein aktueller (übertakteter) Dual-Core von (m)einem 3 Jahre alten Quad-Core geschlagen wird - das sagt doch schon alles.Wer sich in den letzten 1-2 Jahren bewusst für einen Dual-Core und gegen einen Quad entschieden hat, der muß nun damit leben das diese Entscheidung nicht wirklich optimal war. Die Jungs die sich damals nen Q6600 gekauft haben beklagen sich jedenfalls nicht. Warum auch, ihr 2,4GHz Quad liegt schon mit Standardtakt vor einem 1,2GHz (!) schnelleren Dual-Core. :D

Wenn die Spiele auf einem schnellen Dualcore auch gut laufen, dann ist dieser "Sieg" für deinen Quad wertlos. Wenn man bedenkt, dass der Quad damals wahrscheinlich eine ganze Ecke mehr gekostet hat als ein schneller Dualcore ist er genau genommen sogar sinnlos.

Ich hab damals (Ende 2006, Anfang 2007) schon gesagt, lieber einen Quad der in Dual-Core Games etwas langsamer (und trotzdem schnell genug) ist, als einen Dual-Core welcher später in Quad-Games deutlich langsamer ist...

Von dem Geld was ich "damals" im Vergleich zum Quad gespart habe, konnte ich inzwischen meine GPU aufrüsten, denn die hat im Gegensatz zu meinem Dualcore in dem einen oder anderen aktuellen Spiel schlapp gemacht. Sorry aber meine Variante finde ich da irgendwie sinnvoller. Die Alternative wäre: Ich hätte jetzt eine Quad und in CPU-limitierten Settings ein paar mehr Frames, die ich aber ohnehin subjektiv nicht wahrnehme. Dafür müsste ich auf massig Details verzichten, weil meine damalige GPU nicht mehr hinterherkommt.

@PCGH_Marc
Ich glaube Opodeldok wollte damit rüberbringen, dass in Far Cry 2 selbst bei einer starken Grafikkarte (GTX 280) in entsprechenden praxisnahen Settings sogar der i7 975 gerade mal 10% vor einem E8600 liegt. Der Q9650 liegt sogar nur 2% vor dem E8600. Und das ist mit eurer Kernaussage, dass man schon einen Q9650 benötigt, um eine GTX 280/285 zur Entfaltung zu bringen, einfach nicht vereinbar. Vorallem wenn man bedenkt, dass Far Cry 2 durchaus was mit 4 Kernen anzufangen weiß.
 
Zuletzt bearbeitet:
Aber der Abstand zwischen Quad- und Dualcore wäre in dieser wesentlich praxisrelevanteren Kombination wahrscheinlich geringer, da gebe ich dir recht.
Hm, ich kann mich irren, aber wenn ich die letzte Umfrage richtig im Kopf habe, dann spielen die mit Abstand meisten User hier mit 1680 und nicht in FullHD. Hier werden btw. CPUs getestet. Man kann natürlich auch in 2500x1600 benchen, dann spielt es nämlich quasi keine Rolle mehr ob ein 2GHz Dual-Core oder ein 4GHz Quad-Core verwendet wird. Über die Leistung der CPUs sagt das allerdings genau 0 aus.

Wenn die Spiele auf einem schnellen Dualcore auch gut laufen, dann ist dieser "Sieg" für deinen Quad wertlos.
Interessant. Seit wann sind mehr FPS wertlos?
Wenn man bedenkt, dass der Quad damals wahrscheinlich eine ganze Ecke mehr gekostet hat als ein schneller Dualcore ist er genau genommen sogar sinnlos.
Leider bist du einmal mehr auf dem Holzweg. Der Q6600 war sehr schnell nach Release günstiger als die schnelleren/schnellsten Dual-Core CPUs. Der (ich glaube) E6850 war damals 30-50€ teurer als der kleine Quad. Das hat sich übrigens bis heute nicht geändert, ein E8600 kostet aktuell ca. 60€ mehr als ein i5-750.

Von dem Geld was ich "damals" im Vergleich zum Quad gespart habe, konnte ich inzwischen meine GPU aufrüsten
Wie gesagt, du hast nichts gespart. Und welbst wenn du damals einen langsameren (günstigeren) Dual-Core gekauft und etwas gespart hast, eine neue GPU musste so oder so her. Einen Q6600 kann man meiner Meinung nach noch problemlos mit einer aktuellen High-End Graka kombinieren. Eine Dual-Core CPU hingegen macht da, wie man immer öfter sieht, schon etwas weniger Sinn. Du mußt also (theoretisch gesehen) CPU und GPU aufrüsten, ich einmal mehr nur die GPU.

Und das ist alles jetzt nur auf Computerspiele bezogen, die anderen Vorteile eines Quads also mal ganz außen vor gelassen. Übrigens gabs die selben Disskusionen damals auch bei der Umstellung von Single- auf Dual-Core.
 
Zuletzt bearbeitet:
Ich glaube MELVIN ist nur frustriert, dass sein krass übertaktete DualCore auch gegen kleine QuadCore @ default abkackt.

Kann ich verstehen :devil: Aber die Zukunft gehört nunmal den QuadCore, OctaCore usw...
 
MELVIN schrieb:
Und das ist mit eurer Kernaussage, dass man schon einen Q9650 benötigt, um eine GTX 280/285 zur Entfaltung zu bringen, einfach nicht vereinbar.
Natürlich kann sich die Geforce nur auf einer schnelleren CPU entfalten sprich mehr Fps erzielen. Wenn man die BQ anzieht und das GPU-Limit das CPU-Limit unterschreitet, ist der Gewinn durch eine schnellere CPU natürlich egalisiert. In einem CPU-Test ist es aber ziemlich sinnlos mit einem GPU-Limit zu benchen - der Test soll schließlich zeigen, wie viel schneller CPU 1 gegenüber CPU 2 ist und nicht, wann das GPU-Limit eintritt. Zudem ist 1.680 samt 4x AA/16:1 AF auch für eine HD5870 sehr praxisnah - oder meinst du, es gibt nicht genügend Spieler, die noch einen 22er befeuern?
 
Es geht auch sicher nicht darum DC Besitzer zu beleidigen,
sondern eher das man bei einem neuen Sys. auf Quads setzt.
(Seit mindesten einem Jahr wenn es IQ-mäßig passt :ugly:)

Problem sind die Melvins dieser Welt die Usern einreden wollen das DC noch besser sei.

Ich hatte mit einem Freund das gleiche Problem (Vor Jahren)
Da ging es drum ein AMD 3700 oder ein X2 3800 zu nehmen.
Nach Studium + Kind usw. hatte der dann meinen X2 abgebettelt. :lol:
Für mein Backup PC reicht der 37er ja auch.
 
Zurück