• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

[REVIEW] AMD FX-8350 vs Intel i7 6700K - Wie gut sind sie wirklich?

marvinj

PCGH-Community-Veteran(in)
AMD vs. Intel

Vorwort

Hallo liebe Leser und User. Heute möchte ich mich mal mit einem Thema beschäftigen, das wirklich jeden interessiert, da es sich um den Kampf von Intel gegen AMD handelt. Dieses Duell ist aber von zwei Seiten aus zu betrachten.
Es wird ein i7 6700K aus dem Jahre 2016 gegen einen FX 8350 aus dem Jahr 2012/2013 antreten. Wir sehen hier schon, dass dort eine Diskrepanz von 3 Jahren Entwicklung herrscht. Ebenfalls ist die Preislage zu berücksichtigen. Während der FX damals 180€ kostete, das Board etwa 90, so kostete mich der i7 340€ und das Board 180€. Auch hier treffen zwei Preisklassen aufeinander. Wir haben den AMD Prozessor im guten Preis-Leistungs-Verhältnis, oder auch als Mainstream-Bereich, und den Intel im High-End bzw. Enthusiast-Bereich. Ich möchste jeden Leser bitten, bei dem Vergleich der Benchmarks und den Ergebnissen, diese Aufstellung zu berücksichtigen!


Testumfeld
In diesem Abschnitt möchte ich erstmal zeigen, wie die Test gemacht wurden, und wie die Werte ermittelt wurden. Alle Benchmarkergebnisse stammen aus dem MSI Afterburner bzw. aus den jeweiligen Ingame-Benchmarks. Was was ist, ist bei jedem Test mit angegeben. Die erforderliche elektrische Leistung wurde für den gesamten PC ermittelt. Alle Testergebnisse wurden doppelt überprüft und sind sorgfältig mit den fairsten Absichten erstellt worden. Die Treiber waren die aktuellsten, die verfügbar waren. Bei den Grafikkartentreibern war der FX-PC auf 16.4.1, während beim i7-PC 16.4.2 installiert wurde. Das Betriebssystem unterschied sich ebenfalls. Windows 7 beim alten, und Windows 10 beim neuen System. Weitere Änderung war der Umstieg von PCIe 2.0 auf 3.0 durch die neue Plattform.

Nun erstmal die Hardware:

AMD FX 8350 @ 4,41Ghz
Thermalright Macho Rev. B
Gigabyte GA-990XA-UD3
8GB G.Skill Ripjaws X DDR3-1600
AMD/Sapphire R9 390 Nitro+Backplate (1040Mhz)
Asus ROG Phoebus
Phanteks Enthoo Luxe
Samsung 850Evo + 2 Festplatten von WD
Asus Monitor mit Full HD

Intel Core i7 6700K @ 4,0Ghz
Thermalright Macho Rev. B (später Umstieg auf Alpenföhn Brocken 2)
Asus Maximus VIII Ranger
16GB G.Skill Ripjaws V DDR4-2400
AMD/Sapphire R9 390 Nitro+Backplate (1040Mhz)
Asus ROG Phoebus
Phanteks Enthoo Luxe
Samsung 850Evo + 2 Festplatten von WD
Asus Monitor mit Full HD

Die Benchmarks
Ich habe mir wirklich viel Zeit gelassen, diese Benchmarks zu erstellen, ich hoffe es gefällt euch. Hier sind sie, Viel Spaß beim Lesen und Resultate vergleichen! :)


Cinebench R15
In Cinebench wird die reine CPU-Leistung berechnet. Hier machen sich zusätzliche Kerne immer bezahlt.
Cinebench.png
Hier stehen 690 Punkte auf der Seite des Vishera-Prozessors, und satte 919 auf dem Papier für Skylake.


Stromverbrauch Allgemein
Der Stromverbrauch ist der wichtigste Indikator für die Leistung pro Watt, denn der Wert zeigt uns, wie viel Watt der Computer für die Darstellung der FPS benötigt. Architekturbedingt steht Intel hier besser dar.
Hier stelle ich den Verbrauch von Idle und Last, sowie reiner CPU-Last dar. Gleichzeitig zeige ich auf, wieviel Strom der PC im ausgeschalteten Zustand und der Medienwiedergabe verbraucht. Einige Ergebnisse sind hier überraschend (Medienwiedergabe), andere eher nicht (Last; Idle).
Aber seht selbst:
Stromverbrauch.png
Durch den Einsatz des Intel Core i7 Prozessors können im Idle und unter Last viel Strom eingespart werden. Wie bereits erwähnt ist dies auf die Architektur beider Prozessoren zurückzuführen. Interessant wird es, wenn man den Verbrauch des Gesamtsystems mit Prime95 und Furmark betrachtet, und dann die Werte aus den Spielen vergleicht.


Total War: Atilla
Atilla ist der neueste Teil der Total War Serie und ein wahrer Hardwarefresser. Hier wurde der intigrierte Benchmark benutzt, der die Hardware sehr fordert, da sowohl Nah- als auch Großaufnahmen der Armeen gemacht wurden. Der Benchmark beinhaltet eine Schlacht, nicht etwa die Kampagnenkarte. Der Benchmark ist ebenfalls sehr nah an der Realität im wirklichen Spiel dran.
Der Kampf geht zugunsten der Intel CPU aus, wir haben rund 13 Bilder pro Sekunde mehr. Dabei handelt es sich um die Durchschnitts-FPS. Das sind rund 42% Zuwachs.
Atilla FPS.png
Der Stromverbrauch verrät uns hier aber andere Werte. Diese sind mit 10 Watt Unterschied fast identisch und absolut nicht der Rede Wert.
Atilla Stromverbrauch.png


Total War: Rome II
Der zweite Total War-Teil in meinem Test ist Rome II, welches etwas älter ist als Atilla, aber für Intel Prozessoren optimiert wurde - jedenfall prangert ein großes Intel-Logo bei Start des Spiels.
Deshalb überraschen mich die Werte nicht sonderlich, es sind aber im Verhältnis nur 24% Zuwachs, also deutlich weniger als bei Atilla.
Auch hier wurde der intigrierte Benchmark verwendet.
Rome FPS.png
Der Stromverbrauch liegt wie schon bei Atilla etwa gleichauf. Während es beim FX etwas schwankt, pendelt es sich als Mittelwert um die 350 Watt ein. Der i7 bei etwa 355 Watt, was im Rahmen der Messungenauigkeit liegt. Auch hier gewinnt der i7 in Sachen Effizienz keinen Blumentopf.


Anno 2070
Der fünfte Teil der Anno Serie ist laut den Tests der PCGH Redaktion ein Titel, der wunderbar mit den Intel Core i-Prozessoren zusammenarbeitet. Gleiches hat auch mein Test gezeigt. Ich habe dazu die minimalen, die maximalen und die Durschnitts-FPS dargestellt. Zusätzlich gab es bei beiden Prozessoren einen FPS-Drop bei Sprung von Insel Nummer Eins zur Zwei. Diesen habe ich auch dokumentiert. Beim Testpunkt handelt es sich um einen Spielstand von mir, bei dem die am dichtesten bevölkerten Inseln bzw. auch Produktionsinseln überflogen wurden. Dabei wurde herein- und herausgezoomt.
Das Ergebnis ist, wie ich schon sagte, deutlich besser für den Prozessor aus Santa Clara ausgefallen. Der Drop unterscheidet sich um 13 FPS, der minimale Wert um 10, während der Durchschnitt allerdings bei beiden Prozessoren etwa bei 80 liegt. Die maximalen Bilder pro Sekunde unterscheiden sich um 22.
Allerdings ist hier von meiner Seite aus zu bemerken, dass sich zwar Min und Max voneinander abheben, die Durschnittswerte aber eine andere Sprache sprechen. Hier gibt es in meinen Augen keinen Aufrüstbedarf für die Anno 2070 Fanboys, die einen FX-8XXX besitzen.
Das Ganze als Diagramm:

Anno FPS.png

Ryse: Son of Rome
Der Titel aus 2013 läuft mit der Cryengine als Unterbau, welche für eine wunderschöne Grafik sorgt. Ich habe mir hier einen Speicherpunkt in der Mitte der Kampagne ausgesucht. Marius ist dabei, durch die grünsten und am detailreichsten Stellen von England zu laufen. Hier macht das Upgrade der CPU einen so deutlichen Unterschied aus, das ich beim Testen beinahe vom Stuhl gekippt bin. Die Darstellung der einzelnen Blätter und Gräser ist nicht wie ich annahm, von der GPU limitiert, sondern von der CPU. Das hätte ich niemals erwartet, und auch nicht so extrem. Die durchschnittlichen Bilder pro Sekunde stiegen hier um 41% ! an. Gleichzeitig arbeitete der CPU Kühler nur bei 50% Drehzahl mit dem i7, während sich der FX die 100% gönnte. Das hatte man dann auch gehört. Die minimalen und maximalen FPS unterscheiden sich in einem ähnlichen Maße, wie die der AVG. Wie gesagt, bei so einem grafikintensiven Spiel habe ich ein solches Ergebnis nicht erwartet. Durch das entstandene FPS-Polster konnte ich z.B. weitere Kantenglättung nutzen.
Ryse FPS.png


Tomb Raider (2013)
Das Remake der legänderen Tomb Raider Teile kommt ebenfalls mit einen eingebauten Benchmark daher, weshalb ich auch diesen nutze. Hier werden ebenfalls Min-AVG-Max Werte druch das Spiel gespeichert. Das Resultat ist als AMD-Gaming-Evolved-Titel hier zum Vorteil der Siliziumchips aus Sunnyvale ausgefallen. Die Werte unterschieden sich maximal um 5 Bilder pro Sekunde. Auffälligerweise ist bei der Wiederholung der Tests beim i7 eine leichte Diskrepanz von maximal 8 Bildern pro Sekunde aufgetreten, während es beim FX keine/kaum Schwankungen gab. Deshalb fasse ich die Werte des i7 zur verbesserten Darstellung zusammen. Hier macht also der FX leicht das Rennen, letztendlich ist die CPU hier aber egal.
Tomb Raider FPS.png
Aus der Stockdose werden für den gesamten PC 350 Watt (FX) respektive 310 Watt (i7), womit wir uns in einem 40 Watt Rahmen befinden.
Tomb Raider Strom.png

Grand Theft Auto V
Ein wenig persönliche Note kann sicher nicht schaden: Bei GTA V handelt es sich um ein von mir sehr gerne gespieltes Spiel, voller schöner Pixel und Details. Ich könnte mich manchmal in Los Santos verlieren. Für den Vergleich habe ich einen Singleplayer Spielstand geladen, wo ich mit Michael aus dem Bett aufstehe und zum Auto gehe. Mit diesem rase ich dann Richtung Stadtmitte, sodass eine große Belastung für das System besteht. Beim Herausgehen aus dem Haus hatte Michael jedes Mal seine Blumen kurzzeitig betrachtet. Da sich dies um eine sich verändernde Szene handelt, habe ich auch den im Spiel intigrierten Benchmark verwendet und die Werte aus diesem analysiert und in die unten stehende Tabelle gepackt. Diese Ergebnisse überschneiden sich mit der von mir verwendeten Testszene von den reinen Leistungswerten z.B. die Durschnitts-FPS 1:1. Um ein eindeutiges Ergebnis präsentieren zu können, nehme ich die Ergebnisse des Benchmarks für das Diagramm. Allerdings ist dieser sehr umfangreich, sodass ich Mittelwerte bilden musste, damit ich die Ergebnisse so präsentieren kann, damit man nicht Mathematik studiert haben muss, um sie lesen zu können.
Nun, nachdem ich Ryse getestet hatte, habe ich mich vorsichtshalber am Stuhl festgehalten. Zu Recht? Nun, GTA V ist ein eindeutiges Beispiel, dass die Oberklassegrafikkarte nicht immer das Bottleneck des Systems ist. Die Werte aus dem Benchmark haben mich schon wieder erschaudern lassen, erwartete ich doch, dass die GPU limitiert. Gut, dass ich mich festgehalten hatte. Wir reden hier von einem Unterschied von 45%, was ein Zuwachs von fast der Hälfte ist! Beeindruckend.
GTA FPS Bench.png
Allerdings fallen die min. FPS komisch ab bei der Skylake-CPU. Das konnte ich während meines eigenen Testdurchlaufen nicht bestätigen. Ich hatte hier keine so niedrigen FPS, und das Spielgeschehen wurde zu keinem Zeitpunkt negativ getrügt. Ich vermute, der Anfang der Benchmarksquenz brachte hier diese Werte hervor. Warum, kann ich aber nicht sagen.
Der Stromverbrauch unterscheidet sich auch signifikant. Hier entsteht eine Diskrepanz von 70 Watt.
GTA Strom.png
Die von GTA V gelieferten Werte aus dem Benchmark geben noch weitere Einblicke. So hat der FX bei der Darstellung der Frames unter 16ms, sehr,sehr große Schwierigkeiten. Wir haben hier einen Schnitt von 22%. Soll heißen, die Bilder, die es schaffen, unter 16ms (ein Wert, den Rockstar angibt, um flüssig 60Hz Bildschirme bedienen zu können) dargestellt zu werden, liegen grade mal bei 22%. Auf Intels Seite sieht es mit charmanten 96% dagegen deutlich besser aus.
Der Sieg geht eindeutig an den i7 6700K. Wir haben hier eine deutliche Einsparung von dem, was aus der Steckdose kommt, auf der anderen Seite aber eine deutliche Erhöhung der dargestellten Bilder in der Sekunde.


Batman: Arkham Origins

Um auch einen Teil der beliebten Batman-Spiele in meinem Test wiederzufinden, habe ich mich dazu entschlossen, Arham Origins zu nutzen, da ich "Knight" (noch) nicht besitze. Dieser Titel stellt keine so große Belastung für das System dar, sodass selbst bei höchster Auflösung, die FPS zweistellig bleiben. Um nahezu gleiche Werte zu erhalten, bemühte ich hier wieder einen in das Spiel eingebauten Benchmark, bei dem ich diesmal die durchschnittlichen Bilder pro Sekunde grafisch aufbereitet habe. Beim Stromverbrauch haben wir eine Einsparung von 50 Watt, bei der Verwendung des i7.
Batman FPS.png

Batman Strom.png


The Crew
Der Titel aus dem Hause Ubisoft ist ein reinrassiges Rennspiel mit FPS Cap bei 60. Das ist eigentlich für die Darstellung der Rohleistung suboptimal, aber dennoch aufschlussreich. Für den Test fuhr ich durch verschiedene Städte und Landschaften, um alles soweit wie möglich zu erfassen. So fuhr ich bei maximalen Settings mit dem 6700K bei konstanten 60 FPS durch die Vereinigten Staaten, während der FX auch mal auf 56 als Minimum zurückfiel. Manche würden jetzt denken, dass diese vier Bildchen keinen Unterschied machen. Dem kann ich nur widersprechen. Als geübter Zocker kann ich bereits diese Frameeinbrüche mit bloßem Auge erkennen, das Bild wirkt verschwommen/unscharf bzw. es fühlt sich einfach anders an, unnatürlich (in so Fern man dieses Wort im Zusammenhang mit PC Spielen benutzen kann).
The Crew FPS.png
Viel, viel interessanter gestaltet sich hier der Stromverbrauch. Über das Testergebnis und deren Ursache kann ich nur mutmaßen. Was auf jeden Fall stimmt, sind die Werte. Hier genehmigt sich der FX rund 300 Watt aus der Steckdose, während das Pendant von Intel 370 Watt zieht. Ja , richtig gelesen. Das Intel-Setup zieht mehr Strom. Aber wieso? Nun, ich vermute, dass das Bottleneck CPU die Grafikkarte ausgebremst hat, wodurch beim AMD-Setup nicht das komplette Power Target genutzt wurde. Mit zusätlicher CPU-Power musste die Grafikkarte nichtmehr auf den Prozessor warten, weshalb mehr gearbeitet werden musste, was in einem erhöhten Stromverbrauch endete.
The Crew Strom.png


Star Craft II - Legacy of the Void
Der neuste und letzte Ableger der Star Craft II Serie, ist, wie auch die beiden vorherigen Titel (Wings of Liberty, Heart of the Swarm), ein absoluter Freund von hoher pro Mhz Leistung pro Kern. Dank absolut veralteter Technik und DX9 ist dieses Spiel kein Freund von dem modularen Aufbau der Bulldozer/Vishera/Steamroller-Architektur, und kommt laut Tests renommierter Online- und Print-Zeitschriften nur auf Intel Prozssoren zur Geltung. Mein Eindruck bestätigt das Ganze. Obwohl ich das Gefühl hatte, dass bei LotV mein FX besser belastet wurde, als es bei WoL und HotS, werden dennoch nur 2 Kerne wirklich verwendet, was dazu führt, dass fast eine Verdoppelung der Bildrate beim Upgrade festgestellt wurde. Da die LAst der CPU mit zunehmenden Einheiten ansteigt, habe ich mich für einen Spielstand aus der Kampagne entschieden, damit ich dieses 1:1 replizieren kann. Dabei handelt es sich um den letzten Kampf vor Amons Untergang mit einer großen Armee, allerdings keiner übermäßig riesigen, wie es im Multiplayer oft der Fall ist.
Nachfolgend stelle ich deshalb nur die zusammengefassten Bilder pro Sekunde dar, da ich entsprechende FPS-Drops nicht 1:1 reproduzieren konnte, und das Ergebnis nicht verfälscht werden sollte.
Star Craft FPS.png


Battlefield 4
Battlefield 4 ist laut den aktuellen Berichten deutlich erfolgreicher, als Battlefield Hardline und Star Wars Battlefront zusammen. Grund genug, diesen Shooter ebenfalls zu testen. Die Frostbite Engine, die Battlefield hier verwendet ist dafür bekannt, die vorhandene Hardware bestmöglich auszulasten. Gleichzeitig ist es ein Titel, der in Zusammenarbeit mit AMD entstanden ist. Grund genug, um davon auszugehen, das alles flüssig läuft. Und das tut es auch. In den Ultra-Settings, kann mit im Schnitt 80 FPS gespielt werden, bei der Verwendung von DX11 und nicht Mantle. Im Test spiele ich auf einem 48 Slot Server (Multiplayer) auf der Map "Operation Locker". Während des Spielens ermittele ich die Werte als arithmetisches Mittel.
Mit meiner eben genannten Aussage erwartete ich eigentlich keine FPS-Zuwächse. Die vorherigen Tests lehrten mich aber, immer auf der Hut zu sein, und mich dieses mal am Stuhl festzuketten. Und das aus gutem Grund: Beim Test mit Intels aktueller Top-Skylake-CPU stiegen die Durchschnitts-FPS auf 105! Das ist ein Anstieg von 31,25%. Mit einem solchen Ergebnis habe ich schon wieder nicht gerechnet. Es zeigt aber einmal mehr, dass die AAA-Titel allesamt von Intels aktueller CPU-Architektur profitieren, so auch Battlefield 4.


Battlefield FPS.png

Fazit
Nun das Fazit gestaltet sich sehr umfangreich. Was sagen uns die Werte und Diagramme? Zunächst einmal sehen wir, dass Spiele, die meiner Meinung nach im Grafiklimit hingen, doch deutlich! an Bildern pro Sekunde gewonnen haben, und somit noch weiteres Potential gewonnen wurde. Wir sehen auch, dass es einen Unterschied gibt, zwischen Mainstream und High-End, und, dass der Fortschritt nicht Halt macht. Gleichzeitig habe ich für mich festgetsellt, dass der FX, der mir 4 Jahre lang diente, eine gute Invenstition war, da damals das nötige Kleingeld für einen neuen i5 2500K+Board etc. einfach fehlte, und ich aus der Historie von AM2+ (mit AM3 CPU) auf AM3+ Board und später AM3+ CPU umgestiegen bin. Wie gesagt, alles peu à peu. Deswegen war die Verweundung der AMD-CPU für mich vollkommen lohnend.

Die Leistung des i7 6700K ist beeindruckend. Wie in meinen Tests bzw. Benchmarks zu sehen ist, gewinnt beinahe jedes Spiel an FPS. Vorallem AAA-Titel profitieren deutlich vom Einsatz der neuen CPU.
Die FPS-Zuwächse entstanden sicherlich nicht nur durch Verwendung einer Intel-CPU, sondern auch durch den Plattformwechsel und der Verwendung von PCIe 3.0. Auch wenn diese oft nur einige Prozent an Zugewinn bringt, muss dieses dennoch hier erwähnt werden, da nicht alles auf die CPU zurückzuführen ist.

Was man auch sieht, und das mehr als deutlich, gibt es einen Unterschied bei dem Stromverbrauch. Klar, es handelt sich hier auch um ganz unterschiedliche Architekturen (32nm vs. 14nm). Was auf dem Papier mal deutlich, mal weniger deutlich zu sehen ist, entpuppt sich bei der reinen Spielebetrachtung als eher nebensächlich. Die 30 bis 50 Watt Unterschied von denen wir hier reden, sind in meinen Augen nicht der Rede Wert, beachtet man doch alle Faktoren. Sich also eine neue CPU aus Gründen der Stromrechnung zu holen ist zwar nobel, doch merken tut man da eher weniger was von, sollte man zu den Casual-Gamern gehören. Bei Leuten, die 24/7 Videos rendern, sieht dies allerdings etwas anders aus.

Wie hat sich das Ganze für mich entwickelt: Positiv
Ich bin hochzufrieden über den neuen i7 und den Unterbau mit all den neuen Features, und freue mich über die FPS-Zusätze. Nun muss ich nur noch meine Cents zusammensammeln, um auch eine High-End-Grafikkarte einzubauen :lol:.
Und damit schicke ich meinen treuen FX 8350 in Rente, hat er mir doch jahrelang als treuer Pixelbringer und Rechenknecht gedient! :daumen:

Salut!
 
Zuletzt bearbeitet:
TE
marvinj

marvinj

PCGH-Community-Veteran(in)
Einstellungen
In diesem Post füge ich Bilder an, bei dem die Grafik-Einstellungen von ein Paar Spielen zu sehen sind. Ich hoffe sie sind erkennbar.
Diese Settings dienen ggf. dazu, das Ganze selber mal zu testen und zu vergleichen, oder als reine Information.
Welches Spiel welches ist, seht ihr beim Draufklicken auf das Bild, und dann unten rechts in der Ecke. Der Bildname verrät das Spiel.
 

Anhänge

  • Star Craft 2 Settings.jpg
    Star Craft 2 Settings.jpg
    2,1 MB · Aufrufe: 452
  • Rome Settings.jpg
    Rome Settings.jpg
    2,2 MB · Aufrufe: 404
  • Batman Settings.jpg
    Batman Settings.jpg
    2,1 MB · Aufrufe: 430
  • Atilla Settings.jpg
    Atilla Settings.jpg
    2,1 MB · Aufrufe: 629
  • GTA V Settings 1.jpg
    GTA V Settings 1.jpg
    2 MB · Aufrufe: 507
  • GTA V Settings 2.jpg
    GTA V Settings 2.jpg
    2,2 MB · Aufrufe: 442
  • GTA V Settings 3.jpg
    GTA V Settings 3.jpg
    2,1 MB · Aufrufe: 397
  • Tomb Raider Settings.jpg
    Tomb Raider Settings.jpg
    2 MB · Aufrufe: 394
TE
marvinj

marvinj

PCGH-Community-Veteran(in)
Platzhalter
Dieser Bereich ist reserviert für den Nachtest der HD 530, der in der CPU intigirerten Grafikeinheit.
Auf Grund des Fehlers "Ihr System erfüllt nicht die Mindestanforderungen" muss ich auf Fehlersuche gehen.
Ich möchte damit aufzeigen, in wie fern die intigrierte Grafik sinnvoll ist, und ob es z.B. im Multi-Monitorbetrieb zu Einsparungen beim Stromverbrauch führen kann.
In der aktuellen PCGH-Asugabe 06/2016 findet sich ein detaillierter Test darüber, welche Spiele wie schnell auf der iGPU laufen. Bitte schaut doch dort einmal ins Heft.
 

Knogle

Volt-Modder(in)
Waerst du bereit den Stromverbrauch mit einem Amperemeter zu messen?
Wuerde dir alles zur Verfuegung stellen
 

Coregamer97

Komplett-PC-Aufrüster(in)
Dein Cinebench R15 Score find ich zimelich niedrig für 4,4 Ghz. Meiner hat um die 710 geschafft ._.
 
TE
marvinj

marvinj

PCGH-Community-Veteran(in)
Wuerdest dus denn beim 6700er machen wenn ich dir den Kram schicke?
Brauchst du ggf. nicht. Das von mir verwendete Gerät kann das auch. Die Frage ist, wozu brauchst du die Werte und beötigst du spezielle Werte?
Das kostet ja alles Zeit, vielleicht kann man den Rahmen etwas eingrenzen.
Die Stromstärke wird hier dann aber auch wieder für das Gesamtsystem gemessen.
 

nudelhaus

Freizeitschrauber(in)
bin zwar auf einen i7 4790k umgestiegen, aber in diversen spielen (bf4 etc.) merkt man eine bessere performance, kann einen umstieg für jeden empfehlen dem die fx 8350 leistung nicht mehr ausreicht... auch wen der 8350 auf 4,5ghz taktet und sein bestes gibt. =)
 
R

Rotkaeppchen

Guest
Ein wunderschöner Vergleich, vielen Dank und es zeigt, wie gut der FX heute noch ist. Er kostet die Hälfte eines i7-6700K
In Deinem Vergleich ist es sehr schade, dass Du nur 8GB RAM im FX hattest. Die Herstelleranforderung an ein System für
eine R9-390 sind 16GB RAM, das erklärt vermutlich bei vielen Probleme.


Nachtrag, es sind 8GB RAM Voraussetzung: Mein Fehler, die Unschärfe der Erinnerung ... :what:
http://extreme.pcgameshardware.de/s...r9-390-nitro-tri-x-oc-lags-jedem-spiel-2.html
 
Zuletzt bearbeitet von einem Moderator:

Knogle

Volt-Modder(in)
Brauchst du ggf. nicht. Das von mir verwendete Gerät kann das auch. Die Frage ist, wozu brauchst du die Werte und beötigst du spezielle Werte?
Das kostet ja alles Zeit, vielleicht kann man den Rahmen etwas eingrenzen.
Die Stromstärke wird hier dann aber auch wieder für das Gesamtsystem gemessen.
Seit Westmere-EP kann man fuer den Stromverbrauch recht gut Funktionen extrapolieren welche den den Stromverbrauch bzw. die Stromstaerke in Abhaengigkeit vom Takt angeben machen, und das ganze denn graphisch darstellen
Das ging z.B. bei Sandy Bridge sehr gut, da ist der Verbrauch exponentiell gestiegen, dann konnte ich die ganzen Werte logarithmisch in in einen neuen Graph einzeichnen und konnte damit super nachweisen dass das ganze exponentiell steigt
 

dbilas

Software-Overclocker(in)
Netter Test. Schade das du kein 1866MHZ Speicher für den FX zur Verfügung hattest, denn die werden von AMD Empfohlen und können je nach Software auch mal die Min-FPS um ein bis zwei Frames anheben.

Auch wäre es schön gewesen wenn du den FX noch ein bisschen optimiert hättest wie es fast jeder tut. Zumindest das Deaktivieren des Turbos und anpassung der Vcore nach unten hätte wunder bewirkt bezüglich Leistungsaufnahme

gesendet über Galaxy S4 BE und Tapatalk
 

RubySoho

Software-Overclocker(in)
Du wagst es blau für den fx zu verwenden???
Schande über dich!!!!
Spass bei seite,sehr schöner test!!
Danke!

Gruss Ruby
 
TE
marvinj

marvinj

PCGH-Community-Veteran(in)
Ein wunderschöner Vergleich, vielen Dank und es zeigt, wie gut der FX heute noch ist. Er kostet die Hälfte eines i7-6700K
In Deinem Vergleich ist es sehr schade, dass Du nur 8GB RAM im FX hattest. Die Herstelleranforderung an ein System für
eine R9-390 sind 16GB RAM, das erklärt vermutlich bei vielen Probleme.

Schön, dass der Test dir gefällt :daumen:
Ja ich bin bisher immer gut mit 8GB klargekommen, nur beim Einsatz von VMs wurds knapp.
Das die 390 16GB RAM vorraussetzt, davon höre ich grade zum ersten Mal :O

Edit: Es wurde editiert, und 8GB sind laut Sapphire die Systemvorrausetzungen ;)

Seit Westmere-EP kann man fuer den Stromverbrauch recht gut Funktionen extrapolieren welche den den Stromverbrauch bzw. die Stromstaerke in Abhaengigkeit vom Takt angeben machen, und das ganze denn graphisch darstellen
Das ging z.B. bei Sandy Bridge sehr gut, da ist der Verbrauch exponentiell gestiegen, dann konnte ich die ganzen Werte logarithmisch in in einen neuen Graph einzeichnen und konnte damit super nachweisen dass das ganze exponentiell steigt

Also hättest du gerne für jeden Benchmark die genauen Amperewerte, richtig?^^

Netter Test. Schade das du kein 1866MHZ Speicher für den FX zur Verfügung hattest, denn die werden von AMD Empfohlen und können je nach Software auch mal die Min-FPS um ein bis zwei Frames anheben.

Auch wäre es schön gewesen wenn du den FX noch ein bisschen optimiert hättest wie es fast jeder tut. Zumindest das Deaktivieren des Turbos und anpassung der Vcore nach unten hätte wunder bewirkt bezüglich Leistungsaufnahme

gesendet über Galaxy S4 BE und Tapatalk


Der turbo wurde deaktiviert, da sonst Bluescreens die Folge waren.
Man nimmt das, was man hat^^

Du wagst es blau für den fx zu verwenden???
Schande über dich!!!!
Spass bei seite,sehr schöner test!!
Danke!

Gruss Ruby


Hey ;)
Jaaa ich weiß, das ist mir auch aufgefallen. Aber erst, als ich bereits 3 Tests fertig hatte. Und naja, der Aufwand, die ganzen Grafiken neu zu basteln... Du kannst dir sicher vorstellen, dass ich da beide Augen zudrücken musste ;)
Danke für das Lob.
 
Zuletzt bearbeitet:
R

Rotkaeppchen

Guest
Zuletzt bearbeitet von einem Moderator:

Chinaquads

Volt-Modder(in)
Bei 99 % der spiele bist du doch im gpu limit. Teste mal in 720p und niedrigen details, dann wird das alles schon sehr anders aussehen. Aber ansonsten nette Arbeit.

Gesendet von meinem LG-H955 mit Tapatalk
 
TE
marvinj

marvinj

PCGH-Community-Veteran(in)
Bei 99 % der spiele bist du doch im gpu limit. Teste mal in 720p und niedrigen details, dann wird das alles schon sehr anders aussehen. Aber ansonsten nette Arbeit.

Gesendet von meinem LG-H955 mit Tapatalk
Ja, jetzt hänge ich zu 100% im GPU Limit. Vorher aber anscheinend nicht. Ich werde/kann nicht mit 720p testen, da der FX nicht wieder irgendwo eingebaut wird.
Danke :daumen:
 

Chinaquads

Volt-Modder(in)
Man merkt, das du kein Plan von CPU Benchmarks hast @RubySoho.

Wie willst du denn vernünftig 2Cpus gegeneinander antreten lassen, wenn du immer im Gpu Limit hängst?

Deswegen maximal 720p und minimale Details.

Gesendet von meinem LG-H955 mit Tapatalk
 

Darkseth

BIOS-Overclocker(in)
Zwar sieht man da wunderschön das CPU Limit, aber NIEMAND spielt auf 720p mit niedrigen settings.
Das hat mit Realität einfach absolut nix am Hut. Zumindest fürs Gaming sind diese Settings völlig irrelevant.

Der TE macht es also genau richtig. Testet es genau so mit den settings, wie man sie auch später in der Praxis nutzt.
 

sethdiabolos

Volt-Modder(in)
Das haben hier im Forum mal MSI Mitarbeiter zu Problemen mit eine R9-390 als Lösungsoption angegeben. Ich suche es noch, habe es nicht gefunden.
Blödsinn, 8GB sind genug: http://extreme.pcgameshardware.de/s...r9-390-nitro-tri-x-oc-lags-jedem-spiel-2.html

Lieben Gruß in die Nachbarschaft (Ich komme aus der List)
8GB sind nie genug...:)
Bin gerade nicht daheim am Rechner, aber auf Youtube kann man das ein oder andere Video finden, wo man sieht, dass insbesondere moderne Spiele von 16GB profitieren. Witcher 3 und GTA 5 profitiert in Form höherer Fps (5-10%) oder Battlefield 4, Battlefront haben bessere Frametimes.
Wie heißt es so schön,

"Was ist besser als viel RAM, noch mehr RAM!"

Gesendet von meinem ALE-L21 mit Tapatalk
 

TSchaK

PCGH-Community-Veteran(in)
Hier geht es aber nicht darum wer den längeren Balken hat, sondern 2 CPUs im Vergleich beim Spielen.
Und das spiegelt der Test sehr schön wieder...

Schade das zwei unterschiedliche Betriebssysteme benutzt wurden. Ich bin mir nicht sicher wie groß die Unterschiede daraus sind.

Aber trotzdem ein schöner test :daumen:

Gesendet von meinem SM-T700 mit Tapatalk
 

RubySoho

Software-Overclocker(in)
Man merkt, das du kein Plan von CPU Benchmarks hast @RubySoho.

Wie willst du denn vernünftig 2Cpus gegeneinander antreten lassen, wenn du immer im Gpu Limit hängst?

Deswegen maximal 720p und minimale Details.

Gesendet von meinem LG-H955 mit
Tapatalk

Und wo seh ich die cpu benchmarks in 720p die ganze zeit?
Such mal auf pcghx nach benchmarks in 1080p....
 

Chinaquads

Volt-Modder(in)
Wie möchtest du ne cpu benchen, wenn du im gpu limit bist? Da hätte ich gerne ne vernünftige Antwort drauf.

Gesendet von meinem LG-H955 mit Tapatalk
 

dbilas

Software-Overclocker(in)
Leute, Leute...
Normalerweise sollte man im reinen CPU Test nicht im GPU-Limit liegen, das ist richtig. Daher verwendet man auch 720p Auflösungen aber hier handelt es sich um Praxiswerte eines Users unter Realen Bedingungen
Keiner wird freiwillig mit 720p Auflösungen zocken mit solch einer Hardware und daher auch die entsprechende Ergebnisse.
720p Reviews zu diversen CPUs gibt es massenhaft im Netz. Einfach Googlen und der TE sollte am besten die Überschrift anpassen

Schade das zwei unterschiedliche Betriebssysteme benutzt wurden. Ich bin mir nicht sicher wie groß die Unterschiede daraus sind.
In Spielen gibt es so gut wie keinen merklichen Unterschied. Einzig was schade ist, das zum einen "nur" 8GB verwendet wurde und zum anderen das die Speicher nicht mindestens 1866MHZ haben

gesendet über Galaxy S4 BE und Tapatalk
 
Zuletzt bearbeitet:

RubySoho

Software-Overclocker(in)
Kannst du nicht!
Aber darum gehts hier auch nicht.
Du hast schon recht mit dem was du sagtst,keine frage.
Das hier ist nur ein vergleich unter real bedingungen und den sieht man selten.
 

Threshold

Großmeister(in) des Flüssigheliums
Könntest du beim Cinebench noch die Single Core Performance nachreichen?
Denn die ist ja der entscheidende Faktor, wenn man die Pro Takt Leistung vergleichen will -- daher auch beide CPUs mit gleichem Takt benchen.
 

Coregamer97

Komplett-PC-Aufrüster(in)
Sind bei 4,8GHz lächerliche 112 Punkte im Singlecore-Test...
http://abload.de/img/fx8320484nrqy.png

Ein Skylake schafft bei 4,32GHz schon ganze 173 Punkte...
https://abload.de/img/asdfn3sks.png

Ein Ivy Bridge schafft bei 4,3GHz 158 Punkte...
http://extreme.pcgameshardware.de/a...inebench-r15-u-cinebench-2003-a-cinebench.jpg


Bei dir stimmt was nicht ^^

Mein FX kommt bei 4,7 Ghz schon auf 759 und somit auch auf einen höheren Singlecore Score.
Bei 4,8 Ghz wären es dementsprechend nochmal mehr.
 

Threshold

Großmeister(in) des Flüssigheliums
Die Benchmarks sind stark anhängig vom System und was drauf ist.
Mit einem nackten Windows ohne alles habe ich 15% mehr Punkte als wenn ich mit meinem normal benutzen Windows den Benchmark mache.
 

iGameKudan

Volt-Modder(in)
Und Taktgleich? Also beide mit 4GHz?
Da kann ich dir leider nicht dienen, leider gibt es in unserer Cinebench-Datenbank keine Ergebnisse von Vishera-Viermodulern unter 4,8 GHz, wo auch der Singlecore-Test gemacht wurde. Die Ergebnisse vom 6500 und dem FX8320 sind übrigens auch von mir. ;)

Ganz Taktgleich und mit Skylake kann ich dir eben wegen der Tatsache, dass kaum wer den Singlecore-Test macht, auch nicht dienen...
http://abload.de/img/fx8320484nrqy.png FX8320
http://extreme.pcgameshardware.de/a...nebench-r15-u-cinebench-2003-a-4.7ghz_r15.png i5 4670K
http://abload.de/img/asdf6yhsxx.png i5 2500K (auch mein Ergebnis)

Aber nur um mal zu verdeutlichen, wie mies die Singlecore-Performance ist: Der 4702MQ lief mit 2,4-2,8GHz während des Tests...
http://abload.de/img/cb15o3a61.png

Die Cinebench-Datenbank darf gerne mit mehr FX- bzw. AMD- und Skylake-Ergebnissen gefüttert werden. :daumen:
-> http://extreme.pcgameshardware.de/b...ch-11-5-cinebench-r15-u-cinebench-2003-a.html

@Coregamer: Den Multicore-Test hatte ich sogar ohne die Anwendungen die auf dem Screen im Hintergrund laufen durchgeführt...
Nur beim Singlecore-Test liefen die. Wobei ein Dateidownload bei 8 Threads das Singlecore-Ergebnis nicht beeinflussen sollte...

Wieso das Ergebnis so niedrig ist... Lief bei dir vielleicht die Northbridge mit 2,6GHz? Mein Board hatte nicht mehr als 2,4GHz geschafft.
Jedenfalls liefen die Tests auf einem frischen Windows (ist auch der einzige Grund, wieso ich den IE genutzt habe...) und sogar mit 2400er-RAM.
 
Zuletzt bearbeitet:

Coregamer97

Komplett-PC-Aufrüster(in)
Ich habe Tests mit 2,2 und 2,6 Ghz CPU-NB gemacht, das waren nur 1-2 Punkte Steigerung. HT-Link war jeweils 2,6Ghz. mein RAM war sogar nur 1866 Mhz CL9 ._.
Allerdings benutze ich Windows 7
 

iGameKudan

Volt-Modder(in)
Na, der HT lief bei mir auch nur mit 2,4GHz... ;)

Wobei das durchaus an Windows 7 liegen könnte, ich hatte mit Windows 7 bei allen CPUs die ich hatte mehr oder weniger bessere Ergebnisse als mit Windows 8.1 oder 10...
 

Coregamer97

Komplett-PC-Aufrüster(in)
Der HT-Link macht auch keinen Unterschied, soweit ich das mit meinen Tests beurteilen kann. Egal ob 2,2 oder 2,6.
Ich hab ihn nur auf 2,6 da ich dafür keine Spanungserhöhung brauche ^^

Muss wohl echt an Windows 7 liegen ._.

Hier noch mein Score, falls es jemanden Interessiert
FX 8350 @4,72.PNG
 
Zuletzt bearbeitet:

Threshold

Großmeister(in) des Flüssigheliums
Da kann ich dir leider nicht dienen, leider gibt es in unserer Cinebench-Datenbank keine Ergebnisse von Vishera-Viermodulern unter 4,8 GHz, wo auch der Singlecore-Test gemacht wurde. Die Ergebnisse vom 6500 und dem FX8320 sind übrigens auch von mir. ;)

Schade, hätte mich jetzt interessiert.
Denn gerade bei Takt Gleicheit kannst du schon eine seriöse Aussage treffen, um welchen Faktor die Single Core Leistung bei Intel höher ist als bei AMD.
Sowas merkt man dann auch in den Games, wo hier und da ein i3 den großen FX keine Chance lässt.
Je Mehrkerniger es wird, desto besser kann sich der AMD in Szene setzen und im Grafiklimit ist es dann egal, ob AMD oder Intel -- sofern die Grundleistung stimmt.
 

VikingGe

Software-Overclocker(in)
Von Cinebench-Single Core-Werten kann man nur begrenzt auf Spieleleistung schließen, weil bei Spielen RAM- und Cache-Geschwindigkeiten wichtig sind, bei Cinebench aber quasi keinen Einfluss haben.
Anyway, im CB-Test zu Skylake hat 181 Punkte, der FX-8350 müsste @stock ziemlich genau auf 100 kommen. Beide haben 4.2 GHz Turbo-Takt.

Chinaquads schrieb:
Wie möchtest du ne cpu benchen, wenn du im gpu limit bist? Da hätte ich gerne ne vernünftige Antwort drauf.
Vielleicht erstmal verstehen, worum es in diesem Thread überhaupt geht. Hier geht es darum, wie sich die neue CPU in der Praxis auswirkt. Und 720p ist bei ner R9 390 nun das Gegenteil von Praxis.
 
TE
marvinj

marvinj

PCGH-Community-Veteran(in)
Von Cinebench-Single Core-Werten kann man nur begrenzt auf Spieleleistung schließen, weil bei Spielen RAM- und Cache-Geschwindigkeiten wichtig sind, bei Cinebench aber quasi keinen Einfluss haben.
Anyway, im CB-Test zu Skylake hat 181 Punkte, der FX-8350 müsste @stock ziemlich genau auf 100 kommen. Beide haben 4.2 GHz Turbo-Takt.


Vielleicht erstmal verstehen, worum es in diesem Thread überhaupt geht. Hier geht es darum, wie sich die neue CPU in der Praxis auswirkt. Und 720p ist bei ner R9 390 nun das Gegenteil von Praxis.

Schließe mich dir voll und ganz an. Hier geht es um die Veränderung in der Praxis, nicht um irgendwelches synthetischen Benchmarkwerte. Wenn es darum geht, empfehle ich ein Blick in alle PCGH Ausgaben aus diesem Jahr. Da kann man sehr gut sehen, wie viel mehr Rohleistung ein i7 hat. Aber wie gesagt, sowas ist vollkommen irrelevant und hat nix damit zu tun, was ich versuche hier darzustellen.
Deswegen wird nicht in 720p getestet. (Schlimm genug, dass ich meine Tests noch rechtfertigen muss :nene::nene::nene:)

Für die interessierten Nutzer der Cinebenchergebnisse habe ich das hier noch gefunden Intel Core i7-479�K vs. AMD FX-835� - Technikaffe.de
Da kann man wunderbar die Single- und Multicoreleistung vergleichen.
 
Oben Unten