[REVIEW] AMD FX-8350 vs Intel i7 6700K - Wie gut sind sie wirklich?

marvinj

PCGH-Community-Veteran(in)
AMD vs. Intel

Vorwort

Hallo liebe Leser und User. Heute möchte ich mich mal mit einem Thema beschäftigen, das wirklich jeden interessiert, da es sich um den Kampf von Intel gegen AMD handelt. Dieses Duell ist aber von zwei Seiten aus zu betrachten.
Es wird ein i7 6700K aus dem Jahre 2016 gegen einen FX 8350 aus dem Jahr 2012/2013 antreten. Wir sehen hier schon, dass dort eine Diskrepanz von 3 Jahren Entwicklung herrscht. Ebenfalls ist die Preislage zu berücksichtigen. Während der FX damals 180€ kostete, das Board etwa 90, so kostete mich der i7 340€ und das Board 180€. Auch hier treffen zwei Preisklassen aufeinander. Wir haben den AMD Prozessor im guten Preis-Leistungs-Verhältnis, oder auch als Mainstream-Bereich, und den Intel im High-End bzw. Enthusiast-Bereich. Ich möchste jeden Leser bitten, bei dem Vergleich der Benchmarks und den Ergebnissen, diese Aufstellung zu berücksichtigen!


Testumfeld
In diesem Abschnitt möchte ich erstmal zeigen, wie die Test gemacht wurden, und wie die Werte ermittelt wurden. Alle Benchmarkergebnisse stammen aus dem MSI Afterburner bzw. aus den jeweiligen Ingame-Benchmarks. Was was ist, ist bei jedem Test mit angegeben. Die erforderliche elektrische Leistung wurde für den gesamten PC ermittelt. Alle Testergebnisse wurden doppelt überprüft und sind sorgfältig mit den fairsten Absichten erstellt worden. Die Treiber waren die aktuellsten, die verfügbar waren. Bei den Grafikkartentreibern war der FX-PC auf 16.4.1, während beim i7-PC 16.4.2 installiert wurde. Das Betriebssystem unterschied sich ebenfalls. Windows 7 beim alten, und Windows 10 beim neuen System. Weitere Änderung war der Umstieg von PCIe 2.0 auf 3.0 durch die neue Plattform.

Nun erstmal die Hardware:

AMD FX 8350 @ 4,41Ghz
Thermalright Macho Rev. B
Gigabyte GA-990XA-UD3
8GB G.Skill Ripjaws X DDR3-1600
AMD/Sapphire R9 390 Nitro+Backplate (1040Mhz)
Asus ROG Phoebus
Phanteks Enthoo Luxe
Samsung 850Evo + 2 Festplatten von WD
Asus Monitor mit Full HD

Intel Core i7 6700K @ 4,0Ghz
Thermalright Macho Rev. B (später Umstieg auf Alpenföhn Brocken 2)
Asus Maximus VIII Ranger
16GB G.Skill Ripjaws V DDR4-2400
AMD/Sapphire R9 390 Nitro+Backplate (1040Mhz)
Asus ROG Phoebus
Phanteks Enthoo Luxe
Samsung 850Evo + 2 Festplatten von WD
Asus Monitor mit Full HD

Die Benchmarks
Ich habe mir wirklich viel Zeit gelassen, diese Benchmarks zu erstellen, ich hoffe es gefällt euch. Hier sind sie, Viel Spaß beim Lesen und Resultate vergleichen! :)


Cinebench R15
In Cinebench wird die reine CPU-Leistung berechnet. Hier machen sich zusätzliche Kerne immer bezahlt.
Cinebench.png
Hier stehen 690 Punkte auf der Seite des Vishera-Prozessors, und satte 919 auf dem Papier für Skylake.


Stromverbrauch Allgemein
Der Stromverbrauch ist der wichtigste Indikator für die Leistung pro Watt, denn der Wert zeigt uns, wie viel Watt der Computer für die Darstellung der FPS benötigt. Architekturbedingt steht Intel hier besser dar.
Hier stelle ich den Verbrauch von Idle und Last, sowie reiner CPU-Last dar. Gleichzeitig zeige ich auf, wieviel Strom der PC im ausgeschalteten Zustand und der Medienwiedergabe verbraucht. Einige Ergebnisse sind hier überraschend (Medienwiedergabe), andere eher nicht (Last; Idle).
Aber seht selbst:
Stromverbrauch.png
Durch den Einsatz des Intel Core i7 Prozessors können im Idle und unter Last viel Strom eingespart werden. Wie bereits erwähnt ist dies auf die Architektur beider Prozessoren zurückzuführen. Interessant wird es, wenn man den Verbrauch des Gesamtsystems mit Prime95 und Furmark betrachtet, und dann die Werte aus den Spielen vergleicht.


Total War: Atilla
Atilla ist der neueste Teil der Total War Serie und ein wahrer Hardwarefresser. Hier wurde der intigrierte Benchmark benutzt, der die Hardware sehr fordert, da sowohl Nah- als auch Großaufnahmen der Armeen gemacht wurden. Der Benchmark beinhaltet eine Schlacht, nicht etwa die Kampagnenkarte. Der Benchmark ist ebenfalls sehr nah an der Realität im wirklichen Spiel dran.
Der Kampf geht zugunsten der Intel CPU aus, wir haben rund 13 Bilder pro Sekunde mehr. Dabei handelt es sich um die Durchschnitts-FPS. Das sind rund 42% Zuwachs.
Atilla FPS.png
Der Stromverbrauch verrät uns hier aber andere Werte. Diese sind mit 10 Watt Unterschied fast identisch und absolut nicht der Rede Wert.
Atilla Stromverbrauch.png


Total War: Rome II
Der zweite Total War-Teil in meinem Test ist Rome II, welches etwas älter ist als Atilla, aber für Intel Prozessoren optimiert wurde - jedenfall prangert ein großes Intel-Logo bei Start des Spiels.
Deshalb überraschen mich die Werte nicht sonderlich, es sind aber im Verhältnis nur 24% Zuwachs, also deutlich weniger als bei Atilla.
Auch hier wurde der intigrierte Benchmark verwendet.
Rome FPS.png
Der Stromverbrauch liegt wie schon bei Atilla etwa gleichauf. Während es beim FX etwas schwankt, pendelt es sich als Mittelwert um die 350 Watt ein. Der i7 bei etwa 355 Watt, was im Rahmen der Messungenauigkeit liegt. Auch hier gewinnt der i7 in Sachen Effizienz keinen Blumentopf.


Anno 2070
Der fünfte Teil der Anno Serie ist laut den Tests der PCGH Redaktion ein Titel, der wunderbar mit den Intel Core i-Prozessoren zusammenarbeitet. Gleiches hat auch mein Test gezeigt. Ich habe dazu die minimalen, die maximalen und die Durschnitts-FPS dargestellt. Zusätzlich gab es bei beiden Prozessoren einen FPS-Drop bei Sprung von Insel Nummer Eins zur Zwei. Diesen habe ich auch dokumentiert. Beim Testpunkt handelt es sich um einen Spielstand von mir, bei dem die am dichtesten bevölkerten Inseln bzw. auch Produktionsinseln überflogen wurden. Dabei wurde herein- und herausgezoomt.
Das Ergebnis ist, wie ich schon sagte, deutlich besser für den Prozessor aus Santa Clara ausgefallen. Der Drop unterscheidet sich um 13 FPS, der minimale Wert um 10, während der Durchschnitt allerdings bei beiden Prozessoren etwa bei 80 liegt. Die maximalen Bilder pro Sekunde unterscheiden sich um 22.
Allerdings ist hier von meiner Seite aus zu bemerken, dass sich zwar Min und Max voneinander abheben, die Durschnittswerte aber eine andere Sprache sprechen. Hier gibt es in meinen Augen keinen Aufrüstbedarf für die Anno 2070 Fanboys, die einen FX-8XXX besitzen.
Das Ganze als Diagramm:

Anno FPS.png

Ryse: Son of Rome
Der Titel aus 2013 läuft mit der Cryengine als Unterbau, welche für eine wunderschöne Grafik sorgt. Ich habe mir hier einen Speicherpunkt in der Mitte der Kampagne ausgesucht. Marius ist dabei, durch die grünsten und am detailreichsten Stellen von England zu laufen. Hier macht das Upgrade der CPU einen so deutlichen Unterschied aus, das ich beim Testen beinahe vom Stuhl gekippt bin. Die Darstellung der einzelnen Blätter und Gräser ist nicht wie ich annahm, von der GPU limitiert, sondern von der CPU. Das hätte ich niemals erwartet, und auch nicht so extrem. Die durchschnittlichen Bilder pro Sekunde stiegen hier um 41% ! an. Gleichzeitig arbeitete der CPU Kühler nur bei 50% Drehzahl mit dem i7, während sich der FX die 100% gönnte. Das hatte man dann auch gehört. Die minimalen und maximalen FPS unterscheiden sich in einem ähnlichen Maße, wie die der AVG. Wie gesagt, bei so einem grafikintensiven Spiel habe ich ein solches Ergebnis nicht erwartet. Durch das entstandene FPS-Polster konnte ich z.B. weitere Kantenglättung nutzen.
Ryse FPS.png


Tomb Raider (2013)
Das Remake der legänderen Tomb Raider Teile kommt ebenfalls mit einen eingebauten Benchmark daher, weshalb ich auch diesen nutze. Hier werden ebenfalls Min-AVG-Max Werte druch das Spiel gespeichert. Das Resultat ist als AMD-Gaming-Evolved-Titel hier zum Vorteil der Siliziumchips aus Sunnyvale ausgefallen. Die Werte unterschieden sich maximal um 5 Bilder pro Sekunde. Auffälligerweise ist bei der Wiederholung der Tests beim i7 eine leichte Diskrepanz von maximal 8 Bildern pro Sekunde aufgetreten, während es beim FX keine/kaum Schwankungen gab. Deshalb fasse ich die Werte des i7 zur verbesserten Darstellung zusammen. Hier macht also der FX leicht das Rennen, letztendlich ist die CPU hier aber egal.
Tomb Raider FPS.png
Aus der Stockdose werden für den gesamten PC 350 Watt (FX) respektive 310 Watt (i7), womit wir uns in einem 40 Watt Rahmen befinden.
Tomb Raider Strom.png

Grand Theft Auto V
Ein wenig persönliche Note kann sicher nicht schaden: Bei GTA V handelt es sich um ein von mir sehr gerne gespieltes Spiel, voller schöner Pixel und Details. Ich könnte mich manchmal in Los Santos verlieren. Für den Vergleich habe ich einen Singleplayer Spielstand geladen, wo ich mit Michael aus dem Bett aufstehe und zum Auto gehe. Mit diesem rase ich dann Richtung Stadtmitte, sodass eine große Belastung für das System besteht. Beim Herausgehen aus dem Haus hatte Michael jedes Mal seine Blumen kurzzeitig betrachtet. Da sich dies um eine sich verändernde Szene handelt, habe ich auch den im Spiel intigrierten Benchmark verwendet und die Werte aus diesem analysiert und in die unten stehende Tabelle gepackt. Diese Ergebnisse überschneiden sich mit der von mir verwendeten Testszene von den reinen Leistungswerten z.B. die Durschnitts-FPS 1:1. Um ein eindeutiges Ergebnis präsentieren zu können, nehme ich die Ergebnisse des Benchmarks für das Diagramm. Allerdings ist dieser sehr umfangreich, sodass ich Mittelwerte bilden musste, damit ich die Ergebnisse so präsentieren kann, damit man nicht Mathematik studiert haben muss, um sie lesen zu können.
Nun, nachdem ich Ryse getestet hatte, habe ich mich vorsichtshalber am Stuhl festgehalten. Zu Recht? Nun, GTA V ist ein eindeutiges Beispiel, dass die Oberklassegrafikkarte nicht immer das Bottleneck des Systems ist. Die Werte aus dem Benchmark haben mich schon wieder erschaudern lassen, erwartete ich doch, dass die GPU limitiert. Gut, dass ich mich festgehalten hatte. Wir reden hier von einem Unterschied von 45%, was ein Zuwachs von fast der Hälfte ist! Beeindruckend.
GTA FPS Bench.png
Allerdings fallen die min. FPS komisch ab bei der Skylake-CPU. Das konnte ich während meines eigenen Testdurchlaufen nicht bestätigen. Ich hatte hier keine so niedrigen FPS, und das Spielgeschehen wurde zu keinem Zeitpunkt negativ getrügt. Ich vermute, der Anfang der Benchmarksquenz brachte hier diese Werte hervor. Warum, kann ich aber nicht sagen.
Der Stromverbrauch unterscheidet sich auch signifikant. Hier entsteht eine Diskrepanz von 70 Watt.
GTA Strom.png
Die von GTA V gelieferten Werte aus dem Benchmark geben noch weitere Einblicke. So hat der FX bei der Darstellung der Frames unter 16ms, sehr,sehr große Schwierigkeiten. Wir haben hier einen Schnitt von 22%. Soll heißen, die Bilder, die es schaffen, unter 16ms (ein Wert, den Rockstar angibt, um flüssig 60Hz Bildschirme bedienen zu können) dargestellt zu werden, liegen grade mal bei 22%. Auf Intels Seite sieht es mit charmanten 96% dagegen deutlich besser aus.
Der Sieg geht eindeutig an den i7 6700K. Wir haben hier eine deutliche Einsparung von dem, was aus der Steckdose kommt, auf der anderen Seite aber eine deutliche Erhöhung der dargestellten Bilder in der Sekunde.


Batman: Arkham Origins

Um auch einen Teil der beliebten Batman-Spiele in meinem Test wiederzufinden, habe ich mich dazu entschlossen, Arham Origins zu nutzen, da ich "Knight" (noch) nicht besitze. Dieser Titel stellt keine so große Belastung für das System dar, sodass selbst bei höchster Auflösung, die FPS zweistellig bleiben. Um nahezu gleiche Werte zu erhalten, bemühte ich hier wieder einen in das Spiel eingebauten Benchmark, bei dem ich diesmal die durchschnittlichen Bilder pro Sekunde grafisch aufbereitet habe. Beim Stromverbrauch haben wir eine Einsparung von 50 Watt, bei der Verwendung des i7.
Batman FPS.png

Batman Strom.png


The Crew
Der Titel aus dem Hause Ubisoft ist ein reinrassiges Rennspiel mit FPS Cap bei 60. Das ist eigentlich für die Darstellung der Rohleistung suboptimal, aber dennoch aufschlussreich. Für den Test fuhr ich durch verschiedene Städte und Landschaften, um alles soweit wie möglich zu erfassen. So fuhr ich bei maximalen Settings mit dem 6700K bei konstanten 60 FPS durch die Vereinigten Staaten, während der FX auch mal auf 56 als Minimum zurückfiel. Manche würden jetzt denken, dass diese vier Bildchen keinen Unterschied machen. Dem kann ich nur widersprechen. Als geübter Zocker kann ich bereits diese Frameeinbrüche mit bloßem Auge erkennen, das Bild wirkt verschwommen/unscharf bzw. es fühlt sich einfach anders an, unnatürlich (in so Fern man dieses Wort im Zusammenhang mit PC Spielen benutzen kann).
The Crew FPS.png
Viel, viel interessanter gestaltet sich hier der Stromverbrauch. Über das Testergebnis und deren Ursache kann ich nur mutmaßen. Was auf jeden Fall stimmt, sind die Werte. Hier genehmigt sich der FX rund 300 Watt aus der Steckdose, während das Pendant von Intel 370 Watt zieht. Ja , richtig gelesen. Das Intel-Setup zieht mehr Strom. Aber wieso? Nun, ich vermute, dass das Bottleneck CPU die Grafikkarte ausgebremst hat, wodurch beim AMD-Setup nicht das komplette Power Target genutzt wurde. Mit zusätlicher CPU-Power musste die Grafikkarte nichtmehr auf den Prozessor warten, weshalb mehr gearbeitet werden musste, was in einem erhöhten Stromverbrauch endete.
The Crew Strom.png


Star Craft II - Legacy of the Void
Der neuste und letzte Ableger der Star Craft II Serie, ist, wie auch die beiden vorherigen Titel (Wings of Liberty, Heart of the Swarm), ein absoluter Freund von hoher pro Mhz Leistung pro Kern. Dank absolut veralteter Technik und DX9 ist dieses Spiel kein Freund von dem modularen Aufbau der Bulldozer/Vishera/Steamroller-Architektur, und kommt laut Tests renommierter Online- und Print-Zeitschriften nur auf Intel Prozssoren zur Geltung. Mein Eindruck bestätigt das Ganze. Obwohl ich das Gefühl hatte, dass bei LotV mein FX besser belastet wurde, als es bei WoL und HotS, werden dennoch nur 2 Kerne wirklich verwendet, was dazu führt, dass fast eine Verdoppelung der Bildrate beim Upgrade festgestellt wurde. Da die LAst der CPU mit zunehmenden Einheiten ansteigt, habe ich mich für einen Spielstand aus der Kampagne entschieden, damit ich dieses 1:1 replizieren kann. Dabei handelt es sich um den letzten Kampf vor Amons Untergang mit einer großen Armee, allerdings keiner übermäßig riesigen, wie es im Multiplayer oft der Fall ist.
Nachfolgend stelle ich deshalb nur die zusammengefassten Bilder pro Sekunde dar, da ich entsprechende FPS-Drops nicht 1:1 reproduzieren konnte, und das Ergebnis nicht verfälscht werden sollte.
Star Craft FPS.png


Battlefield 4
Battlefield 4 ist laut den aktuellen Berichten deutlich erfolgreicher, als Battlefield Hardline und Star Wars Battlefront zusammen. Grund genug, diesen Shooter ebenfalls zu testen. Die Frostbite Engine, die Battlefield hier verwendet ist dafür bekannt, die vorhandene Hardware bestmöglich auszulasten. Gleichzeitig ist es ein Titel, der in Zusammenarbeit mit AMD entstanden ist. Grund genug, um davon auszugehen, das alles flüssig läuft. Und das tut es auch. In den Ultra-Settings, kann mit im Schnitt 80 FPS gespielt werden, bei der Verwendung von DX11 und nicht Mantle. Im Test spiele ich auf einem 48 Slot Server (Multiplayer) auf der Map "Operation Locker". Während des Spielens ermittele ich die Werte als arithmetisches Mittel.
Mit meiner eben genannten Aussage erwartete ich eigentlich keine FPS-Zuwächse. Die vorherigen Tests lehrten mich aber, immer auf der Hut zu sein, und mich dieses mal am Stuhl festzuketten. Und das aus gutem Grund: Beim Test mit Intels aktueller Top-Skylake-CPU stiegen die Durchschnitts-FPS auf 105! Das ist ein Anstieg von 31,25%. Mit einem solchen Ergebnis habe ich schon wieder nicht gerechnet. Es zeigt aber einmal mehr, dass die AAA-Titel allesamt von Intels aktueller CPU-Architektur profitieren, so auch Battlefield 4.


Battlefield FPS.png

Fazit
Nun das Fazit gestaltet sich sehr umfangreich. Was sagen uns die Werte und Diagramme? Zunächst einmal sehen wir, dass Spiele, die meiner Meinung nach im Grafiklimit hingen, doch deutlich! an Bildern pro Sekunde gewonnen haben, und somit noch weiteres Potential gewonnen wurde. Wir sehen auch, dass es einen Unterschied gibt, zwischen Mainstream und High-End, und, dass der Fortschritt nicht Halt macht. Gleichzeitig habe ich für mich festgetsellt, dass der FX, der mir 4 Jahre lang diente, eine gute Invenstition war, da damals das nötige Kleingeld für einen neuen i5 2500K+Board etc. einfach fehlte, und ich aus der Historie von AM2+ (mit AM3 CPU) auf AM3+ Board und später AM3+ CPU umgestiegen bin. Wie gesagt, alles peu à peu. Deswegen war die Verweundung der AMD-CPU für mich vollkommen lohnend.

Die Leistung des i7 6700K ist beeindruckend. Wie in meinen Tests bzw. Benchmarks zu sehen ist, gewinnt beinahe jedes Spiel an FPS. Vorallem AAA-Titel profitieren deutlich vom Einsatz der neuen CPU.
Die FPS-Zuwächse entstanden sicherlich nicht nur durch Verwendung einer Intel-CPU, sondern auch durch den Plattformwechsel und der Verwendung von PCIe 3.0. Auch wenn diese oft nur einige Prozent an Zugewinn bringt, muss dieses dennoch hier erwähnt werden, da nicht alles auf die CPU zurückzuführen ist.

Was man auch sieht, und das mehr als deutlich, gibt es einen Unterschied bei dem Stromverbrauch. Klar, es handelt sich hier auch um ganz unterschiedliche Architekturen (32nm vs. 14nm). Was auf dem Papier mal deutlich, mal weniger deutlich zu sehen ist, entpuppt sich bei der reinen Spielebetrachtung als eher nebensächlich. Die 30 bis 50 Watt Unterschied von denen wir hier reden, sind in meinen Augen nicht der Rede Wert, beachtet man doch alle Faktoren. Sich also eine neue CPU aus Gründen der Stromrechnung zu holen ist zwar nobel, doch merken tut man da eher weniger was von, sollte man zu den Casual-Gamern gehören. Bei Leuten, die 24/7 Videos rendern, sieht dies allerdings etwas anders aus.

Wie hat sich das Ganze für mich entwickelt: Positiv
Ich bin hochzufrieden über den neuen i7 und den Unterbau mit all den neuen Features, und freue mich über die FPS-Zusätze. Nun muss ich nur noch meine Cents zusammensammeln, um auch eine High-End-Grafikkarte einzubauen :lol:.
Und damit schicke ich meinen treuen FX 8350 in Rente, hat er mir doch jahrelang als treuer Pixelbringer und Rechenknecht gedient! :daumen:

Salut!
 
Zuletzt bearbeitet:
Einstellungen
In diesem Post füge ich Bilder an, bei dem die Grafik-Einstellungen von ein Paar Spielen zu sehen sind. Ich hoffe sie sind erkennbar.
Diese Settings dienen ggf. dazu, das Ganze selber mal zu testen und zu vergleichen, oder als reine Information.
Welches Spiel welches ist, seht ihr beim Draufklicken auf das Bild, und dann unten rechts in der Ecke. Der Bildname verrät das Spiel.
 

Anhänge

  • Star Craft 2 Settings.jpg
    Star Craft 2 Settings.jpg
    2,1 MB · Aufrufe: 460
  • Rome Settings.jpg
    Rome Settings.jpg
    2,2 MB · Aufrufe: 413
  • Batman Settings.jpg
    Batman Settings.jpg
    2,1 MB · Aufrufe: 435
  • Atilla Settings.jpg
    Atilla Settings.jpg
    2,1 MB · Aufrufe: 632
  • GTA V Settings 1.jpg
    GTA V Settings 1.jpg
    2 MB · Aufrufe: 514
  • GTA V Settings 2.jpg
    GTA V Settings 2.jpg
    2,2 MB · Aufrufe: 447
  • GTA V Settings 3.jpg
    GTA V Settings 3.jpg
    2,1 MB · Aufrufe: 402
  • Tomb Raider Settings.jpg
    Tomb Raider Settings.jpg
    2 MB · Aufrufe: 408
Platzhalter
Dieser Bereich ist reserviert für den Nachtest der HD 530, der in der CPU intigirerten Grafikeinheit.
Auf Grund des Fehlers "Ihr System erfüllt nicht die Mindestanforderungen" muss ich auf Fehlersuche gehen.
Ich möchte damit aufzeigen, in wie fern die intigrierte Grafik sinnvoll ist, und ob es z.B. im Multi-Monitorbetrieb zu Einsparungen beim Stromverbrauch führen kann.
In der aktuellen PCGH-Asugabe 06/2016 findet sich ein detaillierter Test darüber, welche Spiele wie schnell auf der iGPU laufen. Bitte schaut doch dort einmal ins Heft.
 
Wuerdest dus denn beim 6700er machen wenn ich dir den Kram schicke?
Brauchst du ggf. nicht. Das von mir verwendete Gerät kann das auch. Die Frage ist, wozu brauchst du die Werte und beötigst du spezielle Werte?
Das kostet ja alles Zeit, vielleicht kann man den Rahmen etwas eingrenzen.
Die Stromstärke wird hier dann aber auch wieder für das Gesamtsystem gemessen.
 
bin zwar auf einen i7 4790k umgestiegen, aber in diversen spielen (bf4 etc.) merkt man eine bessere performance, kann einen umstieg für jeden empfehlen dem die fx 8350 leistung nicht mehr ausreicht... auch wen der 8350 auf 4,5ghz taktet und sein bestes gibt. =)
 
Ein wunderschöner Vergleich, vielen Dank und es zeigt, wie gut der FX heute noch ist. Er kostet die Hälfte eines i7-6700K
In Deinem Vergleich ist es sehr schade, dass Du nur 8GB RAM im FX hattest. Die Herstelleranforderung an ein System für
eine R9-390 sind 16GB RAM, das erklärt vermutlich bei vielen Probleme.


Nachtrag, es sind 8GB RAM Voraussetzung: Mein Fehler, die Unschärfe der Erinnerung ... :what:
http://extreme.pcgameshardware.de/s...r9-390-nitro-tri-x-oc-lags-jedem-spiel-2.html
 
Zuletzt bearbeitet von einem Moderator:
Brauchst du ggf. nicht. Das von mir verwendete Gerät kann das auch. Die Frage ist, wozu brauchst du die Werte und beötigst du spezielle Werte?
Das kostet ja alles Zeit, vielleicht kann man den Rahmen etwas eingrenzen.
Die Stromstärke wird hier dann aber auch wieder für das Gesamtsystem gemessen.
Seit Westmere-EP kann man fuer den Stromverbrauch recht gut Funktionen extrapolieren welche den den Stromverbrauch bzw. die Stromstaerke in Abhaengigkeit vom Takt angeben machen, und das ganze denn graphisch darstellen
Das ging z.B. bei Sandy Bridge sehr gut, da ist der Verbrauch exponentiell gestiegen, dann konnte ich die ganzen Werte logarithmisch in in einen neuen Graph einzeichnen und konnte damit super nachweisen dass das ganze exponentiell steigt
 
Netter Test. Schade das du kein 1866MHZ Speicher für den FX zur Verfügung hattest, denn die werden von AMD Empfohlen und können je nach Software auch mal die Min-FPS um ein bis zwei Frames anheben.

Auch wäre es schön gewesen wenn du den FX noch ein bisschen optimiert hättest wie es fast jeder tut. Zumindest das Deaktivieren des Turbos und anpassung der Vcore nach unten hätte wunder bewirkt bezüglich Leistungsaufnahme

gesendet über Galaxy S4 BE und Tapatalk
 
Du wagst es blau für den fx zu verwenden???
Schande über dich!!!!
Spass bei seite,sehr schöner test!!
Danke!

Gruss Ruby
 
Ein wunderschöner Vergleich, vielen Dank und es zeigt, wie gut der FX heute noch ist. Er kostet die Hälfte eines i7-6700K
In Deinem Vergleich ist es sehr schade, dass Du nur 8GB RAM im FX hattest. Die Herstelleranforderung an ein System für
eine R9-390 sind 16GB RAM, das erklärt vermutlich bei vielen Probleme.

Schön, dass der Test dir gefällt :daumen:
Ja ich bin bisher immer gut mit 8GB klargekommen, nur beim Einsatz von VMs wurds knapp.
Das die 390 16GB RAM vorraussetzt, davon höre ich grade zum ersten Mal :O

Edit: Es wurde editiert, und 8GB sind laut Sapphire die Systemvorrausetzungen ;)

Seit Westmere-EP kann man fuer den Stromverbrauch recht gut Funktionen extrapolieren welche den den Stromverbrauch bzw. die Stromstaerke in Abhaengigkeit vom Takt angeben machen, und das ganze denn graphisch darstellen
Das ging z.B. bei Sandy Bridge sehr gut, da ist der Verbrauch exponentiell gestiegen, dann konnte ich die ganzen Werte logarithmisch in in einen neuen Graph einzeichnen und konnte damit super nachweisen dass das ganze exponentiell steigt

Also hättest du gerne für jeden Benchmark die genauen Amperewerte, richtig?^^

Netter Test. Schade das du kein 1866MHZ Speicher für den FX zur Verfügung hattest, denn die werden von AMD Empfohlen und können je nach Software auch mal die Min-FPS um ein bis zwei Frames anheben.

Auch wäre es schön gewesen wenn du den FX noch ein bisschen optimiert hättest wie es fast jeder tut. Zumindest das Deaktivieren des Turbos und anpassung der Vcore nach unten hätte wunder bewirkt bezüglich Leistungsaufnahme

gesendet über Galaxy S4 BE und Tapatalk


Der turbo wurde deaktiviert, da sonst Bluescreens die Folge waren.
Man nimmt das, was man hat^^

Du wagst es blau für den fx zu verwenden???
Schande über dich!!!!
Spass bei seite,sehr schöner test!!
Danke!

Gruss Ruby


Hey ;)
Jaaa ich weiß, das ist mir auch aufgefallen. Aber erst, als ich bereits 3 Tests fertig hatte. Und naja, der Aufwand, die ganzen Grafiken neu zu basteln... Du kannst dir sicher vorstellen, dass ich da beide Augen zudrücken musste ;)
Danke für das Lob.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet von einem Moderator:
Bei 99 % der spiele bist du doch im gpu limit. Teste mal in 720p und niedrigen details, dann wird das alles schon sehr anders aussehen. Aber ansonsten nette Arbeit.

Gesendet von meinem LG-H955 mit Tapatalk
 
Bei 99 % der spiele bist du doch im gpu limit. Teste mal in 720p und niedrigen details, dann wird das alles schon sehr anders aussehen. Aber ansonsten nette Arbeit.

Gesendet von meinem LG-H955 mit Tapatalk
Ja, jetzt hänge ich zu 100% im GPU Limit. Vorher aber anscheinend nicht. Ich werde/kann nicht mit 720p testen, da der FX nicht wieder irgendwo eingebaut wird.
Danke :daumen:
 
Zurück