AMD vs Intel: Ryzen im Preisvergleich wieder vorne, weiterhin kein Preisverfall

Stimmt, wir haben ja auch nur Cyberpunk verglichen. Die anderen Titel werden einfach mal direkt unterschlagen?!
Cyberpunk war soweit ich es jetzt sehen konnte, in eurem alten Test gar nicht dabei.
Und beim nächsten Mal wäre es nett uns wenigstens zu markieren, damit wir wenigstens wissen wenn mal wieder irgendein Quatsch erzählt wird
Stimmt, ich habe leider nicht an das @ vorm Namen gedacht.

Es geht mir eher darum, ihr bzw. eher du hattest mit diesem Test angefangen.

Vergleich: 10900OK OC vs 5900X OC Veröffentlich am 14. November 2020
Das Duell der Giganten Veröffentlich am 17. November 2020

Deine Aussage zum Test:
Insgesamt sieht man das Intel prozentual deutlich stärker von gut optimierten Ram profitiert, wobei man natürlich nicht vergessen darf, das beim 10900K fast kein Potenzial mehr auf der Straße liegt, während der 5900X mit den kommenden Bios Updates noch etwas zulegen dürfte. Spätestens wenn 2000MHz IF Takt möglich sind.
das Ergebnis von capframex.com
Rein von den Zahlen her hat AMD nicht nur aufgeholt, sondern sogar überholt. Das ist bemerkenswert, denn das Chiplet-Design bringt gewisse Nachteile bezüglich der Latenzen mit sich. Das hält den 5900X nicht davon ab den ehemaligen Gaming-König 10900k vom Thron zu stoßen. Gratulation AMD!
Das hier verwendete Intel-System wurde sehr straff übertaktet. Das betrifft nicht nur den Kerntakt, sondern auch Cache, Speicher-Timings und sogar RTL-Werte. Letztlich ist das System ein sehr harter Gegner für den Ryzen, der sich dennoch behaupten konnten. Dabei wurde nicht einmal das volle Potential ausgeschöpft. Dinge wie Curve Optimizer standen zum Zeitpunkt des Testes nicht zur Verfügung. Auch konnte der IF nicht jenseits von 1900MHz betrieben werden, was kommende BIOS Updates sicherlich ermöglichen werden. Hier liegt also noch Potential brach.

Was hast du gesehen? Der Ryzen konnte ja auch nicht voll ausgefahren werden. Es fehlt schlicht ein ordentliches BIOS von Gigabyte. Am harten OC-Limit nehmen sich beide CPUs nicht wirklich was. Selbst wenn sich das am Ende um 2-3% verschiebt*, das ist Pillepalle. Stock ist der Ryzen signifikant stärker.

*Dann nimmt man halt den 5950X mit SMT off, zack, gleicht sich das wieder aus.
Du kannst dir gerne noch 2 bis 3% auf den 10900K drauf rechnen, weil deiner mit 5,2GHz taktet, aber das verschiebt das Ganze nicht signifikant.

Das größte Problem für den 5900X ist aktuell das katastrophale Gigabyte Bios.
Wir sind zwar sehr OT mittlerweile, sorry Mods, aber noch kurz dazu. Selbst mit den Gammel-BIOSen halten die 5000er Ryzens mit getunten Comet Lakes mit. Aber dann ist da ja noch die signifikant höhere Singelcore- und Multicore-Leistung. Die verputzen alles, was es von Intel gibt zum Frühstück. Sogar mein VS läuft jetzt wie Schmidt's Katze... :D

Effizienter sind die Spielen aber nicht. Ich denke, dass Igors Messungen irgendwie schief gelaufen sind. Ansonsten müssten ja sämtliche Anbieter falsche Werte auslesen, nicht nur CX. Und sämtliche Boards müssten falsche Werte an die CPUs melden, welche dann über die MSR-Schnittstelle ausgelesen werden.
Noch als Info, denn der gute @RtZk zeigt sich da ein wenig unbeirrbar, der Ryzen war auch nicht maximal übertaktet in dem Test.
Der ganze Thread ist allgemein sehr Interessant, weil ihr beide da gegen zwei Leute mit ebenfalls sehr viel Erfahrung mit CPUs von Intel argumentiert. Call of Duty Black Ops Cold War im Benchmark

Darüber welche CPU schneller ist lässt sich hervorragend streiten. Ich/wir haben auch schon einen Vergleich zwischen einem optimierten 10900K und einem optimierten 5900X gemacht: CapFrameX - Das Duell der Giganten - Blog
Dort waren die beiden gleich auf. Beim 10900K lag da allerdings noch gut Potenzial offen wenn man sich die Zeit nimmt und auch sehr viel Geld und Zeit in Ram Tuning investiert. Mit dem alten Setting lief die CPU mit 5GHz und der RAM mit 4133-C17. Jetzt läuft der 10900K auf 5,2GHz und der RAM mit 4400-C16, in beiden Fällen 24/7 stable. Klar hat das viel Zeit und Geld gekostet, aber es ist halt möglich. Sobald von AMD/Gigabyte ein vernünftiges Bios kommt mit dem ich dem 5900X richtig Beine machen kommt dann auch ein Follow up Artikel. Vorweg kann ich aber schon mal sagen das es ein Kopf ein Kopf Rennen ist. Mit den aktuellen Bedingungen und den damit einhergehenden Restriktionen auf der AMD Seite ist der 10900K "klar" schneller. Du kannst in Spielen auf mein altes Setting ca 10% im Schnitt draufrechnen. Da muss sich also beim 5900X noch was tun damit der da hinterher kommt.

Ganz so trivial ist das Thema nicht. Out Of The Box ist Zen 3 definitiv „deutlich“ schneller als Comet Lake, wenn man aber beide manuell an ihre Grenzen bringt dreht sich das Verhältnis wieder.
Bei Comet Lake kann man in Spielen grob 30 bis 40%, in Ausnahmen sogar noch mehr, rausholen, während es bei Zen 3 im besten Fall 15% sind. Das reicht für Comet Lake aus um die Lücke wieder zu schließen. Zen 2 hingegen ist in Spielen hoffnungslos abgeschlagen.

Anwendungen hingegen sind ein ganz anderes Thema. Da hat Comet Lake, außer in sehr speziellen Sonderfällen, gar nichts zu melden und wird schon von Zen 2 abgehängt.

1. Beim Ryzen lässt sich absolut nichts am Takt machen, der Boost arbeitet extrem aggressiv und taktet extrem aggressiv. Beim Intel habe ich hingegen ein relativ konservatives Setting gewählt, ich hätte den auch ohne Probleme mit 5,2Ghz laufen lassen können und beim Ram geht auch noch mehr, wie du an den neueren Ergebnissen siehst.

2. Ich habe eine sehr starke Wasserkühlung, d.h. die CPUs heizen sich während der Tests vllt im 2 Grad auf.

3. Wie bereits unter 1 beschrieben gibt es da nichts zu übertakten. 4,6Ghz wäre in allen getesteten Spielen bereits weniger als Stock gewesen. Es gibt kein Szenario wie die CPU mit weniger als 4,7Ghz boostet.

Das alle wirkte als Außenstehender doch sehr merkwürdig, vor allem wenn der CapFrameX Twitteraccount das Spiel als "the most important title in 2020/21" betitelt. @gaussmath war im den Thread zum Spiel auch sehr aktiv, genauso wie der Twitteraccount von CapFrameX, der einige Benchmarks gepostet hat. Innerhalb von einem Monat wird das ganze Ergebnis gedreht. Habt ihr da jemals einen Nachtest gemacht mit den neuen Settings bzw. irgendetwas veröffentlich oder seit ihr dann nur noch mit der Aussage so im Forum aufgetreten?

Edit: Ich bezweifle eure vermeidlichen Ergebnisse da auch nicht, mit großer Wahrscheinlichkeit wäre das Ergebnis so.

Am Ende ist mittlerweile auch egal, da die letzten beiden Intel Generationen sind bzw. waren schneller als die aktuellen CPUs von AMD, Wenn ich mir so den Dialog im Call of Duty Test genauer anschaue, hat euch wahrscheinlich einer der Beiden in den Arsch getreten (umgangssprachlich für angespornt) und dann hat @blautemple mit viel Geld/Zeit Einsatz das letzte Stück Leistung aus der CPU rausgeholt.

 
Zuletzt bearbeitet:
Cyberpunk war soweit ich es jetzt sehen konnte, in eurem alten Test gar nicht dabei.
Ne stimmt, CP 2077 hatten wir im "Duell der Giganten" Blog gar nicht drin. @blautemple warum eigentlich nicht? CP war im November schon released.

Jedenfalls liegen ein getunter 10900K und ein getunter 5900X sehr eng zusammen. Die Unterschiede sind kaum der Rede Wert. Im Mittel wohlbemerkt, es gibt auf beiden Seiten Ausnahnmen, CP 2077 ist eine davon. Aber was ist daran jetzt so ungwöhnlich? :confused: Ich verstehe die Motivation hinter der Diskusssion nicht so ganz.
 
Am Ende ist mittlerweile auch egal, da die letzten beiden Intel Generationen sind bzw. waren schneller als die aktuellen CPUs von AMD, Wenn ich mir so den Dialog im Call of Duty Test genauer anschaue, hat euch wahrscheinlich einer der Beiden in den Arsch getreten (umgangssprachlich für angespornt) und dann hat @blautemple mit viel Geld/Zeit Einsatz das letzte Stück Leistung aus der CPU rausgeholt.
Bitte was? Wer soll mir „in den Arsch getreten haben“?

Die Ergebnisse stehen in den Artikeln und zu den Ergebnissen stehe ich auch. Wenn die dir nicht passen ist das nicht mein Problem, aber eine Sache kann ich dir garantieren, gezwungen hat mich niemand zu irgendwas. Ich habe das freiwillig gemacht weil sowas mein Hobby ist und die Hardware habe ich komplett selbst gezahlt, allerdings ist genauso toxisches Feedback der Grund warum ich das mittlerweile quasi völlig aufgegeben habe. Man denkt man hat interessante Ergebnisse die es so in der Form nirgendwo anders gibt und als einziges Feedback kommen Vorwürfe. Da ist mir meine knappe Zeit dann doch zu schade für.

@gaussmath
Wir wollten damals noch den ein oder anderen Patch abwarten weil noch eine kleine Hoffnung bestand das die Performance besser wird.
 
Ich habe das freiwillig gemacht weil sowas mein Hobby ist und die Hardware habe ich komplett selbst gezahlt, allerdings ist genauso toxisches Feedback der Grund warum ich das mittlerweile quasi völlig aufgegeben habe. Man denkt man hat interessante Ergebnisse die es so in der Form nirgendwo anders gibt und als einziges Feedback kommen Vorwürfe. Da ist mir meine knappe Zeit dann doch zu schade für.
Du hast doch nicht etwa Anerkennung dafür erwartet? :D Ich meine, du kannst froh sein, wenn du nicht beleidigt und nicht mit Verschwörungstheorien niedergeknüppelt wirst.
 
Du hast einfach nicht verstanden, dass Intel mehr Leistung erbringt und in deiner Rechnung dann mehr kosten und verbrauchen darf.
NEIN, Du hast es NICHT verstanden.
Mir (und dem ein oder anderen) ist eine CPU "lieber", jene z.B. 170 FPS bei 140 Watt liefert, als eine 187 FPS bei 240 Watt (bzgl. unbedingt den Längsten, egal wie) und dabei in etwa gleich kostet (+/-).
Verstanden ??
Sicherlich nicht, da allein Dein Beispiel mit den "5 FPS mehr" in Anno mit 15 vs. 20 FPS "Bände" spricht ... :nene:

MfG Föhn.
 
NEIN, Du hast es NICHT verstanden.

Du hast es nicht kapiert und willst das irgendwie nicht einsehen.

Mir (und dem ein oder anderen) ist eine CPU "lieber", jene z.B. 170 FPS bei 140 Watt liefert, als eine 187 FPS bei 240 Watt (bzgl. unbedingt den Längsten, egal wie) und dabei in etwa gleich kostet (+/-).

Dir und ein paar anderen. Der entscheidende Punkt: du bist kein Maßstab. Die Mehrheit ist es und der ist es eben relativ egal, bzw. die allermeisten wissen nichts davon. Deshalb kratzt Intel das letzte bisschen Leistung heraus und deshalb ist es auch keine goldene Regel (eher so eine Art kupferne). Angefangen, mit dem Erfolgsrezept, hat ATI, deren HD 4870 sich 180W genehmigen konnte, obwohl sie eine TDP von 150W hatte. Seither wurde es auf die Spitze getrieben.

BTW: es sind, bei Spielen, eben nicht 140W gegen 240W, sondern eher 80W gegen 100W.


Du hast nicht verstanden, worum es mir die ganze Zeit ging.

Sicherlich nicht, da allein Dein Beispiel mit den "5 FPS mehr" in Anno mit 15 vs. 20 FPS "Bände" spricht ... :nene:

Das kommt dabei heraus, wenn man bei 33% Leistungsvorteil 5FPS mehr hat. Wer rechnen kann ist klar im Vorteil. Gib dich einfach zu, wenn du mit deinem Beispiel daneben lagst.
 
Dir und ein paar anderen. Der entscheidende Punkt: du bist kein Maßstab. Die Mehrheit ist es und der ist es eben relativ egal, bzw. die allermeisten wissen nichts davon. Deshalb kratzt Intel das letzte bisschen Leistung heraus und deshalb ist es auch keine goldene Regel (eher so eine Art kupferne). Angefangen, mit dem Erfolgsrezept, hat ATI, deren HD 4870 sich 180W genehmigen konnte, obwohl sie eine TDP von 150W hatte. Seither wurde es auf die Spitze getrieben.
Ja schön, aber verkaufen dabei keine CPUs auf dem Retailmarkt, dass hast du irgendwie noch nicht gepeilt, ADL ist alles andere, als das was sich Mainboardhersteller und Reseller davon versprochen haben! Liegt laut seriösen Angaben von Grosshändlern und Resellern eher im Regal, als das daran Geld verdient wird.

Die Anno Platte muss doch schon einen Sprung haben, so oft wie du sie dudelst!
 
Zurück