AMD Ryzen 7 5800X3D vs. Intel Core i9-12900KS: Wann der L3-Cache hilft - und wann nicht

Kann man das noch offline starten? Falls nicht, würde das wahrscheinlich die Messungen zu stark beeinflussen.

Könnten ja zusammen auf einen Server gehen und z.B. zur selben Zeit die selben Locations besuchen um Leistungsunterschiede darstellebar zu machen. Sollen aber bloß nicht mit 16GB RAM aufkreuzen . :ugly:

Der 3800X3D rockt derzeit das Verse.


Gibt auch eine Telemetry Übersicht wo man das Potential seines PCs im Spiel selber abschätzen kann.
- https://robertsspaceindustries.com/telemetry

Vulkan/Gen12 ist noch nicht voll implemtiert. CIG sieht in der Kernzahl (später) scheinbar einen großen Nutzen.
Die Threadripper stehen allesamt ganz oben.



Viele Grüße,
stolpi
 
Ich denke mir allerdings, dass ein wenig mehr Zurückhaltung angebracht wäre teilweise. Der Ryzen 3D ist nicht die per se schnellste Gaming CPU. Auch die Sache mit dem Verbrauch ist ein wenig nervig, wenn dann nur noch 5800X3D mit dem 12900KS verglichen wird oder behauptet wird, dass ein Alder Lake System mehrere 100 Euro teurer ist. Das muss alles nicht sein meiner Meinung nach.

Zurückhaltung von dir wäre mehr wie angebracht und man merkt auch deutlich, dass du auf cb nicht mehr schreiben darfst...
Jedoch ist auch klar, wäre der Verbrauch bei AMD so hoch, würdest du permanent darauf rumhacken und es geht ja nicht nur um den Mehrverbrauch. Denn mehr Watt erzeugen auch mehr Hitze und gerade im Sommer ist mir ein 5800X3D dann doch lieber, auch wenn er vielleicht nicht überall der schnellste ist, so what.
 
Nein. Das ist es nicht. Ich empfinde die Kritik einfach nur als unpassend, zumindest teilweise. Du bemängelst beispielsweise bei einem Artikel, der "5800X3D vs. 12900KS" im Titel stehen hat
Oha, ich habe sehr stark den Eindruck dass du dir auf den Fuß getreten fühlst. Du wolltest Feedback (siehe deine Einleitung ganz am Anfang) und das habe ich gegeben. Ja gewiss war da manches spitz formuliert, aber Kritik an einer Sache bleibt Kritik an einer Sache. Und ich habe die "Sache" kritisiert, also bitte das Ganze nicht als persönliche Kritik werten. Und ja mein Post ist eher allgemein gerichtet, aber ist letztendlich trotzdem eine Antwort auf deine Frage und könnte auch dem Artikel dienen.
und übersiehst dabei, dass wir einen CPU-Index pflegen, der bis zum Intel Core i7-3770K hinuntergeht. Dann bemängelst du den sehr hohen GPU-Verbrauch von 450 Watt.
Ich bin mit dem CPU Index vertraut. Aber hast du nicht gefragt welche CPU uns in diesem Vergleich noch interessieren würde? Antwort meinerseits war, Vergleiche sind grundsätzlich immer zu begrüßen. Ich habe lediglich keine Modelle explizit aufgeführt.
Und nein, ich habe die 450 Watt nicht kritisiert. Ich habe das widersprüchliche Verhalten mancher Menschen angemahnt.
Zudem sprechen wir bei Prozessoren im CPU-Limit(!) nicht von mageren 17, sondern im Fall des Core i9-12900KS von über 150 Watt Unterschied (zum 5800X3D). Im Effizienz-Index zeigen wir ebenfalls hinunter bis zum Core i7-3770K den Verbrauch unter Spielen und Anwendungen auf, für den Vergleich.
Interessante Aussage, weil ich nichts von CPU Limit gesagt habe, aber jetzt kommen wir so langsam auf den Punkt. Du erklärst oben, wie irrelevant die 450 Watt der 3090Ti ist, da sie kaum jemand hat und man sie ja auch noch optimieren kann. Wie relevant ist denn der Vollgasverbrauch eines 12900KS? Wie viele sind davon im Umlauf und laufen zusätzlich permanent mit Vollgas?
Und jetzt sind wir am Punkt angekommen, wie relevant sind manche Angaben wirklich für den User? Vieles ist aus der Kategorie "nice to know". Der Alltag ist nicht 24/7 Vollgas. Und der Alltag spielt sich auch nicht in 720p ab. Die eine Welt ist das theoretisch Mögliche, die andere Welt ist das praktisch Gegebene.
Genau deshalb vergleichen wir ja nicht nur ein Spiel, sondern gleich 14 und packen sie übersichtlich in eine Benchmark-Tabelle (siehe gleiche Link, wie zum Effizienz-Index oben). Einzelne Vergleiche sind zwar nicht für eine CPU-Kaufberatung gedacht, können aber helfen, spezifische Auslastungsszenarien zu analysieren.
Ja Ihr mittelt die fpW über mehrere Benchmarks, aber dennoch bleibt leider das Grundproblem bestehen, der Systemoutput variiert (Reminder: Theorie und Praxis!). Wie du selbst sagst, hilft "zu analysieren", aber hilft nicht zu vergleichen!
Um Systeme miteinander vergleichen zu können braucht man einen gemeinsamen Bezugspunkt. Man muss sich nur entscheiden ob man den Output oder den Input heranzieht. Kommt letztendlich darauf an was ich betrachten will.
  1. Welche Energiemenge wird benötigt um eine definierte Arbeit zu leisten – fps limit
  2. Wieviel effektive Arbeit wird von einer definierten Energiemenge geleistet – power limit
Aber egal wie, man muss immer einen Mittelweg finden um kein Produkt zu vernachlässigen bzw. zu bevorzugen. Das ist ja letztendlich die Kunst an der Versuchstechnik. Aber am Ende bin ich der Praxis auf diese Weise näher als der Theorie und genau darum geht es doch, praxisnahe Angaben, nicht mehr nicht weniger.
Im Büro verfügen wir über ausreichend Klimageräte und verschiedene Stromstärken sind unabdinglich, wenn man mehr als zehn verschiedene Mainboards und 14 verschiedene CPU-Generationen testet, die alle mit unterschiedlicher TDP-Konfiguration auf den Markt kommen. Wie gesagt, wenn man das möglichst angleicht, hat man einen IPC-Benchmark.
Umgebungsbedingungen sind im allgemeinen Lufttemperatur, Luftdruck und Luftfeuchtigkeit, daher wäre die Aussage das Büro ist klimatisiert völlig ausreichend gewesen.
Wir nutzen in der Regel die leistungsfähigste GPU im Testlabor, damit die GPU-Last nicht zu hoch ausfällt. Letztere ist wiederrum von der Szene, den gewählten Grafikeinstellungen, der Auflösung und dem Zustand des Spiels abhängig und damit sehr variabel. Wir testen ja nicht, wie hoch die GPU-Last ist, wenn wir einen CPU-Benchmark durchführen, während wir dafür sorgen, dass die CPU-Last so hoch wie möglich ausfällt. Welchen Vorteil hast du davon, wenn du in dieser spezifischen Szene die GPU-Last kennst?
Okay hier hätte ich wohl doch etwas mehr ins Detail gehen sollen. Natürlich macht es in dem von dir genannten Scenario keinen Sinn die GPU Last zu nennen, brauchen wir nicht diskutieren. Es macht aber Sinn die CPU Last bei höheren Auflösungen anzugeben, also wenn die GPU im Limit ist. In Kombination mit der Leistungsaufnahme in fpW wäre das eine gute Basis für eine Analyse. Weil wie hast du so schön gesagt:
können aber helfen, spezifische Auslastungsszenarien zu analysieren.
Du bist regelmäßig hier im Form und liest die Kommentare. Dabei ist dir sicherlich aufgefallen, wie manche sich hier die Vollgasverbräuche um die Ohren hauen. Aber mit welchem Sinn? Letztendlich geht es hier doch allen um das selbe, Spaß am zocken. Und ist es nicht eigentlich total egal ob grün, blau oder rot in der Kiste steckt, Hauptsache die Kiste rockt. Stattdessen geht man sich teilweise grundlos an die Gurgel.
Also weiterhin Öl ins Feuer schütten oder die Diskussion mehr in die Richtung von alltagsnahen Szenarien schieben?
 
Hmm war echt lange Zeit nicht wirklich aktiv hier und auf CB. Irgendwie sind viele total toxisch geworden, woran liegt das? Im CB Forum wird mir schummeln unterstellt, weil man Cinebench in Realtime mal gebencht hat vor vielen Jahren etc und hier sieht die Stimmung auch nicht gerade besser aus, was ist denn eigentlich los?
Oh Mensch du armer, jetzt folgen dir diese Typen schon durch andere Foren, siehe unten.
Ich finds auch immer affig. Ich sehe das Forum eigentlich als Ort des Austauschs mit Gleichgesinnten, da muss ich nichts "verifizieren". Wer meine Erfahrungen nicht glaubt, bitte.
Ich wüsste allerdings nicht, warum man dabei überhaupt lügen sollte. Um eine Marke zu verteidigen? Seinen Kauf zu rechtfertigen (bin ich ein schlechterer Mensch weil ich einen Fehlkauf tätigeoO?)?
Ich führe es eher auf die allgemeine Tendenz zur Polarisierung zurück. Überall heisst es ja nur noch, bist du für uns oder gegen uns. Entweder oder, schwarz oder weiss. Wer versucht differenziert an die Dinge zu gehen wird von beiden Ecken niedergebrüllt.

Das ist hier leider nicht anders als im Rest der Medien, des Internets, der Welt.
Es wurde dir nicht unterstellt, es wurde darum gebeten, dass du CX Logfiles hoch lädst, damit man deine Angaben verifizieren kann, (...)
 
Vielleicht interessiert man sich auch einfach für die Daten?

Soll ja tatsächlich Menschen geben, die interessiert die max FPS die ein anderer erreicht nicht, sondern wie diese zustande kommen.

Wie viel wurde dabei verbraucht, wie war die Auslastung usw. mit ein paar Sensoren in einem Handyvideo (die beim über 400 FPS Run übrigens fehlen) gab es gar keine Infos, sondern auch nur wieder Videos, da ist mir ein Log, das ich mir ansehen kann um einiges lieber.

Aber davon ab sollte das nun erledigt sein, Duvar will keine Daten posten, also Thema durch.
 
Zuletzt bearbeitet:
Hmm, dein Video kommt mir komisch vor bezüglich SC2...
sc2-5800x3d-png.1393479

&
5800x3d-starcraft2-jpg.1392947


Ich glaube denen zwei vertraue ich mehr, als deinem unbekannten...
Eigentlich ganz einfach erklärt.
1. unterschiedliche Benchmark Szenen
2. unterschiedliche Settings
 
Hier mal ein Lehrstück @PCGH_Dave, dass massive Spikes im Frametime Graphen P1 eher unberührt lassen. 103 FPS entspricht ja ungefähr 10ms im Graphen.

Das soll übrigens ein Stutter Patch sein. :D Vielleicht haben die Devs gedacht, oh wir sollen ein Stutter Patch machen und haben Stutter eingebaut. :ugly:

1659505694835.png

Source
 
Zuletzt bearbeitet von einem Moderator:
Was mir bei einem anderen bekannten Tester (HUB) aufgefallen ist, der ähnliche Tests gemacht hat allerdings mit 40 Spielen, offenen 12900K mit 6400 Speicher, aber eben 1080p (3090), das es genau auf Pari hinausläuft auch mit dem schnellen Speicher aber eben über 40 Spiele.
Die Meta Analyse des 3DC sieht den 12900KS minimal vor dem 5800X3D.
Mit RAM OC kann es daher keinen Gleichstand geben, da ist der 12900K(S) einfach Stück schneller.

Wer sich wirklich für diese CPUs interessiert ausschließlich für Gaming, abseits von Workloads, sollte sich sehr genau anschauen wie welcher Prozessor mit "seinen" Spielen performt und trotzdem ist es zukunftsmäßig eher wie Lotto spielen
Es wundert mich enorm, dass noch niemand mit den vielen Kernen des 12900K argumentiert hat.
Denn einen Vorteil bringen die hier und da ja doch.

Mein grundsätzliches Problem mit der aktuellen Stimmungslage der Tech Community ist....
Die Stimmungslage ist so: Moar Cores? Spielen keine Rolle. Leistung? Ach, spielt keine Rolle
Jetzt geht es nur noch um Effizienz und Preis. Als AMD CPUs teuer waren hieß es, die sind ihren Preis wert.
Alder Lake sind verdammt gute CPUs und overall besser als das AMD Angebot, nur fällt es schwer das zuzugeben.
Früher durfte man niemals nicht einen 7700K zum Zocken empfehlen, weil fehlende Kerne und so, heute wird der 5800X3D dafür nicht beworben und die bloße Erwähnung der Schwachen Anwendungsleistung ist schon Gotteslästerung. So ändern sich die Prioriäten.
 
Zuletzt bearbeitet:
Die Meta Analyse des 3DC sieht den 12900KS minimal vor dem 5800X3D.
Mit RAM OC kann es daher keinen Gleichstand geben, da ist der 12900K(S) einfach Stück schneller.
Man kann über so etwas nur so laut lachen, weil jedes Kind versteht das nur ihr nicht!
Bei den Metaanalysen des 3DCenter ist die Spieleauswahl immer mitentscheidend, bei HUB sind es 40 Spiele.
Da ja Zero Mathematiker ist, nehme ich an das er Wahrscheinlichkeiten und Statistik beherrscht, anscheinend einige andere nicht, und er wohl nur dann wenn er will.
Eine Stichprobe aus 40 ist immer Aussagekräftiger als eine oder verschiedene Stichproben aus 8,10,12 etc.
Aber wahrscheinlich ist das in der blauen Wolke anders.
 
Die Stimmungslage ist so: Moar Cores? Spielen keine Rolle. Leistung? Ach, spielt keine Rolle
Jetzt geht es nur noch um Effizienz und Preis. Als AMD CPUs teuer waren hieß es, die sind ihren Preis wert.
Alder Lake sind verdammt gute CPUs und overall besser als das AMD Angebot, nur fällt es schwer das zuzugeben.
Hat auch immer weniger mit Rationalität zu tun. Schau dir die Umfragen bei ComputerBase an. Selbst nüchtern betrachtet, liegt ein massiver Bias Richtung AMD vor. Intel ist halt unsympathisch in den Augen der Leute, da können die Produkte noch so gut sein.

Ich meine, klar, beide machen gute CPUs (auch wenn ich persönlich eher Pech mit Ryzens habe), aber die Entwicklung hat man ja schon gesehen: hohe Preise bei AMD anfänglich bei Zen 3, das untere Segment komplett vernachlässigt zugunsten der Margen. AMD ist halt nicht der gute Samariter.

Ich bewundere die Arbeit der Ingenieure, bin ja selbst einer, aber die Community ist mitunter sehr nervig. Da kommen Tendenzen in einem hoch, dass AMD auf den Deckel kriegt vom Wettbewerb. Intel fällt ja raus, aber Nvidia könnte den Job übernehmen. ^^ So im Sinne einer gewissen Läuterung könnte es zuträglich sein, wenn RDNA 3 von Ada so richtig weggeputzt wird. ;-)

Eine Stichprobe aus 40 ist immer Aussagekräftiger als eine oder verschiedene Stichproben aus 8,10,12 etc.
Eigentlich ist eine solche Kombination aus vielen Testern (unabhängige Stichproben) mit ca. 10 Titeln im Mittel besser als wenn ein Tester 40 Spiele testest, weil Fehlerquellen dadurch verstärkt werden können. Eine solche "Fehlerquelle" ist übrigens die bereits erwähnte GPU-Limitierung.

HUBs Alder Lake Launch Review bespielsweise war dermaßen weit weg vom Mittelwert der Metaanalyse, dass das 3DCenter zu den Lows greifen musste, damit das überhaupt aufgenommen werden konnte.
 
Zuletzt bearbeitet von einem Moderator:
Bei den Metaanalysen des 3DCenter ist die Spieleauswahl immer mitentscheidend, bei HUB sind es 40 Spiele.
Der kann auch 100 Spiele nehmen. Wenn er die Auflösung nicht passend für einen CPU Tests auf das Minimum begrenzt, wird daraus nichts, oder denkst du, dass CB und PCGH falsch messen?
Eine Stichprobe aus 40 ist immer Aussagekräftiger als eine oder verschiedene Stichproben aus 8,10,12 etc.
Aber wahrscheinlich ist das in der blauen Wolke anders.
Hast du nicht vorhin selbst bestätigt, dass HUB im GPU Limit misst? =)
Der 5800x3D ist 10 bis 15% langsamer als ein ausgefahrener 12900K, deal with it, bei den 1% lows gehts Richtung 20%.

So im Sinne einer gewissen Läuterung könnte es zuträglich sein, wenn RDNA 3 von Ada so richtig weggeputzt wird. ;-)
Die Zeichen stehen sehr gut, dass das eintritt. Lovelace scheint wohl doch der berüchtigte Mega Fail in den Fußstapfen von Fermi.
 
Glaub doch was du willst, ist mir scheißegal, wer meint das bei 40 Spielen 40 im GPU Limit gemessen wurden statt vielleicht 5, will eh nur seine Bias durchsetzen.

Derweil feier Ich die Zahlen von AMD gestern, übrigens mit Aussicht auf gleichbleidenden Umsatz, wie war das doch gleich bei Intel letzte Woche?
 
Ich bewundere die Arbeit der Ingenieure, bin ja selbst einer, aber die Community ist mitunter sehr nervig. Da kommen Tendenzen in einem hoch, dass AMD auf den Deckel kriegt vom Wettbewerb. Intel fällt ja raus, aber Nvidia könnte den Job übernehmen. ^^ So im Sinne einer gewissen Läuterung könnte es zuträglich sein, wenn RDNA 3 von Ada so richtig weggeputzt wird.
Rofl, mal ganz abgesehen davon, dass das gleiche Geschwätz ist, bevor RDNA 2 auf den Markt kam, sage ich das gleiche, was ich auch damals gesagt habe, Nvidia drischt seine Karten nicht freiwillig auf 450 Watt und höher, wenn es keine Konkurrenz hätte, das war bei RDNA 2 genau das gleiche.
Und übrigens, die Welt verändert sich, damit der Markt und auch wieviel Geld die Masse Kunden in ihr Hobby stecken.
Ich bin mir ziemlich sicher das 400 Watt Karten weder einen guten Stand am Markt haben, noch zukünftig reichlich Abnehmer finden, aber da kann ja jeder anderer Überzeugung sein!
 
Rofl, mal ganz abgesehen davon, dass das gleiche Geschwätz ist, bevor RDNA 2 auf den Markt kam, sage ich das gleiche, was ich auch damals gesagt habe, Nvidia drischt seine Karten nicht freiwillig auf 450 Watt und höher, wenn es keine Konkurrenz hätte, das war bei RDNA 2 genau das gleiche.
Warten wir erstmal ab. Im Moment sind es 375W AMD vs. 450W Nvidia laut den Gerüchten. Sooo groß ist der Unterschied jetzt nicht.
Und übrigens, die Welt verändert sich, damit der Markt und auch wieviel Geld die Masse Kunden in ihr Hobby stecken.
Ich bin mir ziemlich sicher das 400 Watt Karten weder einen guten Stand am Markt haben, noch zukünftig reichlich Abnehmer finden, aber da kann ja jeder anderer Überzeugung sein!
Es geht ja auch nur um die Balken der Topmodelle. Wenn Nvidia mit der RTX 4090 Ti 30% vorne liegt (nur mal so als Bespiel), würde das das Gesamtimage von RDNA 3 ordentlich stutzen.
 
Es geht ja auch nur um die Balken der Topmodelle. Wenn Nvidia mit der RTX 4090 Ti 30% vorne liegt (nur mal so als Bespiel), würde das das Gesamtimage von RDNA 3 ordentlich stutzen.
Das gleiche wurde vor RDNA 2 auch kolportiert, der Spruch der Monate, höchsten 2080 TI Leistung, wenn überhaupt!
Was daraus geworden ist wissen wir alle!
 
Hier mal ein Lehrstück @PCGH_Dave, dass massive Spikes im Frametime Graphen P1 eher unberührt lassen. 100 FPS entspricht ja ungefähr 10ms im Graphen.

Das soll übrigens ein Stutter Patch sein. :D Vielleicht haben die Devs gedacht, oh wir sollen ein Stutter Patch machen und haben Stutter eingebaut. :ugly:

Anhang anzeigen 1399733
Source
Man muss beachten, dass Werte kleiner als P1 massiv durch die (manuelle) Ausführung der Messung beeinflusst werden. Man benötigt schon eine sehr hohe Konsistenz bei der Ausführung um aussagekräftige Werte zu erhalten.
 
Das gleiche wurde vor RDNA 2 auch kolportiert, der Spruch der Monate, höchsten 2080 TI Leistung, wenn überhaupt!
Was daraus geworden ist wissen wir alle!
Aber diesmal lässt sich Nvidia nicht kalt erwischen mit so einem Kindergarten Sparbrötchen Paket wie Ampere. Nvidia hat die Lektion, dass man AMD nicht unterschätzen sollte schneller gelernt als Intel mit ihrem Rückspiegel Blödsinn. Was für eine dumme dumme Arroganz. :schief:
 
Aber diesmal lässt sich Nvidia nicht kalt erwischen mit so einem Kindergarten Sparbrötchen Paket wie Ampere. Nvidia hat die Lektion, dass man AMD nicht unterschätzen sollte schneller gelernt als Intel mit ihrem Rückspiegel Blödsinn. Was für eine dumme dumme Arroganz. :schief:
Ja deshalb prügelt Nvidia seine neue Generation auf 450 Watt Leistungsaufnahme, weil sie sich so sicher sind AMD und RDNA 3 im Griff zu haben!
Geht es eigentlich bei euch noch, das ihr wirklich schon so in der Blase gefangen seit, das offensichtliche Sachen nicht auffallen?
Ich meine schon dein Spruch der Unterschied zwischen 375 Watt und 450 Watt ist ja nicht sooo groß. Soll ich mal Beiträge zur Zeiten einer 1070 und 1080 im Vergleich zur Vega heraussuchen? Und bei der Vega konnte man mit Undervolting und Senkung der Leistungsaufnahme noch Mehrleistung generieren, trotzdem wurde von allen ihr Verbrauch als No Go bezeichnet, obwohl man auf 20-30 Watt an die Nvidias herankam. Aber geschenkt.
Wie bei RDNA 2 lehne ich mich zurück und wir sprechen uns dann nach dem Launch wieder, im Grunde genommen, sind diese Debatten hier nur verschwendete Lebenszeit, weil einigen werden wir uns sowieso nie.
^^ So im Sinne einer gewissen Läuterung könnte es zuträglich sein, wenn RDNA 3 von Ada so richtig weggeputzt wird
Wenn ich schon höre AMD braucht eine Läuterung, dann fasse ich mir nur an den Kopf, weil durch AMD haben wir überhaupt erst wieder Konkurrenz und mittlerweile wieder ein kerngesundes Unternehmen für die Zukunft, aber sie brauchen eine Läuterung, man kann da nur fassungslos werden!
 
Zuletzt bearbeitet:
Wenn ich schon höre AMD braucht eine Läuterung
Nein, so Leute wie dich meine ich damit. AMD ist mir relativ egal, was sich im Grunde nur dann ändern würde, wenn ich für den Konzern arbeiten würde.

Ja deshalb prügelt Nvidia seine neue Generation auf 450 Watt Leistungsaufnahme, weil sie sich so sicher sind AMD und RDNA 3 im Griff zu haben!
Kann auch beudeuten, dass sie AMD diesmal deutlich abhängen wollen. Mal Raffs Benchmarks abwarten. ^^
 
Zurück