Special AMD Ryzen 5 7500F im Test: Der Sockel AM5 ist auch "unten herum" spannend

Du, bei den Nur kommt halt von den Intel-igenten Foristen gerne mal das "ABER INTEL VERBRAUCHT NUR IN GAMES MEHR UND AMD IM IDLE; DAS IST VIEL SCHLIMMER!?!?!11!!". Und das hing mir halt auch ein bisschen zum Hals raus :)
Hat aber niemand behauptet.
Tja, ich arbeite hoffnungslos transparent und professionell, entschuldige bitte :streit:
Hatte einen guten Meister (Raff).
Nur ein einziges Spiel zu verwenden um die Leistungsaufnahme der CPUs im GPU Limit zu vermessen, welches bekanntermaßen für Intel CPUs den absoluten worst case darstellt ist nicht professionell. Besser wäre es diese Metrik komplett aus dem Test zu streichen und Erklärungen anzubieten, warum Intel so flott ist, bzw. warum zwischen 13700K und dem 14900K quasi Gleichstand besteht und das bei den alten Messungen nicht der Fall war.

An deiner Schweigsamkeit im Fließtext zu Intels Stärke merkt man direkt, wie es dich wurmt. Hätte AMD so einen Sprung gemacht, würde hier gefeiert werden. ;)
Ist das der Grund warum Cyberpunk das einzige Spiel mit Leistungsaufnahme im GPU Limit ist? 😅
 
Zuletzt bearbeitet:
Wenn ich die Leistungsaufnahme einer CPU analysiere nehme ich idR. mehr als ein einziges worst Case Spiel.
Warum? Worst - Case macht als einziges Sinn. Daher werden Benchmarks (also gute Benchmarks) auch an den fürs System härtesten zu verarbeiteten Stelle gemacht, um das Worst Case aufzuzeigen. Bringt dir ja nix, wenn du im Prolog von Game A 100 FPS hast und im Wald von Akt 2 30. Und genauso bringts dir ja nix zu wissen, dass bei einem Spiel wie Brotato die Intel-CPU 50 Watt verbraucht im Vergleich zu den 35 Watt von der AMD - CPU - da jeder bereits weiß, das ist irrelevant. Wichtig ist der "bis zu" Wert. Was kann ich realistisch als Worst Case sehen und davon ausgehen, bei allen anderen Games ist es besser.

warum Intel so flott ist, bzw. warum zwischen 13700K und dem 14900K quasi Gleichstand besteht und das bei den alten Messungen nicht der Fall war.
Intel ist nicht flotter geworden, die Spieleauswahl hat sich geändert. Wie jeder (außer dir scheinbar) gibt es Games, die Intel besser liegen und Games, die AMD besser liegen. Und manche Games liegen (warum auch immer?!) der 13th Gen besser als der 14th Gen (X4 steht hier als Beispiel im Test).
Dadurch schließt sich im Mittel der Kreis und erklärt die Ergebnisse.
Natürlich kann es jetzt sein, dass die Daten bei X4 in der Bench-Tabelle vertauscht wurden, sowas kann vorkommen. Aber dann kann man das auch ansprechen, ohne direkt Leuten zu unterstellen, Intelhasser zu sein und voreingenommen. Aber naja, zu der Erkenntnis kommst du bestimmt auch irgendwann.
 
Zuletzt bearbeitet:
Was hier schon wieder los ist. Na, dann wollen wir mal. :kaffee:
Und auch so ziemlich das einzige, in dem die Intel CPUs im GPU Limit richtig Strom ziehen, grundsätzlich reagieren die CPUs völlig anders.

Na klar ist AMD auch im GPU Limit deutlich sparsamer.
So große Unterschiede kann ich aber nicht ermitteln.
Weder bei Gesamtsystem Messungen noch mit der Software.
Hast du denn eigene Untersuchen mit vergleichbaren AMD- und Intel-Prozessoren durchgeführt? Dann zeige mir die bitte. Ansonsten gehört Cyberpunk 2077 zwar zu den Spielen im neuen Testparcours, die CPUs eine höhere Leistungsaufnahme entlocken als andere, aber der Worst Case ist das nicht.
Respekt für die Fleißarbeit wie lange sitzt man an so einem Test und die Doku dazu.
Also den "Test", sprich den Artikel an sich habe ich an einem (langen) Arbeitstag gebaut. Aber die Daten zu sammeln und auszuwerten, hat mehrere Monate gedauert, weil dahinter noch viel mehr steckt, als nur Benchmarks durchzuführen. ;)
Nur ein einziges Spiel zu verwenden um die Leistungsaufnahme der CPUs im GPU Limit zu vermessen, welches bekanntermaßen für Intel CPUs den absoluten worst case darstellt ist nicht professionell.
Hast du Nachweise dafür, dass es sich bei Cyberpunk 2077 um einen "absoluten Worst Case" für Intel-Prozessoren handelt? Ich finde sogar, dass Intel-CPUs (bereits seit Release) außerordentlich gut mit der REDengine 4 skalieren. Soll ich lieber ein Spiel nehmen, das gar nicht mit den Stärken von Prozessoren skaliert, Tetris, Harvest Moon oder so?
Besser wäre es diese Metrik komplett aus dem Test zu streichen und Erklärungen anzubieten, warum Intel so flott ist, bzw. warum zwischen 13700K und dem 14900K quasi Gleichstand besteht und das bei den alten Messungen nicht der Fall war.
Das hat Drayygo schon korrekt erklärt: Keine CPU ist "schneller" oder "langsamer" geworden: Die Testbedingungen haben sich geändert! Du kannst aktuelle Zahlen aus dem neuen Parcours nicht mit den Zahlen aus dem alten Parcours vergleichen, das ist schlicht nicht möglich. Das wäre, als würdest du Rundenzeiten von verschiedenen Strecken vergleichen und dann versuchen Aussagen darüber zu treffen, welches Fahrzeug schneller war und warum. Ich werde daher nicht weiter darauf eingehen.
An deiner Schweigsamkeit im Fließtext zu Intels Stärke merkt man direkt, wie es dich wurmt. Hätte AMD so einen Sprung gemacht, würde hier gefeiert werden. ;)
Ich habe eher den Eindruck, dass es dich wurmt, dass Intel auch im GPU-Limit so eine hohe Leistungsaufnahme aufweist. Darüber mokierst du dich zumindest am meisten. Für mich sind das einfach nur Zahlen, ich habe beruflich weder eine Vorliebe für AMD, noch für Intel, noch für die 80 anderen Herstellern, mit denen ich zusammen arbeite. Ich werte nur nach den Zahlen, die ich festhalte. Verwechsle also bitte nicht meine privaten Vorlieben mit meinen beruflichen Arbeiten, danke.
Ist das der Grund warum Cyberpunk das einzige Spiel mit Leistungsaufnahme im GPU Limit ist? 😅
Die Gründe wurden bereits im Verlauf der Diskussion angesprochen.
Intel ist nicht flotter geworden, die Spieleauswahl hat sich geändert. Wie jeder (außer dir scheinbar) gibt es Games, die Intel besser liegen und Games, die AMD besser liegen. Und manche Games liegen (warum auch immer?!) der 13th Gen besser als der 14th Gen (X4 steht hier als Beispiel im Test).
Warum ein i9-13900K manchmal schneller als ein i9-14900K ist, lässt sich an der Serienstreuung und dem absolut unpassend gewählten Current Limit der RKL-R-CPU erklären. Die Kerne des 14er takten so hoch, dass sie kurzzeitig ans Limit stoßen und dann heruntertakten müssen, was Leistung kostet. Das habe ich auch schon beim i9-13900KS beobachtet, kein Wunder, ist ja praktisch die gleiche CPU. Intel pocht darauf, dass die Tester mit offenem Limit testen, aber das ist nicht gemäß der Spezifikation. Kurz: Ich lasse mich nicht verarschen und zeige auf, wie sich die Prozessoren tatsächlich unter Last verhalten, wenn man sie so betreibt, wie der Hersteller es auf der Produktseite angibt.

Für alle, die brav bis hier hin gelesen haben, habe ich noch eine erfreuliche Nachricht: Ich werde sogleich die Daten des 5800X3D in den Artikel eingeben. In etwa 20 Minuten dürft ihr diese also auch vergleichen. :-)
 
Zuletzt bearbeitet:
Nur ein einziges Spiel zu verwenden um die Leistungsaufnahme der CPUs im GPU Limit zu vermessen, welches bekanntermaßen für Intel CPUs den absoluten worst case darstellt ist nicht professionell. Besser wäre es diese Metrik komplett aus dem Test zu streichen und Erklärungen anzubieten, warum Intel so flott ist, bzw. warum zwischen 13700K und dem 14900K quasi Gleichstand besteht und das bei den alten Messungen nicht der Fall war.
Es ist eher eine Frage, was gezeigt werden soll. Wenn du Spiele zeigen willst die einen potentiell hohe Anforderung darstellen, ist das ganze Legitim. Aber ich kann die Kritik verstehen, ein wirklich umfängliches Bild entsteht mit einem Spiel nicht und kann leider leicht zu Fehlinterpretation führen.
Ich denke, hier wäre ein Special der das genauer mit mehr Spielen untersucht der sinnvollere, aber auch wesentlich aufwendigere, Ansatz.
An deiner Schweigsamkeit im Fließtext zu Intels Stärke merkt man direkt, wie es dich wurmt. Hätte AMD so einen Sprung gemacht, würde hier gefeiert werden. ;)
Ist das der Grund warum Cyberpunk das einzige Spiel mit Leistungsaufnahme im GPU Limit ist? 😅
Ehrlich gesagt sehe ich da nichts ungewöhnliches. Der Benchmark-Parcours wurde stark abgeändert und die neuen Ergebnisse kommen bspw. Intel entgegen. Ich stimme dir aber zu, dass man im Fließtext etwas mehr Erläuterung geben kann, wie der neue Parcours alte Ergebnisse beeinflusst hat. Wobei ich das auch eher in einem eigenen Artikel sehe der die Ergebnisse mit den alten kurz vergleicht und erläutert wie solche Änderungen voraussichtlich zustande kommen. Aber das ist auch wieder arbeit und ich will nicht wissen wie aufwendig das bei den regelmäßigen Parcoursanpassungen wäre.
Wir stellen Ihnen im Test zum Ryzen 5 7500F daher nicht nur die CPU vor, sondern auch den neuen Testparcours mitsamt Frametime-Analyse.
Der Testparcours gefällt mir auch wesentlich besser da deutlich mehr CPU Bound Spiele drin sind bei denen die CPU eine Relevanz hat.
 
Aiaiai,
richtig Geil, neuer Testparcours!!! Alle Jahre wieder... Find ich super. Das ihr jetzt auch noch ein Test im GPU-Limit eingebaut habt freut mich sehr. Den Idle Verbrauch finde ich tatsächlich nicht sonderlich interessant, da wir ja auf der PCGamesHardware Seite unterwegs sind. Meine Kiste ist tatsächlich zum Daddeln gedacht. Für Anwendungszwecke mit geringerem Anspruch an CPU & GPU habe ich ein 10 Jahre altes Macbook, welches im Idle 10W verbraucht...
Vielen Dank für den Aufwand und die spannenden Ergebnisse. So wünsche ich mir das.
Was hier schon wieder los ist. Na, dann wollen wir mal. :kaffee:

Hast du denn eigene Untersuchen mit vergleichbaren AMD- und Intel-Prozessoren durchgeführt? Dann zeige mir die bitte. Ansonsten gehört Cyberpunk 2077 zwar zu den Spielen im neuen Testparcours, die CPUs eine höhere Leistungsaufnahme entlocken als andere, aber der Worst Case ist das nicht.

Also den "Test", sprich den Artikel an sich habe ich an einem (langen) Arbeitstag gebaut. Aber die Daten zu sammeln und auszuwerten, hat mehrere Monate gedauert, weil dahinter noch viel mehr steckt, als nur Benchmarks durchzuführen. ;)

Hast du Nachweise dafür, dass es sich bei Cyberpunk 2077 um einen "absoluten Worst Case" für Intel-Prozessoren handelt? Ich finde sogar, dass Intel-CPUs (bereits seit Release) außerordentlich gut mit der REDengine 4 skalieren. Soll ich lieber ein Spiel nehmen, das gar nicht mit den Stärken von Prozessoren skaliert, Tetris, Harvest Moon oder so?

Das hat Drayygo schon korrekt erklärt: Keine CPU ist "schneller" oder "langsamer" geworden: Die Testbedingungen haben sich geändert! Du kannst aktuelle Zahlen aus dem neuen Parcours nicht mit den Zahlen aus dem alten Parcours vergleichen, das ist schlicht nicht möglich. Das wäre, als würdest du Rundenzeiten von verschiedenen Strecken vergleichen und dann versuchen Aussagen darüber zu treffen, welches Fahrzeug schneller war und warum. Ich werde daher nicht weiter darauf eingehen.

Ich habe eher den Eindruck, dass es dich wurmt, dass Intel auch im GPU-Limit so eine hohe Leistungsaufnahme aufweist. Darüber mokierst du dich zumindest am meisten. Für mich sind das einfach zu Zahlen, ich habe beruflich weder eine Vorliebe für AMD, noch für Intel, noch für die 80 anderen Herstellern, mit denen ich zusammen arbeite. Ich werte nur nach den Zahlen, die ich festhalte. Verwechsle also bitte nicht meine privaten Vorlieben mit meinen beruflichen Arbeiten, danke.

Die Gründe wurden bereits im Verlauf der Diskussion angesprochen.

Warum ein i9-13900K manchmal schneller als ein i9-14900K ist, lässt sich an der Serienstreuung und dem absolut unpassend gewählten Current Limit der RKL-R-CPU erklären. Die Kerne des 14er takten so hoch, dass sie kurzzeitig ans Limit stoßen und dann heruntertakten müssen, was Leistung kostet. Das habe ich auch schon beim i9-13900KS beobachtet, kein Wunder, ist ja praktisch die gleiche CPU. Intel pocht darauf, dass die Tester mit offenem Limit testen, aber das ist nicht gemäß der Spezifikation. Kurz: Ich lasse mich nicht verarschen und zeige auf, wie sich die Prozessoren tatsächlich unter Last verhalten, wenn man sie so betreibt, wie der Hersteller es auf der Produktseite angibt.

Für alle, die brav bis hier hin gelesen haben, habe ich noch eine erfreuliche Nachricht: Ich werde sogleich die Daten des 5800X3D in den Artikel eingeben. In etwa 20 Minuten dürft ihr diese also auch vergleichen.
Respekt, dass du dich solchen Kommentaren stellst. Meiner Meinung nach könntest du derartige Kommentare gepflegt ignorieren. Wer sich heraus nimmt dir nach durchlesen des Artikels vorwerfen zu müssen, dass du Intels Stärken verschweigen würdest und pro AMD schreiben würdest, der wird sich höchstwahrscheinlich nicht die Zeit nehmen deine Antwort wirklich durch zu lesen.

Vielen Dank für den Artikel.
 
Respekt, dass du dich solchen Kommentaren stellst. Meiner Meinung nach könntest du derartige Kommentare gepflegt ignorieren. Wer sich heraus nimmt dir nach durchlesen des Artikels vorwerfen zu müssen, dass du Intels Stärken verschweigen würdest und pro AMD schreiben würdest, der wird sich höchstwahrscheinlich nicht die Zeit nehmen deine Antwort wirklich durch zu lesen.

Vielen Dank für den Artikel.
Ich habe für dein Lob und die konstruktive Kritik zu danken, so und nicht anders stelle ich mir ein Feedback zu einem Artikel vor, top.

Generell für alle:
Es steht im Fließtext drin, dass die Dokumentation des neuen Testparcours zu späterer Stunde erfolgt. Ich bereite nämlich praktisch nebenher einen mindestens-12-Seiter im Heft dazu vor, der vollumfänglich den CPU-Index 2024 vorstellen wird. Falls euch das interessiert, dann haltet kommenden Monat nach der PCGH Print 03/24 Ausschau. Erst danach werden die Online-Inhalte, wie die CPU-FAQ und die Übersichten zu den einzelnen Indizes überarbeitet.

Der vorliegende Test handelt dagegen vom Ryzen 5 7500F und ich habe die CPU schon seit einem Monat in der Redaktion liegen gehabt, mich aber dazu entschieden, sie zusammen mit dem neuen Testparcours einzuführen und zu testen. So hatte ich mehr Zeit für die neuen Daten und Benchmarks und brauchte für den Index 2023 keine Zeit mehr aufzuwenden. Letzterer hat sein fulminantes Finale mit den Tests der Raptor Lake Refresh Prozessoren erlebt.
 
Wenn ich die Leistungsaufnahme einer CPU analysiere nehme ich idR. mehr als ein einziges worst Case Spiel.
Du verlangst also mehr Spiele. Gibt man den Leuten den kleinen Finger, reißen sie dir gleich den ganzen Arm ab. Mit deinen Forderungen könntest du den Dave auch gleich an seinen Arbeitsplatz ketten. Sei doch einfach froh, dass es als "Extra" im Test landet. Mich würde nicht wundern, wenn er es jetzt wieder streichen würde.
 
Warum? Worst - Case macht als einziges Sinn.
Nein, normal nimmt man mehrere Werte, damit es aussagekräftig ist.
Die schwanken erheblich.
Daher werden Benchmarks (also gute Benchmarks) auch an den fürs System härtesten zu verarbeiteten Stelle gemacht, um das Worst Case aufzuzeigen.
Aber nicht in einem einzigen Spiel, sondern 15 bis 20.
CPU - da jeder bereits weiß, das ist irrelevant.
Genau deshalb misst man mehrere Spiele, damit einer nicht kommen kann und behaupten das sei irrelevant.
Wichtig ist der "bis zu" Wert. Was kann ich realistisch als Worst Case sehen und davon ausgehen, bei allen anderen Games ist es besser.
Nein, da sich AMD und Intel CPUs unterschiedlich verhalten, wenn sie auf die GPU warten müssen.
Intel ist nicht flotter geworden, die Spieleauswahl hat sich geändert.
Sie es so: Intel kann mit moderneren Spielen besser umgehen.
Ich würde viel mehr erwarten, dass im Parcours 2025 die Intels Boden gut machen. Rohleistung, auch bei krassem Verbrauch zieht einfach.
Wie jeder (außer dir scheinbar) gibt es Games, die Intel besser liegen und Games, die AMD besser liegen.
Richtig, deshalb mehr Messungen machen. Ein Spiel liegt Intel richtig gut, dann verändert sich auch die Effizienz, bzw. der Verbrauch.
Und manche Games liegen (warum auch immer?!) der 13th Gen besser als der 14th Gen (X4 steht hier als Beispiel im Test).
Dadurch schließt sich im Mittel der Kreis und erklärt die Ergebnisse.
Messungenauigkeit, kommt vor.

Aber dann kann man das auch ansprechen, ohne direkt Leuten zu unterstellen, Intelhasser zu sein.
Intelhasser? Sagt wer? Man muss auch nicht grundlos Forenuser angreifen und deren Hardwarewahl kritisieren und behaupten der 7800X3D sei das beste überhaupt. Die Moderation hat das zwar schon gelöscht, aber dennoch ist es bezeichnend, wie unausgewogen die Leistungsaufnahme gemessen wird und die Kritik natürlich wieder unsinnig ist, solange es um Intel geht.

In Zukunft vermesse ich auch nur noch ein RT Spiel und behaupte die 4090 ist 150% schneller und 100% effizienter. Ergibt das ein realistisches Abbild der Gesamtheit? Nein.
 
Zuletzt bearbeitet:
Nein, normal nimmt man mehrere Werte, damit es aussagekräftig ist.
Nein. Man nimmt bei Benchmarks von einem Game auch nicht eine Szene in der Stadt, eine im Wald, eine im Loadscreen und eine im Menü. Sondern man nimmt die eine Szene, die am Fordernsten ist. Damit, und hier wiederhole ich Dinge, die ich dir zutraue zu wissen, man das Worst Case abbilden kann. Damit jeder eine Zahl sieht und sofort weiß: Aha, das ist das Schlimmste, was passieren kann. (Fast) Alle anderen Szenarien werden besser laufen als das.
Nein, da sich AMD und Intel CPUs unterschiedlich verhalten, wenn sie auf die GPU warten müssen.
Ja. Eine Marke verbraucht dabei sehr viel, die andere nicht. Ist eigentlich ganz simpel :ugly:
Sie es so: Intel kann mit moderneren Spielen besser umgehen.
Ich würde viel mehr erwarten, dass im Parcours 2025 die Intels Boden gut machen. Rohleistung, auch bei krassem Verbrauch zieht einfach.
Nö. Der 14900K ist gleichauf mit dem 7800X3D. Ich sehe daher kein "besser" in der Rohleistung. Ein massiv schlechter in der Effizienz allerdings. Wenn also von 2 Metriken eine gleich und die andere schlechter ist, dann ist das nach Adam Riese eine "Niederlage" insgesamt. Aber ich kann mich natürlich auch irren.
Intelhasser? Sagt wer? Man muss auch nicht grundlos Forenuser angreifen und deren Hardwarewahl kritisieren und behaupten der 7800X3D sei das beste überhaupt.
Der 7800X3D ist halt schlicht die beste Gaming-CPU, da muss man nicht großartig diskutieren. Da ist jeder in der Lage das zu sehen, unabhängig ob es Tester wie PCGH, CB, Gamers Nexus etc sind oder sonstwer. Die einzigen (glücklicherweise wenigen), die da immer vehement gegen angehen sind Besitzer von 13900/14900ern. Komisch.

Und wo hab ich dich angegriffen ob deiner CPU-Wahl? Dude, du hast durch die Blume mehrfach Dave vorgeworfen, biased zu sein und das auch in seinem Test einfließen zu lassen.
Messungenauigkeit, kommt vor.
Mhm. Du sagst das.
Warum ein i9-13900K manchmal schneller als ein i9-14900K ist, lässt sich an der Serienstreuung und dem absolut unpassend gewählten Current Limit der RKL-R-CPU erklären. Die Kerne des 14er takten so hoch, dass sie kurzzeitig ans Limit stoßen und dann heruntertakten müssen, was Leistung kostet. Das habe ich auch schon beim i9-13900KS beobachtet, kein Wunder, ist ja praktisch die gleiche CPU. Intel pocht darauf, dass die Tester mit offenem Limit testen, aber das ist nicht gemäß der Spezifikation. Kurz: Ich lasse mich nicht verarschen und zeige auf, wie sich die Prozessoren tatsächlich unter Last verhalten, wenn man sie so betreibt, wie der Hersteller es auf der Produktseite angibt.
Der CPU-Tester sagt das. Ich überlage mal kurz wem ich glaube (DAVE), bevor ich dir sage, wem ich glaube (DAVE):

Es ist der CPU - Tester, der es beruflich macht! Wer hätte es gedacht, dass der eine validere Quelle ist als Hans Joachim vom Trustmebro e.V
 
Hast du denn eigene Untersuchen mit vergleichbaren AMD- und Intel-Prozessoren durchgeführt?
Sicher, ein Strommessgerät läuft permanent mit. Ich kann dazu eine ganze Palette an Werten liefern.
Dann zeige mir die bitte. Ansonsten gehört Cyberpunk 2077 zwar zu den Spielen im neuen Testparcours, die CPUs eine höhere Leistungsaufnahme entlocken als andere, aber der Worst Case ist das nicht.
Kann ich gerne nächste Woche aus verschiedenen Konfigs mitloggen, wenn ich Zeit finde. Die andere Analyse findet man bei CB.
Hast du Nachweise dafür, dass es sich bei Cyberpunk 2077 um einen "absoluten Worst Case" für Intel-Prozessoren handelt?
Deine Tests mit den 225 Watt vor kurzem, stand doch dabei.
Soll ich lieber ein Spiel nehmen, das gar nicht mit den Stärken von Prozessoren skaliert, Tetris, Harvest Moon oder so?
Mehr als ein einziges. Vielleicht 3 oder 4 im GPU Limit. Der Verbrauch wird ja ohnehin mitgeloggt. Das bedeutet kaum Mehraufwand.
Du kannst aktuelle Zahlen aus dem neuen Parcours nicht mit den Zahlen aus dem alten Parcours vergleichen, das ist schlicht nicht möglich.
Dann benötigt man auch keine neuen Parcours, wenn Werte aus veralteten Spielen den gleichen Wert haben, wie aktuelle. Die CPU A leistet mit neuer Software mehr als CPU B mit alter, sollte man dennoch sagen können.
Ich habe eher den Eindruck, dass es dich wurmt, dass Intel auch im GPU-Limit so eine hohe Leistungsaufnahme aufweist.
Das tun sie nicht. Deine Messwerte sind hierzu ungenügend.
Selbst als Homeuser bekommt man mit etwas Frickelei zuverlässigere Aussagen über den Verbrauch der CPU im normalen Gaming Alltag, auch mit einer 4090. Ein Test dazu wurde angekündigt, aber blieb offenbar aus.
Darüber mokierst du dich zumindest am meisten.
Ja, richtig. Weil's Quark ist.
Die Messung ausschließlich mit Cyberpunk durchzuführen ergibt keinen Sinn. Die Werte liegen dir vermutlich zudem sowieso vor, man müsste sie lediglich nachtragen. Also was kommt in den anderen Games im Grafiklimit heraus?
Für mich sind das einfach nur Zahlen, ich habe beruflich weder eine Vorliebe für AMD, noch für Intel, noch für die 80 anderen Herstellern, mit denen ich zusammen arbeite.
Da hatte ich kürzlich einen anderen Eindruck, aber das kann auch mein Fehler sein, immerhin hab ich ja den bösen 14900K verbaut. ;)
Warum ein i9-13900K manchmal schneller als ein i9-14900K ist, lässt sich an der Serienstreuung und dem absolut unpassend gewählten Current Limit der RKL-R-CPU erklären. Die Kerne des 14er takten so hoch, dass sie kurzzeitig ans Limit stoßen und dann heruntertakten müssen, was Leistung kostet. Das habe ich auch schon beim i9-13900KS beobachtet, kein Wunder, ist ja praktisch die gleiche CPU.
Das könnte eine gute Erklärung sein, halte ich jedoch für weitgehend falsch.
Computerbase ermittelt 8% zwischen 13700K und 14900K, dieser Test ermittelt 4%. Der 14900K war beim Launchtest minimal vor dem KS und noch 6% vor dem 13700. Das ist aber auch Erbsenzählerei. Offen oder per BIOS auf die Spezifikation von 253 Watt limitiert. Das sollte in Spielen eigentlich komplett irrelevant sein und nicht 4% ausmachen.
 
Für alle, die brav bis hier hin gelesen haben, habe ich noch eine erfreuliche Nachricht: Ich werde sogleich die Daten des 5800X3D in den Artikel eingeben. In etwa 20 Minuten dürft ihr diese also auch vergleichen. :-)

Besten Dank @PCGH_Dave.

Ganz kleine Anmerkung beim 5800X3D und der RAM Angabe: sollte bei den Reitern zu den getesteten Games DDR4 3200 heißen.

Fühle mich zwar mit dem 5800X3D eh schon etwas in die Jahre gekommen, der Anblick von DDR3 macht's dann nicht wirklich besser :D:-)

IMG_20240104_003006.jpg

Gruß
Stefan
 
Die andere Analyse findet man bei CB.
Mein Schwager Jürgen sagt, das Intel eigentlich Strom erzeugt beim Spielen im GPU Limit. Die ganzen öffentlichen, transparenten, nachbaubaren Tests auf PCGH und überall anders sind nur Propaganda von Big Silicone! WACH AUF!
Ich hab sogar Messwerte für dich:

Angaben in WattStromverbrauch AMDStromverbrauch IntelDifferenzvöllig relevante Info, analog zum CB Test:
Pong99-3102Schwarzes Gehäuse
Pacman1454141Pinkes Gehäuse
Starfield 3OVER 9000!-100nicht messbarGelbes Gehäuse

Wie du siehst, sind meine Messungen absout über jeden Zweifel erhaben, da ich sie in einem Forum ohne weitere Infos oder Quellen, Reputation, Prüfung durch Kollegen und Nachvollziehbarkeit unter Angabe sämtlicher keiner Testbedingungen gepostet habe. Darauf stehst du doch.


Nachtrag:

HAHAHAHAHA. Ich habe ja jetzt erst gelesen, dass der NPC auf Computerbase teilweise Gesamt-Systemmessungen mit unterschiedlichen GPUs durchgeführt hat. Das ist ja noch besser.

1704328893654.png

Das sind die Werte, die der werte Hr. @Lichtspieler2000 haben will. "Tendenz reicht" "unterschiedliche GPUs, Unterschied wird geschätzt, ist aber weniger, glaub ich. Oder so"

Oder hier:
1704328965081.png

"+/- 10-20 Watt", Klar, bei (annähernd) Worst-Case-Werten von 100 Watt mehr Verbrauch kann man schon mal ne 20% Toleranz einbauen. Ist ganz klar. Das Leute sich trauen, so einen Mist als Quelle zu verlinken ist fantastisch :ugly:
 
Zuletzt bearbeitet:
Damit, und hier wiederhole ich Dinge, die ich dir zutraue zu wissen, man das Worst Case abbilden kann.
Der Strombedarf zwischen Intel und AMD CPUs ist im GPU Limit bzw. in der Gaming Praxis stark schwankend.

Du siehst Extremfälle wie Cyberpunk, aber auch Fälle in denen die Intel CPU, je höher die Auflösung wird und je stärker die GPU limitiert einfach sehr sparsam ist. Das kann man nicht mit einem Spiel abbilden.

Das ist ja fast so hanebüchen wie den CPU Verbrauch ausschließlich mit Prime inkl. AVX zu messen und das dann auf andere Anwendungen zu übertragen. Die Telemetrie der CPUs arbeitet je nach Software einfach unterschiedlich, zudem gibt es architektonische Unterschiede.
Damit jeder eine Zahl sieht und sofort weiß: Aha, das ist das Schlimmste, was passieren kann. (Fast) Alle anderen Szenarien werden besser laufen als das.
Damit hast du doch bereits die hinreichende Begründung geliefert, warum der eine Wert kaum Relevanz hat, wenn nur in 1 von 20 aktuellen Spielen so hoch.
Ja. Eine Marke verbraucht dabei sehr viel, die andere nicht. Ist eigentlich ganz simpel :ugly:
Und das ist eben falsch, wenn man ein differenziertes Bild der Leistungsaufnahme im GPU Limit oder praxisnahen Settings zeigen will.
Nö. Der 14900K ist gleichauf mit dem 7800X3D. Ich sehe daher kein "besser" in der Rohleistung.
Natürlich. Die ST Leistung ist knapp 20% höher , der IMC geht besser, die CPU hat deutlich mehr Kern- Reserven, wird sich langfristig daher durchsetzen.
dann ist das nach Adam Riese eine "Niederlage" insgesamt. Aber ich kann mich natürlich auch irren..
Natürlich ist das in der Effizienz eine haushohe Niederlage. Bestreitet niemand.
Der 7800X3D ist halt schlicht die beste Gaming-CPU, da muss man nicht großartig diskutieren.
Nein, ein 14900K ist optimiert schneller als ein optimierter 7800X3D, sogar wesentlich. Etwa 10% im Mittel.
Da ist jeder in der Lage das zu sehen, unabhängig ob es Tester wie PCGH, CB, Gamers Nexus etc sind oder sonstwer.
PCGH sieht das nicht so. Deren GPU Testparcour besteht weiterhin aus einem optimierten Intel, da dieser einfach besser die Grafikkarten ausreizt.
Die einzigen (glücklicherweise wenigen), die da immer vehement gegen angehen sind Besitzer von 13900/14900ern. Komisch.
Es ist völlig irrelevant welche CPU man sein Eigen nennt.
Und wo hab ich dich angegriffen ob deiner CPU-Wahl?
Du bist damit nicht gemeint.
Mhm. Du sagst das.
Wobei teilweise 15% mehr FPS bei den 0.2 zwischen 14900K und 13900K, zugunsten des 13900K und 6% bei den 1.0 ist definitiv nicht koscher.
Es ist der CPU - Tester, der es beruflich macht! Wer hätte es gedacht, dass der eine validere Quelle ist als Hans Joachim vom Trustmebro e.V
Die PCGH als Quelle ist grundsätzlich valide, Fehlerquellen kann man aber nie per se ausschließen. Und Testmethodiken, wie Verbrauchsmessungen sollten aus Plausibilitäts und Repräsentativitätsaspekten aus mehreren Testläufen, heißt untersch. Software bestehen.
 
Natürlich. Die ST Leistung ist knapp 20% höher , der IMC geht besser, die CPU hat deutlich mehr Kern- Reserven, wird sich langfristig daher durchsetzen.
Komisch. Der Test zeigt das alles nicht. Der Test zeigt Gleichstand. Aber gleich kommst du wieder mit nem Test von nem Kumpel auf 4chan oder so.
Die PCGH als Quelle ist grundsätzlich valide, Fehlerquellen kann man aber nie per se ausschließen. Und Testmethodiken, wie Verbrauchsmessungen sollten aus Plausibilitäts und Repräsentativitätsaspekten aus mehreren Testläufen, heißt untersch. Software bestehen.
Yay. Mit diesem einen Absatz hast du es heute sogar geschafft, etwas korrektes zu schreiben, Ich bin stolz auf dich. Aber, wie es in der Welt nun mal ist, neigen Personen (völlig korrekt übrigens) dazu, sich Informationen von valideren Quellen zu holen, die eine höhere Wahrscheinlichkeit besitzen, korrekt zu sein. Natürlich hat auch ein Arzt mal Unrecht mit einer Diagnose, aber es ist nahezu unendlich viel wahrscheinlicher, dass der Arzt Recht hat als der Homöopath um die Ecke, der dich mit Klangschalen heilen will.

Will heißen: Klar kann auch PCGH mal Fehler machen, ist alles schon vorgekommen. Solange ich aber wählen muss, wem ich fachlich vertraue, dir oder dem Fachredakteur, tendiere ich grundsätzlich erstmal zu letzterem. Und das ist ausnahmsweise kein Angriff auf deine Person, sondern schlicht gesunder Menschenverstand.
Du bist damit nicht gemeint.
Mhm, du hattest mich zitiert.

Damit hast du doch bereits die hinreichende Begründung geliefert, warum der eine Wert kaum Relevanz hat, wenn nur in 1 von 20 aktuellen Spielen so hoch.
Und du ignorierst immer noch die Begründung, die du scheinbar bei Spielebenchmarks akzeptierst. Oder willst du da in Zukunft auch 5 verschiedene Szenarien gemessen bekommen. Einmal eine fordernde Szene, einmal eine mittlere, einmal Menü und einmal ne Szene vom Launcher?
 
HAHAHAHAHA. Ich habe ja jetzt erst gelesen, dass der NPC auf Computerbase teilweise Gesamt-Systemmessungen mit unterschiedlichen GPUs durchgeführt hat.
Das betraf nur eine einzige Messung. Ansonsten war der Testaufbau natürlich vergleichbar, steht dort auch so, reißt du ergo aus dem Kontext.
Oder hier:
Anhang anzeigen 1448059
"+/- 10-20 Watt", Klar, bei (annähernd) Worst-Case-Werten von 100 Watt mehr Verbrauch kann man schon mal ne 20% Toleranz einbauen.
Das ist eine Zusammenfassung seiner erzielten Werte, die je nach Spiel schwanken. Der 13700K schwankt ergo stärker. Logisch. In % hat er das nie angegeben. Auch aus dem Kontext gerissen. Vielleicht schon etwas spät heute? ;)
Ist ganz klar. Das Leute sich trauen, so einen Mist als Quelle zu verlinken ist fantastisch :ugly:
Lesen will gelernt sein.
Komisch. Der Test zeigt das alles nicht.
Also hat der 7800X3D mit seinen 8 Kernen und der viel geringeren Singlecoreleistung mehr Hubraum als der 24 Kern 14900K. Interessant.
Der Test zeigt Gleichstand.
Wenn du die Intel CPU übertaktest, kann der 7800X3D eben nicht mithalten.
Aber gleich kommst du wieder mit nem Test von nem Kumpel auf 4chan oder so.
Kontext beachten.
Yay. Mit diesem einen Absatz hast du es heute sogar geschafft, etwas korrektes zu schreiben, Ich bin stolz auf dich.
Wozu dann der Widerspruch und die Diskussion? Das sind ganz einfache Basics.
Aber, wie es in der Welt nun mal ist, neigen Personen (völlig korrekt übrigens) dazu, sich Informationen von valideren Quellen zu holen, die eine höhere Wahrscheinlichkeit besitzen, korrekt zu sein.
Das bedarf eben einer validen Anzahl an Messpunkten, dem hast du permanent widersprochen.
Mhm, du hattest mich zitiert.
Du hattest mich zitiert und dir ist auch völlig klar was der Kontext war.
Und du ignorierst immer noch die Begründung, die du scheinbar bei Spielebenchmarks akzeptierst.
Bei den Benchmarks liegen doch fast 15 Messungen vor. Natürlich akzeptiere ich das. 1 Messung ist halt für den Hintern, egal ob Verbrauch, Spieleleistung oder sonst was gemessen wird.
Einmal eine fordernde Szene, einmal eine mittlere, einmal Menü und einmal ne Szene vom Launcher?
Keine Ahnung von was du redest.
Das hat mit meinem Beitrag inhaltlich 0 zu tun.
 
Zuletzt bearbeitet:
Jungs, bleibt mal auf dem Teppich.

Der CB "User / Leser-Artikel" ist in sofern schon nicht vergleichbar mit den Messungen von @PCGH_Dave da dort kein ElmorsLabs genutzt wurde, sondern nur Software reading mit HWInfo (das gerne mal 50 - 60w abweichen kann).

Desweiteren gibt es die Problematik, dass die Szene die PCGH misst dort nicht gemessen wurde und auch unterschiedliche HW genutzt wurde (GPU).

Die reine Leistungsaufnahme der CPUs lässt sich nur ermitteln, wenn man die Messpunkte hat (und diese vor oder nach den VRMs abgreift und auch nur die CPU misst).

Also wie man es dreht und wendet, eine in HW gemessene Abweichung glaube ich eher als einer in Software ;)
 
Zuletzt bearbeitet:
Also wie man es dreht und wendet, eine in HW gemessene Abweichung glaube ich eher als einer in Software ;)
Danke! Mit dieser treffenden Zusammenfassung ist es dann denke ich auch gut und wir wenden uns alle mal wieder dem eigentlichen Threadtitel (Test des 7500F) zu.

Entsprechend werden wir ab hier auch moderieren - wer meint die Diskussion weiterhin auf einem Thema kreiseln lassen zu müssen.
 
Entsprechend werden wir ab hier auch moderieren - wer meint die Diskussion weiterhin auf einem Thema kreiseln lassen zu müssen.
Schade, ich hatte mich schon auf eine Antwort vorbereitet, die ja irgendwo zum Thema passt, wenn es um die Testmethodik geht. Aber ja, auf einen anderen Test, der gar nicht mit den unseren vergleichbar ist, weil die Art der Messung nicht vergleichbar ist, gehe ich dann auch nicht ein, das wäre OT. Und wenn das die Basis der Diskussion ist, dann kann ich da jetzt nichts weiter zu sagen :ka:
 
Diese CPU scheint ja der P/L King für den Sockel AM5 zu werden.
Allerdings hat mich die Anwendungsleistung jetzt auch interessiert. :ka:
 
Zurück