Leistungsindex Prozessoren - Rangliste Kommentar-Thread

Ein Versuch euch zu verstehen;
Geht es darum, den Absolutwert irgendwann zu ereichen können, wenn dann nur der Rest der HW mal mit ziehen mag?
(Beispiel, in 5 Jahre)
Genau um das geht es mir! Ich konnte es nicht so gut beschreiben wie du! Ich sehe es auch so, dass es mit der jetzigen Hardware nicht möglich ist durch Limitierung der Karte oder Auflösung zu sagen der Faktor von 720 ist auf alle Auflösungen zu legen.

Hätten wir keine Limitierung dann JA aber das ist halt nicht der Realstand und da wir den nicht haben, nützt es mir als User nicht zu wissen, jaaaa mein Gespann könnte 150FPS erzeugen wenn kein Limit da wäre wenn aber eines da ist, was man selbst nicht beeinflussen kann. Und was in drei Jahren alles möglich ist, drehen wir uns wieder im Kreis, weil wir wieder neue Hardware und Limitierungen haben.

Daher würde ich gerne das Übel Limitierung gerne wissen und was der aktuelle IST Stand ist.

Da sind wir bei Theorie und Praxis. Mein Wagen kann theoretisch 274 KM/H fahren Aber ich darf in meiner Ortschaft nur 50 fahren, also Gesetz ist Limitation. Und so ist es beim PC auch! Die CPU kann oder könnte theoretisch aber praktisch nicht, weil es keinen Partner gibt der die Limitation mitgehen kann.
 
Zuletzt bearbeitet von einem Moderator:
Genau um das geht es mir! Ich konnte es nicht so gut beschreiben wie du! Ich sehe es auch so, dass es mit der jetzigen Hardware nicht möglich ist durch Limitierung der Karte oder Auflösung zu sagen der Faktor von 720 ist auf alle Auflösungen zu legen.

Hätten wir keine Limitierung dann JA aber das ist halt nicht der Realstand und da wir den nicht haben, nützt es mir als User nicht zu wissen, jaaaa mein Gespann könnte 150FPS erzeugen wenn kein Limit da wäre wenn aber eines da ist, was man selbst nicht beeinflussen kann. Und was in drei Jahren alles möglich ist, drehen wir uns wieder im Kreis, weil wir wieder neue Hardware und Limitierungen haben.

Daher würde ich gerne das Übel Limitierung gerne wissen und was der aktuelle IST Stand ist.

Da sind wir bei Theorie und Praxis. Mein Wagen kann theoretisch 274 KM/H fahren Aber ich darf in meiner Ortschaft nur 50 fahren, also Gesetz ist Limitation. Und so ist es beim PC auch! Die CPU kann oder könnte theoretisch aber praktisch nicht, weil es keinen Partner gibt der die Limitation mitgehen kann.
Aber genau das kannst du doch.

Du kennst deine GPU. Also gehst du gucken, was kann deine GPU in deiner Auflösung, also 4K. Sagen wir, es sind 100 FPS.
Dann gehst du zu deiner CPU. Die kann aber nur 90. Also hast du in 4K 90 FPS. Und in WQHD auch. Und in FullHD. Und in 720P. Und das kannst du mit jeder GPU, CPU und Auflösung machen.
Aber das kannst du eben nur machen, weil es Leute gibt - wie PCGH - die wissen wie man korrekte Benchmarks mit Aussagekraft macht.
 
Aber genau das kannst du doch.

Du kennst deine GPU. Also gehst du gucken, was kann deine GPU in deiner Auflösung, also 4K. Sagen wir, es sind 100 FPS.
Dann gehst du zu deiner CPU. Die kann aber nur 90. Also hast du in 4K 90 FPS. Und in WQHD auch. Und in FullHD. Und in 720P. Und das kannst du mit jeder GPU, CPU und Auflösung machen.
Aber das kannst du eben nur machen, weil es Leute gibt - wie PCGH - die wissen wie man korrekte Benchmarks mit Aussagekraft macht.
Mir fehlt der Faktor Verbrauch dann! Den habe ich da nicht. In 720p kann die CPU 250W nehmen, in UHD dank der Limitierung der GPU weiß ich jetzt das ich 90FPS haben kann aber nicht das ich 250w verbrauche!

Dave sein Test zeigt z.B. Dying Light 2 247w bei Intel in 720p ich habe durch die GPU Limitierung aber nur 74-99 Watt Verbrauch! Also suggestiert mir ein Test von Dave boahh meine CPU ist ein Schluckspecht, was er auch in der Theroie wäre wenn die GPU nicht limitieren würde aber in der Praxis limitiert die GPU und daher habe ich nicht solch einen Vebrauch wie es Dave zeigt bei 720p. Und wie schon erwähnt, ich kann es nicht beeinflussen oder es ist ein Bedienfehler sondern es fehlt die Hardware am Markt dafür!

Es fehlt uns halt die Power dazu um das zu erreichen, und in 3 Jahren wenn es diese gibt, haben wir wieder ein neues Limit usw. Daher wird mich in 3 Jahren nicht interessieren, dass ich 247w verbrauchen hätte können, wenn ich 3 Jahre lang nur 70 Watt verbraucht habe!
 
Mir fehlt der Faktor Verbrauch dann! Den habe ich da nicht. In 720p kann die CPU 250W nehmen, in UHD dank der Limitierung der GPU weiß ich jetzt das ich 90FPS haben kann aber nicht das ich 250w verbrauche!

Dave sein Test zeigt z.B. Dying Light 2 247w bei Intel in 720p ich habe durch die GPU Limitierung aber nur 74-99 Watt Verbrauch! Also suggestiert mir ein Test von Dave boahh meine CPU ist ein Schluckspecht, was er auch in der Theroie wäre wenn die GPU nicht limitieren würde aber in der Praxis limitiert die GPU und daher habe ich nicht solch einen Vebrauch wie es Dave zeigt bei 720p. Und wie schon erwähnt, ich kann es nicht beeinflussen oder es ist ein Bedienfehler sondern es fehlt die Hardware am Markt dafür!

Es fehlt uns halt die Power dazu um das zu erreichen, und in 3 Jahren wenn es diese gibt, haben wir wieder ein neues Limit usw. Daher wird mich in 3 Jahren nicht interessieren, dass ich 247w verbrauchen hätte können, wenn ich 3 Jahre lang nur 70 Watt verbraucht habe!
Aber das ist doch irrelevant. Wenn du für jedes Game den exakten Verbraucht haben willst, kauf dir für n 10er n Strommessgerät. Wenn du nämlich eines der oben genannten Spiele spielst, zieht deine CPU die 250W, AUCH IN 4K!. Der Wert ist also STAND JETZT schon korrekt.
 
Es fehlt uns halt die Power dazu um das zu erreichen, und in 3 Jahren wenn es diese gibt, haben wir wieder ein neues Limit usw. Daher wird mich in 3 Jahren nicht interessieren, dass ich 247w verbrauchen hätte können, wenn ich 3 Jahre lang nur 70 Watt verbraucht habe!
Moin, also ich kann beide Seiten verstehen.
IICARUS und dich, aber auch die anderen hier haben durchaus recht.

Mir fehlt aber auch eine saubere Powerangabe in 4K mit 4090 und dem 13900K.

Kann das nicht einer hier kurz Testen?
Einfach mal n Warzone 2 anschmeißen, maximale Settings, 4090 in 4K und dann würd mich mal der Stromverbrauch eines 13900K interessieren.

Den können wir dann wieder mit nem 7800X3D gegenüberstellen und dann dürften doch alle glücklich sein oder?

Weil auch ich bin leider der Meinung, dass ein 13900K mit 4090 oder 7900XTX in 4K mit max Settings trotzdem 150 Watt weg haut...

Leider kann ich da als Beleg nur unprofessionelle Youtube Benchmarks anführen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ich hab aber auch schon selber beim Kollegen nen 13600K verbaut und der braucht in Warzone mit ner 4070 schon deutlich mehr als mein Ryzen...
Wenn der jetzt ne 4090 hätte dann dürfte der auch weit über 100W liegen.
 
Nochmal kurz für die ganzen "aber ich spiele in einem Limit" Leute.

Es ist doch gar nicht von Bedeutung im Leistungsindex, denn da wird immer so getestet wie der Hersteller es freigibt und wie es dann bei jedem anderen ohne Limit zu Hause anliegen würde.

Was beim einzelnen dann tatsächlich anliegt, wenn z.b. Details reduziert werden die ebenfalls auf die CPU Leistung Einfluss haben, oder nicht die maximalen FPS erreichen, weil die GPU zu langsam ist, ist bedeutungslos und dann kein Test der CPU mehr sondern ein spezial Test und der muss mit jedem Patch, mit jeder CPU usw neu gemacht werden.

Bezahlt Dave das doppelte von dem was er nun bekommt und schickt ihm ne Anfrage ob er es macht, ansonsten selbst machen.

Hat aber nichts mit dem Leistungsindex zu tun!!
 
Zuletzt bearbeitet:
Moin, also ich kann beide Seiten verstehen.
IICARUS und dich, aber auch die anderen hier haben durchaus recht.

Mir fehlt aber auch eine saubere Powerangabe in 4K mit 4090 und dem 13900K.

Kann das nicht einer hier kurz Testen?
Einfach mal n Warzone 2 anschmeißen, maximale Settings, 4090 in 4K und dann würd mich mal der Stromverbrauch eines 13900K interessieren.

Den können wir dann wieder mit nem 7800X3D gegenüberstellen und dann dürften doch alle glücklich sein oder?

Weil auch ich bin leider der Meinung, dass ein 13900K mit 4090 oder 7900XTX in 4K mit max Settings trotzdem 150 Watt weg haut...

Leider kann ich da als Beleg nur unprofessionelle Youtube Benchmarks anführen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ich hab aber auch schon selber beim Kollegen nen 13600K verbaut und der braucht in Warzone mit ner 4070 schon deutlich mehr als mein Ryzen...
Wenn der jetzt ne 4090 hätte dann dürfte der auch weit über 100W liegen.
Das liegt halt daran, dass du in Warzone auch CPU-limitiert bist. Auch in 4K
Sind doch langweilig solche Benchmarks, denn solche Tests bekommt jeder hin. Interessanter wird es, wenn aus einem Prozessor das Maximum herausgeholt wird und AMD dann immer die Schlusslichter von Intel sieht. :fresse:

Siehe: [Ranking] CINEBENCH R23


Cool. Freut mich für dich. Würdest du Cinebench eigentlich eher als Fantasy - Spiel oder als Science-Fiction (mit Betonung der Fiktion) einordnen? Ich meine, es ist schon bezeichnend, wenn der letzte Rettungsanker in einer Diskussion über Spieleperformance/Verbrauch synthetische Benchmarks sind <3
 
Das liegt halt daran, dass du in Warzone auch CPU-limitiert bist. Auch in 4K
Mir ist das absolut klar, aber dann kommt wieder IICARUS mit:
Ich hab ne 3080 und bin im GPU Limit.
(Womit er ja auch mit seinem System absolut recht hat.)

Deshalb meine ich, hat wer ne 4090 und n 13900K - dann wäre es ja ein einfaches die Geschichte hier zu klären.
Denn auch ich behaupte ja, der Intel braucht selbst in 4K mehr.

Oder der Sohn von IICARUS hat doch ne 4080 und du @Drayygo auch.
Ihr könntet das doch einfach beide testen, habt dann vernünftige Ergebnisse und die Fragen hier sind geklärt.
Warzone 2 ist kostenfrei und ist n echt guter CPU Benchmark.

Perfekt wäre natürlich ne 4090 oder XTX.
 
Das liegt halt daran, dass du in Warzone auch CPU-limitiert bist. Auch in 4K
Langsam glaube ich, das liegt nur an euren AMD Prozessoren. :D

Hier mit meinem 13900K + RTX 3080
K1600_cod_2023_02_09_17_59_34_925.JPG

Und hier mit einem 13900K + RTX 4080
K1600_cod_2023_03_02_15_10_34_584.JPG

Oder der Sohn von IICARUS hat doch ne 4080 und du @Drayygo auch.
Das zweite Screenshot ist mit dem Rechner meines Sohnes.

Deshalb meine ich, hat wer ne 4090 und n 13900K - dann wäre es ja ein einfaches die Geschichte hier zu klären.
Das kann ich nicht beurteilen, da ich keine RTX 4090 Grafikkarte brauche und ich andere finanzielle Wünsche habe, die zuvor kommen.

Letztendlich ist es mir auch egal, da ich und auch mein Sohn mit unseren aufgebauten Systemen sehr zufrieden sind und ich hier im Grunde auch gar nichts beweisen muss. Soll sich jeder kaufen, was er besser findet, denn das mache ich ja auch. :)
 
Sind doch langweilig solche Benchmarks, denn solche Tests bekommt jeder hin.
Das möchte ich übrigens sehen. Ich habe zum Zen-4-Launch über 3.500 einzelne Messungen gemacht. Wirklich "langweilig", echt, was ein Feedback. Das ist mein Signal, dass ich hier mal eine Weile nicht mehr mitdiskutiere, wenn man so gewürdigt wird. Es steht ohnehin bald der Urlaub ab, Zeit für eine Auszeit.
 
Bitte Warzone 2 große Map, nicht Multiplayer.
Das sind halt 160 ggü. 16 Spieler.
Mal ganz theoretisch dürfte daher die CPU Last in Warzone 10x so hoch sein.

Aber ja, keiner braucht ne 4090 und keiner muss hier irgendwas beweisen.
Aber wir hatten doch ebenfalls mal ne Auslastungsdebatte @IICARUS
Da haben wir dann schicke Afterburner Screenshots gepostet und das Ding war geklärt.

So einfach könnte es hier auch laufen.
 
Bitte Warzone 2 große Map, nicht Multiplayer.
Das sind halt 160 ggü. 16 Spieler.
Mal ganz theoretisch dürfte daher die CPU Last in Warzone 10x so hoch sein.
Du meinst sowas?
K1600_cod_2023_02_21_13_53_35_295.JPG

Aber wir hatten doch ebenfalls mal ne Auslastungsdebatte @IICARUS
Da haben wir dann schicke Afterburner Screenshots gepostet und das Ding war geklärt.
Ja, das Screenshot ist aus diesem Test damals. ;)
 
Perfekt :daumen:

Da sehen wir doch schon 100 Watt, jetzt stell dir mal vor, du hast ne 4090...

Mein X3D läuft bei ca. 180 FPS an genau dem Spot mit 60 Watt und ner 7900XTX im CPU Limit.

Das du insgesamt mit 3080 und 13900K sehr effizient unterwegs bist, sehe ich absolut ein.
Aber mit entsprechend großer GPU steigt der Stromverbrauch der CPU halt weiter an.

Und magst du nochmal in Taskmanager schauen? Ein Kern müsste bei dir eigentlich bei 80% Auslastung rumdümpeln.
 
Da sehen wir doch schon 100 Watt, jetzt stell dir mal vor, du hast ne 4090...
Ja stimmt, habe ich an der RTX 4080 von meinem Sohn gesehen, er braucht in COD etwa 20 Watt mehr. Hat aber dann auch etwa 60 - 80 FPS mehr. Ich brauche diese 185 FPS was er anliegen hat nicht, da mein Monitor nur 120 Hz hat und ich mit meinem G-Sync auch mit weniger FPS gut spielen kann. Ganz davon abgesehen kenne ich mich auch mit dem Regler aus, falls ich doch mal mehr FPS anliegen haben möchte.
 
Das möchte ich übrigens sehen. Ich habe zum Zen-4-Launch über 3.500 einzelne Messungen gemacht. Wirklich "langweilig", echt, was ein Feedback. Das ist mein Signal, dass ich hier mal eine Weile nicht mehr mitdiskutiere, wenn man so gewürdigt wird. Es steht ohnehin bald der Urlaub ab, Zeit für eine Auszeit.
Ach Mensch, du wirst doch auch mal mit Kritik umgehen können oder? Hast du 3.500 Messungen für Lau gemacht also nur in deiner Freizeit!?

Wenn du reißerisch sagst das der AMD das um und auf ist und der i7 250Watt nimmt bei weniger Leistung dann musst du auch mit Gegenwehr rechnen müssen denn was Theoretisch möglich ist und was derzeit in der Machbarkeit ist, sind zwei verschiedene Dinge. Da du aber nur auf die Theorie mit 720p gehst und wir dann bei höheren Auflösungen oder anderen Karten im Limit hängen, erwähnst du mit keiner Silbe!

Ich habe bisher in meiner Arbeit auch schon dieses Jahr über knapp 5.000 Auswertungen gemacht (SLA, Breached Tickets, durchlaufzeiten, Auslastungen) und keiner meiner Chefs lobt mich da! Daher wird es auch bei mir Zeit für Urlaub!
 
Ich hab selber nochmal recherchiert, weil mich das auch interessiert.
Bin mehrere Youtube Videos durchgegangen, da es kaum Warzone 2 Benchmarks von Redaktionen gibt.

Natürlich ist das daher mit gewisser Vorschicht zu genießen, ich hab aber 10+ Videos verglichen.

Der X3D liegt mit 4090 bei ca. 70 Watt.
Der 13900K bei ca. 150 Watt.

250 Watt auf dem Intel hab ich (in Spielen) noch nie gesehen.
60 Watt auf dem neuen X3D auch nicht.

Gruß
 
250 Watt auf dem Intel hab ich (in Spielen) noch nie gesehen.
Ich auch nicht, solch eine Leistungsaufnahme hatte ich bisher nur mit Benchmark oder Stresstests. Bisher hatte ich nur BF 2042, was selbst im GPU-Limit um die 160 Watt gezogen hat. Mit UV komme ich dann immer noch nicht unter 130 Watt. Hängt halt ganz davon ab, wie viele Kerne genutzt werden und was für eine Last anliegt.

Nutze aber auch Games, die nicht alle Kerne auslasten und dann fällt die Leistungsaufnahme auf 50 - 75 Watt ab.
Zum Beispiel, was ich momentan überwiegend spiele.
K1600_DeadByDaylight-Win64-Shipping_2023_03_29_23_56_46_992.JPG

Ich nutze aber mein System auch für andere Anwendungen, also nicht nur für Games.
 
Zuletzt bearbeitet von einem Moderator:
Nutze aber auch Games, die nicht alle Kerne auslasten und dann fällt die Leistungsaufnahme auf 50 - 75 Watt ab.
Zum Beispiel, was ich momentan überwiegend spiele.
Anhang anzeigen 1434988
Und das ist halt der Punkt, warum ich euch auch vollkommen verstehen kann.
Daves Werte sind halt Extremwerte.
Aber oftmals wird eben nur League of Legends gespielt...

Da ist dann der hohe Idle Verbrauch (z. B. der Radeon 7000) oder der Mehrverbrauch vom Intel in Warzone 2 einfach irrelevant auf die Gesamtlaufzeit des Rechners.

Was ja aber trotzdem, auf Daves Tests bezogen, weder eine Radeon GPU, noch die Intel CPU an sich besser macht.

Ich behaupte sogar, dass mein System insgesamt nicht Effizienter ist als deine Rechner @IICARUS.
Weil der Mehrverbrauch von meiner Radeon im Idle hole ich mit dem 5800X3D unter Last wieder raus.
Am Ende nimmt sich das nichts.
 
Daves Werte sind halt Extremwerte.
Habe seine Werte oder Ergebnisse nirgendwo kritisiert, aber manche Aussagen von Usern. Die dann später mit ihrem Systeme nicht mit bedenken, dass solche Tests mit 720 P und bestimmten Setting liefen und diese tollen Balken dahinter dann mit sehr geringen Abstand ausfallen.

Meine Aussage war daher auch eher auf die Benchmarks selbst bezogen und nicht das er 5000 Prozessoren damit austesten muss.

Selbst wenn später dennoch ein CPU-Limit besteht, wird dieser dennoch nicht so krass ausfallen. Es wird auch oft verschwiegen, dass die AMD Prozessoren mit Idle/Office mehr verbrauchen. Aus diesem Grund sollte man auch etwas neutral bewerten, statt immer nur die Nachteile aufzuzählen.

Dann würden vielleicht manche User keinen Blödsinn schreiben, wie Intel verbraucht in Games 300 Watt usw. Aber das wird mir auch langsam lästig, daher schreibe ich oft mit solchen Beiträgen gar nichts mehr dazu, denn ansonsten müsste ich meinen Urlaub sogar vorverlegen. :D
 
Zurück