Core i5-12400: Alder-Lake-Mittelklasse sticht Ryzen 5000 im Cinebench-Singlecore aus

@gerX7a
Ich sach dazu nur eines:
Die heutige Ankündigung von AMD, 3d Cache CPUs zu Beginn des nächsten Jahres zu bringen ist ein Paukenschlag und wird ADL komplett in Schach halten können. AMD bleibt so weiter am Ball und zeigt technologische Führungsstärke.
Nicht so klar. Wenn der 12600k mit 6+4 für grob 300€ kommt sieht der 5800X womöglich nicht mehr so frisch aus für aktuell 370€. Die 6 Kerne werden schon mit etwas mehr IPC kommen als die 11. Gen, die kleinen Kerne sollen auch Skylake IPC am Start haben. Im Multithreading wirds da schon eng für Zen3. Aus der Tatsache dass AMD in der Ankündigung nur über Gaming IPC spricht kann man schon auch mal raushören, dass in Sachen Anwendungsperformance nicht der große Hebel da ist. Das wäre auch konsistent mit den Performancesprüngen von Zen2->Zen3. Da wurde die Cachestruktur verbessert und prompt gabs in Spielen den größten Sprung.

3D Stacking wird auch nicht ganz günstig sein in der Fertigung. Da wirds noch viel Optimierungspotential geben. Mal sehen. Am Ende kommts bei ADL und Zen3+ darauf an, wie weit die Marketing-Abteilungen jeweils den Preis aufblasen (können).
 
@gerX7a
Ich sach dazu nur eines:
Die heutige Ankündigung von AMD, 3d Cache CPUs zu Beginn des nächsten Jahres zu bringen ist ein Paukenschlag und wird ADL komplett in Schach halten können. AMD bleibt so weiter am Ball und zeigt technologische Führungsstärke.
Welcher Paukenschlag? Das war kein Paukenschlag, schon Mitte 2021 nicht, als man das teaserte, sondern schlicht die Umsetzung von Plan B im Consumer-Segment, falls Intel's Lineup zu leistungsstark werden würde, bevor Zen4 verfügbar wird.
Ich sag es ja "Marktschreier" ... für "Marketing" ist das schlicht zu plump und "bezahlter Influencer" dürfte damit wohl ebenso hinfällig sein. ;-)

Btw. wenn sie ADL nicht in Schach halten könnten, würde das ja bedeuten, dass sie schon wieder auf dem absteigenden Ast wären. Das können sie sich selbstredend nicht leisten und von daher muss man den Aufwand mit dem V-Cache bei Zen3 im Consumer-Geschäft ja auch zwangsweise auf sich nehmen. Mit ein wenig wirtschaftlichem Verständnis könntest du dir leicht ausrechen, dass die darauf hier nach Möglichkeit verzichtet und es lieber bis Zen4 bei ein paar besser gebinnten Zen3's belassen hätten. Die Leistungsdaten von ADL lassen das aber offensichtlich nicht zu und Intel wird das natürlich auch medial ausschlachten und entsprechend steht AMD hier natürlich unter einen gewissen Druck. Zudem, sieht man es nüchtern, muss AMD hier in den kommenden 12 - 18 Monaten noch so viel rausholen wie nur irgendmöglich, denn ihr Fertigungsvorteil wird bald nivelliert sein, sodass man auf einen wesentlichen Eckpfeiler des bisherigen Erfolges nicht mehr zählen können wird. Es wird interessant zu beobachten sein, wie es dann weitergehen wird und ob die bis dahin angehäuften Ressourcen und das erreichte Firmenwachsum es AMD ermöglichen werden langfristig gegenüber Intel bestehen zu können. Das ist nach wie vor unverändert ein David-gegen-Goliath und entgegen dem alten Testament, geht es in der Wirtschaft zumeist anders aus bei einem derartigem Aufeinandertreffen.
Letzten Endes liegt es aber im Interesse des Marktes insgesamt, dass AMD nicht wieder in der Versenkung verschwindet ... auch wenn in den nächsten Jahren vielleicht andere Firmen die Rolle des Konkurrenten ausfüllen könnten. Mit dem Zukauf von Xilinx dürften sie aber möglicherweise bereits eine Größe erreicht haben, die ein Fiasko wie Anfang des letzten Jahrzehnts dauerhaft zu verhindern hilft.

[...] Aus der Tatsache dass AMD in der Ankündigung nur über Gaming IPC spricht kann man schon auch mal raushören, dass in Sachen Anwendungsperformance nicht der große Hebel da ist. [...]
Das dürfte eine Fehlinterpretation sein. Einige Workloads werden hier in beträchtlichem Maße vom deutlich vergrößerten L3$ profitieren. Im industriellen Umfeld muss man nur nicht dermaßen plakativ die Werbetrommel rühren; das dürfte vielmehr der entscheidende Unterschied sein, zumal mit ADL aktuell ein Consumer-Produkt kommt, d. h. dem begegnet man natürlich auch im entsprechenden Marktsegment. *) ;-)
Wie gesagt ist Milan-X hier der Ursprung der Entwicklung und der muss gegen Sapphire Rapids SP herhalten, denn Milan dürfte Intel voraussichtlich bereits vollständig erreichen und in ML-Workloads wird Intel noch ein weiteres Mal deutlich durchsatzstärker, d. h. auch hier ist ein signifikanter Marktdruck vorhanden, zumal AMD immer noch nur einen sehr kleinen Prozentteil dieses Marktes bedienen kann, d. h. wird heir so oder so weiterhin den Großteil des Marktes auf absehbare Zeit bedienen.
Zudem führt Intel mit Sapphire Rapids SP auch bereits HBM2E-Modelle ein (vermutlich aber erst in Richtung Jahresmitte?), etwas, das AMD erst mit Zen4/Genoa in den Markt bringen wird, d. h. Milan-X wird hier überbrücken müssen, da bisher weiterhin untverändert erst von einer Markteinführung Ende 2022 bei Zen4/Genoa gesprochen wird und wenn Kunden hier bei Intel "zuschlagen", sind die erst mal für AMD verloren für einige Zeit (i. d. R. Jahre).

*) Und bspw. Videoencoding und 3D-Rendering interessiert faktisch nur einen verschwindend geringen Teil des Consumer-Marktes, d. h. das wäre ein denkbar schlechter Ansatzpunkt und würde nur Marketinggelder verschwenden. Selbstredend addressiert man hier primär die Gamer. Die industriellen Großkunden wissen schon länger was ihnen Milan-X offerieren wird, d. h. wernn sie ihre Bestellungen platziert bekommen.
 
Zuletzt bearbeitet:
Bei "durchgesickerten" Benchmarks unbekannter Herkunft bin ich per se misstrauisch, egal zu wessen Gunsten sie ausfallen. Aber wenn Intel es schaffen sollte, den immerhin schon ein Jahr alten Vermeer bei modertem Energieeinsatz um ein paar Prozentpunkte zu schlagen, wäre das immerhin ein Zeichen, dass es für Intel allmählich aus dem Tief herausgeht.

Bei der Preisgestaltung hingegen würde ich mir keine Illusionen machen. Intel hat selbst bei haushoher Unterlegenheit gefühlte Ewigkeiten damit gewartet, über den Preis anzugreifen. Sobald sie wieder vorne mitspielen, werden sie auch zu alten Gewohnheiten bei der Preisgestaltung zurückkehren. Und auch AMD wird nicht mehr billigheimern, wenn sie nicht deutlich abgeschlagen werden.
 
Schlussendlich sollte aber auch jedem klar sein, dass die in dem Business sind um Gewinn zu erwirtschaften und nicht etwa um irgendwelche verspielten Gaming-Enthusiasten glücklich zu machen.
Das deckt sich wechselseitig. Die Gefühle von Intel und AMD sind mir ehrlich gesagt auch vollkommen wumpe. Ich bin im Business um den Wirkungsgrad meiner Privatkasse zu maximieren wie auch vermutlich die Mehrheit hier im Forum. Ergo kaufe ich halt nix, wenn P/L nicht stimmt.
 
Da stimme ich dir vollumfänglich zu. Einige speziellere Gesellen hier versuchen jedoch ein vollkommen anderes und verklärtes Bild zu zeichnen und unterstellen bspw. Intel eine grenzenlose Gier und AMD teilweise philantropisch/altruistische Züge. Am Ende sind jedoch beide Firmen bspw. in exakt der gleichen Art gierig und dürften sich in diesem Punkt in keinster Weise voneinander unterscheiden. Das einzige, was den Unterschied ausmacht, ist in welchem Umfang die jeweils aktuelle Marktsituation des einen und anderen Akteurs es diesem gestattet seiner Gier Ausdruck zu verleihen. Intel als unangefochtener Marktführer hat hier natürlich immer noch klar die besseren Karten und AMD kann sich nur langsam und schrittweise herantasten.
 
Das dürfte eine Fehlinterpretation sein. Einige Workloads werden hier in beträchtlichem Maße vom deutlich vergrößerten L3$ profitieren. Im industriellen Umfeld muss man nur nicht dermaßen plakativ die Werbetrommel rühren; das dürfte vielmehr der entscheidende Unterschied sein, zumal mit ADL aktuell ein Consumer-Produkt kommt, d. h. dem begegnet man natürlich auch im entsprechenden Marktsegment. *) ;-)
Wie gesagt ist Milan-X hier der Ursprung der Entwicklung und der muss gegen Sapphire Rapids SP herhalten, denn Milan dürfte Intel voraussichtlich bereits vollständig erreichen und in ML-Workloads wird Intel noch ein weiteres Mal deutlich durchsatzstärker, d. h. auch hier ist ein signifikanter Marktdruck vorhanden, zumal AMD immer noch nur einen sehr kleinen Prozentteil dieses Marktes zu bewirtschaften weiß.
Gut, ich bin auch hauptsächlich Privatkunde und die Werbung richtet sich auch an Privatkunden. Ich hatte jetzt von den Anwendungen gesprochen, die so auf meiner privaten Kiste laufen und die nennenswert CPU-Zeit fressen: Zip, Videoencoding, -decoding, Photoshop, Matlab, Python. Da erwarte ich bestenfalls niedrige einstellige Vorteile wenn in Spielen 15% rumkommen. Cache-Misses sind da eigentlich kein Hebel...evtl. ist der Browser noch ne Ausnahme. Da gehe ich im Großen und Ganzen schonmal davon aus dass ich das richtig interpretiert habe.

Dass Server mit permanentem Thread-Switching bei 300 aktiven Threads und 10 VMs von weniger Cache-Misses profitieren wird wohl niemand bestreiten wollen...ist nur nicht ganz meine Anwendung. Hier rödelt ein Raspi3 als Server ;-)

Hat Intel abseits von Reputation, Beziehungen und historisch demonstrierter Versorgungssicherheit im Servermarkt momentan irgend ein Eisen im Feuer? AVX512 evtl.?
Hier gabs mal einen Leak zu SR:
56 Kerne monolithisch...Milan ist konkurrenzfähig, Genoa dreht dann Kreise drum rum wenn man den Leaks glauben mag.
 
7Zip & Co werden mit dem Cache durch die Decke gehen, aber mal ehrlich, damit lockst du selbst mit +250 % keinen hinter dem Ofen hervor. ;-) Adressiert wird hier der Massenmarkt mit einem einigermaßen fordernden Workload, bei dem der L3$ auch zum Tragen kommt und das ist i. d. R. Gaming, denn in der Masse gibt es keinen noch fordernderen Workload. Alles andere wie Videoencoding, Rendering, etc. wird nur zu einem kleinen Bruchteil von vereinzelten Akteueren im Consumer-Markt betrieben. Die kann man natürlich versuchen auch gezielt zu adressieren, den größten Hebel hat man vorerst aber hier bei den Gamern. ;-)

Intel? Ja haben sie zweifellos. Bereits Sapphire Rapids SP dürfte vermutlich mit Milan in general purpose Workloads mindestens gleichziehen *) und in spezifischeren Workloads wie ML deutlich davonziehen (AVX-512, VNNI, AMX) und hinzu kommen etwas später (aber noch vor Zen4/Genoa) die HBM2E-Varianten. Das was in den nächsten 12- 18 Monaten bei Intel kommt hängt jedoch immer noch an der 10nm-Fertigung die noch ein wenig als Bremsklotz fungieren wird, auch wenn Intel diesen durch Prozessoptimierungen immer weiter verkleinern kann.
"Rundgehen" dürfte es erst ab 2023+ mit Intel 4 und/oder äquivalenten Nodes von TSMC, also Granite Rapids SP und folgende sowie im Consumer Segment Meteor Lake. Letzterer dürfte Zen4 zweifellos das Leben sehr schwer machen können und man darf gespannt sein, wie AMD auf den reagieren wird.

*) Aufgrund besserer IPC und mehr Speicherbandbreite, absehbar jedoch bei immer noch etwas höherem Verbrauch. - Entsprechend benötigt AMD ja auch Milan-X mit dem V-Cache.
 
Zuletzt bearbeitet:
So so, auf "Bilibili" wird geschrieben ... :ugly:
dass INTEL mit ihrer Mittelklasse CPU (mit bis zu über 250 Watt und über 100 ° , prost Mahlzeit) endlich mal wieder eine AMD CPU schlagen kann/soll.
Wenn dem so sei, wird bestimmt auch ein Mittelklasse (Wagen) Preis aufgerufen ... :P

MfG Föhn..
 
So so, auf "Bilibili" wird geschrieben ... :ugly:
dass INTEL mit ihrer Mittelklasse CPU (mit bis zu über 250 Watt und über 100 ° , prost Mahlzeit) endlich mal wieder eine AMD CPU schlagen kann/soll.
Wenn dem so sei, wird bestimmt auch ein Mittelklasse (Wagen) Preis aufgerufen ... :P

MfG Föhn..
https://cdn.wccftech.com/wp-content...2900K-Alder-Lake-CPU-_-AIDA64-Stress-Test.png

108°C und 257W wären echt heftig. Die Zeiten, in denen neue Hardware sparsamer wird, sind wohl vorbei.

Grüße!
 
Erstmal abwarten, wie sich das real darstellt. Für uns hier interessiert es real gesehen nicht, ob man unter Vollast 'nen Minikraftwerk gleich mit kaufen muss. Wichtig ist am Ende die Gamingperformance, um unsereins zu sagen: Jo , die Investition in eine neue Plattform lohnt für jeden oder eben nur Leute mit eh gealterter Hardware.

Persönliche Note: Für mich ist es tatsächlich relevant, was am Ende für wieviel mehr Leistung an Strom gesoffen wird. Strom kostet mich Geld. Und egal, ob man das Zocken nun Hobby nennt oder nicht, Verbrauchskosten sind ökonomisch (und in Teilen ökologisch) für mich von Belang. Es muss für mich eine Balance zwischen Anspruch und "dafür bekommen" bestehen.
 
Persönliche Note: Für mich ist es tatsächlich relevant, was am Ende für wieviel mehr Leistung an Strom gesoffen wird. Strom kostet mich Geld. Und egal, ob man das Zocken nun Hobby nennt oder nicht, Verbrauchskosten sind ökonomisch (und in Teilen ökologisch) für mich von Belang. Es muss für mich eine Balance zwischen Anspruch und "dafür bekommen" bestehen.
Ich stimme dir völlig zu.
Ich breche auch nur noch wenn ich sehe, wie meine Stromkosten immer weiter steigen.

Aber das in dem Zusammenhang hier zu bringen mit dem Thema CPU sehe ich nicht richtig.
und zwar deshalb:
Wichtig ist am Ende die Gamingperformance
Nicht nur Performance ist wichtig, sondern auch der Stromverbrauch.
Gerade weil du erwähntest, das die Stromkosten immer weiter steigen.
Aber was nehmen sich die ganzen CPUs denn, AMD wie Intel ?

Die Zahlen die CPUs im Extremfall verbraucht werden können, mit denen wird immer ganz viel argumentiert und wie furchtbar das doch alles ist.
Ich will das nicht verhamlosen.
Aber wenn wir dann zu realem Verbrauch unter Gaming Bedingungen kommen, nehmen sich die CPUs doch nichts.
(Ich rede nur vom Gaming, keine Blender, Adobe Premiere oder sonstigen Bedingungen - Es geht um einen reinen Gaming Rechner)

Der i5 nimmt ~ 70 Watt
Der Ryzen 5 ~ 60 Watt

Selbst wenn du ein i9 nimmst, dann bewegen die sich bei ~ 90 Watt
Ein Ryzen 9 bei 80 ~ Watt.

Nur mal Beispiele.

Was ich sagen möchte ist, sicher kannst du hier und da wenige Watt sparen bei der Wahl der CPU.
Aber das ganze auf die wenigen Stunden am Tag Gaming ist das quasi nichts, was man da sparen kann.

Wenn man da bei Hardware ansetzen möchte, würde ich da eher bei Auswahl der Grafikkarte gucken, ob ich wirklich eine Karte brauche die 350 Watt und mehr säuft oder ob es eine 3060 mit 170 Watt nicht auch tut.

Selbst die Werte hier für eine Grafikkarte sind ja auch keine fixen Werte.
Eine Karte kann bestimmte Werte verbrauchen, aber je nach Lastzustände können die auch weitaus niedriger sein.
Es ist das selbe wie beim Thema CPUs.
 
Zuletzt bearbeitet:
Ich stimme dir völlig zu.
Ich breche auch nur noch wenn ich sehe, wie meine Stromkosten immer weiter steigen.

Aber das in dem Zusammenhang hier zu bringen mit dem Thema CPU sehe ich nicht richtig.
und zwar deshalb:

Nicht nur Performance ist wichtig, sondern auch der Stromverbrauch.
Gerade weil du erwähntest, das die Stromkosten immer weiter steigen.
Aber was nehmen sich die ganzen CPUs denn, AMD wie Intel ?
Das von dir gewählte Zitat bezog sich auf die Relevanz für die Leute hier im Forum, wo die allermeisten ja eher am Zocken sind und nicht 24/7 die CPU an der Kotzgrenze betreiben. In sofern gibst du mir ja Recht. ;)

Die Zahlen die CPUs im Extremfall verbraucht werden können, mit denen wird immer ganz viel argumentiert und wie furchtbar das doch alles ist.
Ich will das nicht verhamlosen.
Aber wenn wir dann zu realem Verbrauch unter Gaming Bedingungen kommen, nehmen sich die CPUs doch nichts.
(Ich rede nur vom Gaming, keine Blender, Adobe Premiere oder sonstigen Bedingungen - Es geht um einen reinen Gaming Rechner)

Der i5 nimmt ~ 70 Watt
Der Ryzen 5 ~ 60 Watt

Selbst wenn du ein i9 nimmst, dann bewegen die sich bei ~ 90 Watt
Ein Ryzen 9 bei 80 ~ Watt.

Nur mal Beispiele.

Was ich sagen möchte ist, sicher kannst du hier und da wenige Watt sparen bei der Wahl der CPU.
Aber das ganze auf die wenigen Stunden am Tag Gaming ist das quasi nichts, was man da sparen kann.
Viel interessanter ist es in der Tat, wieviel die Teile im Idle sinnlos verballern, weil PCs einfach so stundenlang laufen, obwohl man sie da auch abschalten könnte. Da ist vermutlich ein bedeutend größeres Energiesparpotenzial. Ohnehin ist diese vereinfachte Betrachtung von Leistung / Watt als Einstufung nicht wirklich gut. Man müsste, wenn man es mit einer ganzheitlichen Betrachtung über den Energieverbrauch versuchen will, den Energieverbrauch bei der Fertigung des Herstellers und den Transport mit einbeziehen. Denn, was nützt es sich hier über den Stromverbrauch einer einzelnen CPU zu mokieren, wenn der vermeintlich sparsamere Rechenkern wegen einer mieseren Fertigung und langer Transportwege in der Summe viel mehr Energie verbraucht hat Aber das führt dann wohl auch ein bisschen zu weit.

Wenn man da bei Hardware ansetzen möchte, würde ich da eher bei Auswahl der Grafikkarte gucken, ob ich wirklich eine Karte brauche die 350 Watt und mehr säuft oder ob es eine 3060 mit 170 Watt nicht auch tut.

Selbst die Werte hier für eine Grafikkarte sind ja auch keine fixen Werte.
Eine Karte kann bestimmte Werte verbrauchen, aber je nach Lastzustände können die auch weitaus niedriger sein.
Es ist das selbe wie beim Thema CPUs.
Ja, bestes Beispiel ist meine RX6900XT. Aber da kann man, wenn man denn überhaupt gewillt ist was zu tun, mit Undervolting einiges an Sparpotenzial rausholen ohne groß an Leistung zu verlieren. Und auch da sehe ich es ganzheitlicher, in dem ich z.B. plane, die Karte deutlich länger als die 1-2 Jahre der bisherigen Karten aus der Liga einer 360 TI / 3070 zu betreiben.
 
https://cdn.wccftech.com/wp-content...2900K-Alder-Lake-CPU-_-AIDA64-Stress-Test.png

108°C und 257W wären echt heftig. Die Zeiten, in denen neue Hardware sparsamer wird, sind wohl vorbei.

Grüße!

Das ist genauso heftig, wie bisher. Die meisten Online-Tester kümmern sich nicht um einen Betrieb gemäß Intel-Spezifikation, sondern nutzen das miserable Auto-OC der Mainboard-Hersteller. Da sind solche Werte normal, ein 10900K auf einem Z590 Taichi lief im PCGH-Test z.B. ohne manuelle Eingriffe mit 4,9 GHz, 106 °C und 294 W. Wenn Intel jetzt 40 W weniger, eine 25 Prozent breitere Architektur und acht 3,7-GHz-Kerne zusätzlich bei identischen Eckparametern schafft, ist das schon ein Fortschritt. Spannend wird aber, welche Performance Alder Lake bei korrekt konfigurierten 125 W abliefert.
 
Das von dir gewählte Zitat bezog sich auf die Relevanz für die Leute hier im Forum, wo die allermeisten ja eher am Zocken sind und nicht 24/7 die CPU an der Kotzgrenze betreiben. In sofern gibst du mir ja Recht. ;)
Richtig.
Klar geb ich dir Recht.Das wird aber nicht nur im Forum so kommuniziert, sondern auf sämtlichen Plattformen auf denen Hardware das Thema ist.
"...aber guck auf den Stromverbrauch - Der nimmt 250 Watt!" :wall:

Viel interessanter ist es in der Tat, wieviel die Teile im Idle sinnlos verballern, weil PCs einfach so stundenlang laufen, obwohl man sie da auch abschalten könnte. Da ist vermutlich ein bedeutend größeres Energiesparpotenzial.
Natürlich es gibt viele Wege Strom zu sparen.

Denn, was nützt es sich hier über den Stromverbrauch einer einzelnen CPU zu mokieren, wenn der vermeintlich sparsamere Rechenkern wegen einer mieseren Fertigung und langer Transportwege in der Summe viel mehr Energie verbraucht hat Aber das führt dann wohl auch ein bisschen zu weit.
Ja das ist nochmal ein ganz anderes Thema hinsichtlich Energie.

Ja, bestes Beispiel ist meine RX6900XT. Aber da kann man, wenn man denn überhaupt gewillt ist was zu tun, mit Undervolting einiges an Sparpotenzial rausholen ohne groß an Leistung zu verlieren. Und auch da sehe ich es ganzheitlicher, in dem ich z.B. plane, die Karte deutlich länger als die 1-2 Jahre der bisherigen Karten aus der Liga einer 360 TI / 3070 zu betreiben.

Sicher.
Kann man so sehen und die Karte einfach länger benutzen.
Ist auch nicht unsinnig.

Ich meine aber eher - die Gamer hat es ja auch schon immer gegeben - die immer das schnellste/ neuste haben müssen, ohne sich genau mit der Materie auseinandergesetzt zu haben.
Es wird einfach gekauft.

Obwohl sie die Leistung vielleicht gar nicht benötigen.
Und entsprechend ist dann natürlich auch der Strombedarf einer solchen Karte.

Ich will mich da selber auch gar nicht bei rausnehmen.
Für das was ich mache, ist meine Karte auch eigentlich viel zu schnell für mich.
Und unabhängig davon ist die Verlustleistung im Verhältnis zur Performance gegen zB. einer normalen 3070 einfach nicht gut.
Aber ich wollte genau dieses Design haben.
Das gibt´s halt nur bei der 3070 Ti.

Aber okay muss auch sagen, verschleudern tue ich den Strom auch nicht.
Meine Karte ist undervolted und spiele nur Final Fantasy XIV mit 120 FPS Lock zur Zeit.
Daher säuft die eh "nur" um die ~200 Watt.

Und wenn ich Leistung brauche, ist sie wenigstens da.
Was vllt. mit einer kleineren Karte nicht gegeben wäre.

Gut rausgekommen aus der Nummer, um sich als 3070Ti Besitzer aus dem Thema Strom rauszuhangeln... :-D
 
Da sind solche Werte normal, ein 10900K auf einem Z590 Taichi lief im PCGH-Test z.B. ohne manuelle Eingriffe mit 4,9 GHz, 106 °C und 294 W.
In einem Thema von heute erreichte ein User mit solch einem Prozessor und Cinebench R23, 325 Watt und wunderte sich, wieso er mit einer 280er AIO 99°C erreichte. :ugly:
 
Erstmal abwarten, wie sich das real darstellt. Für uns hier interessiert es real gesehen nicht, ob man unter Vollast 'nen Minikraftwerk gleich mit kaufen muss. Wichtig ist am Ende die Gamingperformance, um unsereins zu sagen: Jo , die Investition in eine neue Plattform lohnt für jeden oder eben nur Leute mit eh gealterter Hardware.

Ja und nein. Ich kann nicht beurteilen, wie verbreitet das hier ist, aber ich bin beispielsweise klassischer Mischnutzer.
Gaming-Performance ist mir wichtig, aber bei mir schrubbt die CPU auch öfter mal (meist über Nacht) stundenlange Encoding-Session durch, läuft dabei unter Vollast oder doch zumindest dicht dran und daher möchte ich natürlich, dass das gute Stück auch im oberen Lastbereich möglichst energieeffizient arbeitet.

Im Moment sind wir als Gamer zudem in der Situation, dass selbst CPUs im unteren Segment mehr als genug Leistung haben, um derzeitige Grafikkarten und - falls irgendwann wieder für jedermann verfügbar - auch noch die nächsten zwei Generationen zu füttern. CPU-seitig gibt es praktisch keinen Leidensdruck, wenn man nicht gerade Benchmark-Schwanzvergleiche anstrebt.
 
Zurück