Special Stalker 2 Tech-Test: Benchmarks von 26 CPUs und 20 GPUs in 5 Auflösungen

Nein. Deine Interpretation derselben ist falsch.

Das ein 8-Kerner am schnellsten ist, liegt wohl nicht nur an 8 schnellen Kernen, sondern am riesigen L3-Cache. Du kannst die Skalierung der Kerne zwischen 7800X3D und 7600X3D ablesen. Nicht an der Anzahl der Kerne der schnellsten CPU.

Das ist bei 7600X3D und 7800X3D die identische Architektur, der einzige Unterschied neben vielleicht ein paar MHz hin oder her, ist die Anzahl der Kerne. Je mehr Kerne, desto mehr Leistung. Das ist Skalierung.
Das hat nix damit zu tun, ob ganz oben ein anderes Produkt mit meinetwegen nur einem Kern steht. Der Bezug zur
Skalierung wäre dann nur vorhanden, wäre diese CPU auch mit 2 Kernen im Vergleich. Würde bei dieser dann plötzlich die Leistung nicht mehr mit der Kernanzahl sklaieren, das wäre tatsächlich ein Gegenbeweis.

Auf den 9800X3D bezogen, da wäre es der Vergleich mit einem fiktiven 9600X3D sinnvoll, oder man schaut eben auf die Vorgänger. Oder die Brüder ohne den extra L3-Cache. Intel CPUs eignen sich gut, auch da kann man die hervorragende Kernskalierung ablesen.
Ne du....
bzw. schreibe ich ja nicht: "Es Skaliert nicht mit Kernen...!" Sondern es skaliert schlecht mit kernen.
ein 7800x3d hat 33% mehr Kerne bekommt ca 10% FPS mehr bei ca 4% mehr Takt.
Arrow Lake ist noch lustiger .
10% mehr Takt und 71% mehrkerne für grandiose 10% mehr Performance.
9600x zu 9700x 33% mehrkerne 6 zu 8 zu diesmal nur 7% mehr Performance, da der 9600x ca 3% mehr Takt. hat.
Ein 13600k und ein 13700k trennen in den avg Fps sogar nur 3%.
Ich kann beim besten willen bei diesen Daten nicht von einer Guten Skalierung mit kernen Sprechen.
 
Ne du....
bzw. schreibe ich ja nicht: "Es Skaliert nicht mit Kernen...!" Sondern es skaliert schlecht mit kernen.
ein 7800x3d hat 33% mehr Kerne bekommt ca 10% FPS mehr bei ca 4% mehr Takt.
Arrow Lake ist noch lustiger .
10% mehr Takt und 71% mehrkerne für grandiose 10% mehr Performance.
9600x zu 9700x 33% mehrkerne 6 zu 8 zu diesmal nur 7% mehr Performance, da der 9600x ca 3% mehr Takt. hat.
Ein 13600k und ein 13700k trennen in den avg Fps sogar nur 3%.
Ich kann beim besten willen bei diesen Daten nicht von einer Guten Skalierung mit kernen Sprechen.
Ein Intel 245K hat 6 P-Cores und 8 E-Cores, 265K hat 8P und 12E, beim 285K sinds nochmal 4 E-Cores oben drauf. Wenn man nicht weiter unterscheidet sind das 14, 20 und 24 Kerne. Aber so einfach funktioniert es dann halt nicht. Und eine lineare Skalierung zu einem Nullpunkt erwartet über das Minimum hinaus auch niemand.
Sehen wir uns doch mal den Unterschied von 6 zu 8 Kernen an. Ohne E-Core-Helferlein.
stlk_z5.png

stlk_z4x3d.png

Mit ordentlich Cache im Hintergrund wird aus den zusätzlichen Kernen mehr herausgepresst. Erscheint auch logisch, die Arbeit liegt ja quasi schon herum, im Cache.
Die Anahme wie "33% mehr Kerne müssen 33% mehr Leistung ergeben, dann ist die Skalierung gut." ist hier nicht richtig. Das hättest du mit 100% Kernauslastung, einem völlig anderen Workload. Die Shaderkompilierung am Anfang wird sich so verhalten, Raff hat das im Video ausdrücklich erwähnt.

Nebenbei bemerkt, beim kompilieren des Shader Cache wird der 9800X3D wohl eher neben seinen X3D-losen Brüdern Platz nehmen, auch wenn der Cache noch Vorteile bringen mag. Aber wir haben hier ein Spiel, eine Teillast, bei der es eben auch repititve Aufgaben zu lösen gibt, welche eine zeitabhängige Komponente haben. Deswegen hilft der Cache, deswegen ist es nicht mit einem Workload wie z.B. dem Rendern eines Videos vergleichbar, bei dem Aufgaben so schnell wie möglich hintereinander abgearbeitet werden können, und die Auslastung der CPU bei 100% liegt.
Mehr Kerne bringen bei so einer Teillast eben auch einen Vorteil, aber nicht bezogen auf die gesamte Kernzahl, schon eher auf die Auslastung derselben. Das scheint wieder logisch, aber dafür haben wir keine Datengrundlage.

Jetzt schauen wir uns mal die Intel Arrow Lakes an. Wir wissen ja nun, das Spiel kann über 6 Kerne hinaus mehr FPS aus zusätzlichen Kernen gewinnen kann. Aber eben nur ein paar Prozent, bei diesem Workload. Nun ignorieren wir einfach mal, das der 245K zwei P-Cores weniger hat als die großen Brüder. Dann haben wir nur die E-Cores, 8, 12 und 16.
stlk_arrow.png

Sieht wie bei den Ryzen CPUs aus, nicht wahr? über 6 Kernen scheinen die zusätzlichen Kerne Arbeit abnehmen zu können, und es scheint das passiert schon sehr linear.
Und damit zurück zu dem von dir zitierten Satz:
Da die Kernauslastung extrem gut ist, positioniert sich das Arrow Lake Topmodell Core Ultra 9 285K sogleich an zweiter Stelle, ganz knapp vor dem Watt-Künstler Core i9-14900KS. Raptor Lake ist in Stalker 2 gnadenlos Power- und Stromstärken-limitiert.
Die Kernauslastung muss gut sein, es passiert ja etwas. Und vermutlich hat man sich dabei nicht auf Annahmen verlassen, sondern sich die Auslastung auch angesehen.
Von Skalierung war da noch keine Rede. Aber wie wir sehen, skaliert das Game tatsächlcih recht gut mit weiteren Kernen. 100%, 107% und mit weiteren 4 Ecores 113%. Die 2 fehlenden P-Cores verhindern wohl exakt lineare Werte.
 
Zuletzt bearbeitet:
Schau dir die PCGH-Bench Videos an, dort siehst du 24 Kerne ackern, die machen alle gut mit. Und scroll etwas hoch, ich hatte es doch mit QIX, bei ihm machen alle 32 Threads mit, das ist abartig gute Kernskalierung.

Dave hat im BenchThread von darkearth ein 14600 am Start, auch, oder nur? mit HT off. HT off scheint besser zu sein. Aber ich kann das nicht ausmachen, weil 6C/6T ... damit bist du komplett unzockbar, heutzutage. 6C/12T ist eigentlich schon viel zu wenig.

Krieg i au Schokolade? 😍
Schau dir die Benchmarks an und du siehst das von mir gesagte ;)
HT off ist in den Comunity Benchs schneller. Sofern genug Kerne.
Du hast Humor. Herzhaft 😂. (ich lache nie jmd aus).
 
Ich rede dummen Scheiß? Dann gilt das wahrscheinlich auch für den CPU-Fachredakteur, denn der sagt quasi das gleiche wie ich.
Nachzulesen alles unter den CPU-Balken im Haupttest.

Ich kann kein zweites Spiel nennen, das so Kerne/Threads frisst, wie Stalker 2.
Völlig egal wer was schreibt, denken muss man schon selbst.

Und es bleibt.
Auch Stalker 2 skaliert schlecht mit mehr Kernen. Wenn gleich es wenigstens einen Profit aus mehr Kernen bringt. Der ist aber so klein, das eine CPU mit weniger Kernen, mit höherem Takt vermutlich bei gleicher Verlustleistung wieder gleich schnell wäre, wenn nicht schneller.
Nein. Deine Interpretation derselben ist falsch.
Die war schon absolut richtig.
Das ein 8-Kerner am schnellsten ist, liegt wohl nicht nur an 8 schnellen Kernen, sondern am riesigen L3-Cache. Du kannst die Skalierung der Kerne zwischen 7800X3D und 7600X3D ablesen. Nicht an der Anzahl der Kerne der schnellsten CPU.
Hier siehst du was, das der 7800X3d mit mehr Takt nur 10% schneller ist, als der 7600X3d und wenn du den Takt raus rechnest (sag mal 80%, also aus 6,3% Takt machen wir mal 5% Leistung, da auch der Takt nicht 1:1 in Leistung resultiert). Dann sind 8 Kerne nur 5-7% schneller als 6 Kerne. Das für 33% mehr Kerne ist lächerlich schlecht.

Das ist bei 7600X3D und 7800X3D die identische Architektur, der einzige Unterschied neben vielleicht ein paar MHz hin oder her, ist die Anzahl der Kerne. Je mehr Kerne, desto mehr Leistung. Das ist Skalierung.
Habe dir gerade gezeigt wie die Skalierung aussieht. Keiner sagt, das mehr Kerne 0% mehr bringen. Aber 33% mehr Kerne für 5-7% mehr Fps ist der falsche Ansatz.

Parallel schau mal auf den Verbrauch. Da leider bei Stalker der 7600X3d nicht mehr aufgeführt ist (Bei der Effizienz ziehen wir mal ersatzweise den 7600X3d PCGH Test hinzu.


Hier zu erst den Index, im Mittel über viele Spiele ist der 7800X3d mit 6,3% mehr Takt nur 9% schneller.
Bei 33% mehr Kerne und 19% mehr Verbrauch.

Bezogen auf die Energieeffizienz sieht es für die CPUs mit vielen Kernen im Vergleich bei Intel düsterer aus.
Wenn man einen 14600k, mit einem 14900k vergleicht. Bezogen auf Leistung pro Watt und Leistung pro Kernzahl.
Das hat nix damit zu tun, ob ganz oben ein anderes Produkt mit meinetwegen nur einem Kern steht. Der Bezug zur
Skalierung wäre dann nur vorhanden, wäre diese CPU auch mit 2 Kernen im Vergleich. Würde bei dieser dann plötzlich die Leistung nicht mehr mit der Kernanzahl sklaieren, das wäre tatsächlich ein Gegenbeweis.

Auf den 9800X3D bezogen, da wäre es der Vergleich mit einem fiktiven 9600X3D sinnvoll, oder man schaut eben auf die Vorgänger. Oder die Brüder ohne den extra L3-Cache. Intel CPUs eignen sich gut, auch da kann man die hervorragende Kernskalierung ablesen.

Schau dir 7800X3d zu 7600X3d genauer an.
Ein Intel 245K hat 6 P-Cores und 8 E-Cores, 265K hat 8P und 12E, beim 285K sinds nochmal 4 E-Cores oben drauf. Wenn man nicht weiter unterscheidet sind das 14, 20 und 24 Kerne. Aber so einfach funktioniert es dann halt nicht. Und eine lineare Skalierung zu einem Nullpunkt erwartet über das Minimum hinaus auch niemand.
Was schreibst du hier. Wer hat so etwas behauptet. Schau dir 7800X3d zu 7600X3d an, oder 9700 zu 9600.
Sehen wir uns doch mal den Unterschied von 6 zu 8 Kernen an. Ohne E-Core-Helferlein.
Anhang anzeigen 1476305
Anhang anzeigen 1476306
Mit ordentlich Cache im Hintergrund wird aus den zusätzlichen Kernen mehr herausgepresst. Erscheint auch logisch, die Arbeit liegt ja quasi schon herum, im Cache.
Die Anahme wie "33% mehr Kerne müssen 33% mehr Leistung ergeben, dann ist die Skalierung gut.
Das sagt keiner. Aber 5-7% mehr Fps aus 33% mehr Kernen ist schlecht. Gut wären und in Spielen nahe am Optimum 20-23% mehr Fps aus 33% mehr Kernen.

Das gab es in ein, bis drei Spielen auch schon einmal.
" ist hier nicht richtig. Das hättest du mit 100% Kernauslastung, einem völlig anderen Workload. Die Shaderkompilierung am Anfang wird sich so verhalten, Raff hat das im Video ausdrücklich erwähnt.
Du ziehst am Strohhalm meiner Meinung nach.
Bei den erhobenen Daten kann man sagen, zum Glück kann Stalker 2 noch aus Kernen etwas raus holen. Aber eine gute Skalierung sieht selbst in Spielen anders aus.

Nur mal ein Beispiel vergangener Tage


Siehe Phenom II X6 VS X4, obwohl der 4 Kerner noch 3% höher taktet, war der 6 Kerner 30% schneller, aus 50% mehr Kernen.

Bei gleichem Takt, wären es knapp über 30%. Das ist eine gute Skalierung. Mehr ist auch nicht zu erwarten in Spielen. ( das Mehr an Kernen schlägt in etwa 60% dessen in mehr Fps um)
Nebenbei bemerkt, beim kompilieren des Shader Cache wird der 9800X3D wohl eher neben seinen X3D-losen Brüdern Platz nehmen, auch wenn der Cache noch Vorteile bringen mag. Aber wir haben hier ein Spiel, eine Teillast, bei der es eben auch repititve Aufgaben zu lösen gibt, welche eine zeitabhängige Komponente haben. Deswegen hilft der Cache, deswegen ist es nicht mit einem Workload wie z.B. dem Rendern eines Videos vergleichbar, bei dem Aufgaben so schnell wie möglich hintereinander abgearbeitet werden können, und die Auslastung der CPU bei 100% liegt.
Mehr Kerne bringen bei so einer Teillast eben auch einen Vorteil, aber nicht bezogen auf die gesamte Kernzahl, schon eher auf die Auslastung derselben. Das scheint wieder logisch, aber dafür haben wir keine Datengrundlage.

Jetzt schauen wir uns mal die Intel Arrow Lakes an. Wir wissen ja nun, das Spiel kann über 6 Kerne hinaus mehr FPS aus zusätzlichen Kernen gewinnen kann. Aber eben nur ein paar Prozent, bei diesem Workload. Nun ignorieren wir einfach mal, das der 245K zwei P-Cores weniger hat als die großen Brüder. Dann haben wir nur die E-Cores, 8, 12 und 16.
Anhang anzeigen 1476307
Sieht wie bei den Ryzen CPUs aus, nicht wahr? über 6 Kernen scheinen die zusätzlichen Kerne Arbeit abnehmen zu können, und es scheint das passiert schon sehr linear.
Und damit zurück zu dem von dir zitierten Satz:

Die Kernauslastung muss gut sein, es passiert ja etwas. Und vermutlich hat man sich dabei nicht auf Annahmen verlassen, sondern sich die Auslastung auch angesehen.
Von Skalierung war da noch keine Rede. Aber wie wir sehen, skaliert das Game tatsächlcih recht gut mit weiteren Kernen. 100%, 107% und mit weiteren 4 Ecores 113%. Die 2 fehlenden P-Cores verhindern wohl exakt lineare Werte.
Nope.
Bleibt lächerlich schlecht.

Führt euch mal vor Augen, das ein 8 Kerner überproportional mehr verbraucht, im Vergleich zur Mehr Leistung.

Absolut betrachtet bringen mehr Kerne etwas mehr Leistung, aber das ist sehr wenig, weil Spiele schlecht skalieren (überwiegend). Es gitb hin und wieder mal Ausnahmen, Stalker 2 ist es nicht.
 
Zuletzt bearbeitet:
Ich glaube was hier das Problem der Leute ist, das sie den Unterschied zwischen Skaliert schlecht und Skaliert gar nicht nicht anerkennen. Zwischen Auslastung und Skalierung scheint auch Verwirrung zu herrschen.

Eine Skalierung beschreibt in diesem fall wie viel mehr Leistung ich pro zusätzlichen Kern bekomme. Diese scheint relativ schlecht zu sein denn mehrkerne resultieren in einer geringen Mehrleistung, die 8 kerner können sich wie bereits geschreiben, nicht gut von den 6 Kernern absetzten. Der A-Synchrone aufbau der CPUS mit mehr als 8 kernen macht, es darüber hinaus schwer weitere Analyse zu ziehen ob sich z.b ein 12 Kerner von einem 8 Kerner absetzten kann. Da wir keinen Singel CCD 12 Kerner haben oder im fall von Intel keine CPU mit mehr als 8 P Kernen haben.

Schaut man sich zusätzlich zu den reinen Kernen auch noch den Preis der CPUs, an kann man nur sagen.
Ein flotter 6 Kerner ist was P/L angeht das mass der dinge im moment.
Auch wen Kern Klaus, mal wieder den 12 Kerner oder den 16 Kerner den Leuten als Future Proof andrehen will.

Im moment ist eigentlich nur 13600-14600(k) und die alten AM4 CPUs für Budget Gamer zu empfehlen.
der 7600x3d kostet im moment knapp 330€ und ein 7800x3d oder 9800x3d kosten ca 500€
Die alten Raptoren leisten ähnliches für weniger geld.
AMD ist im moment leider echt etwas teuer, Arrow lake genau so, wäre ein 245k für um die 200-250€ zu haben, wäre dies auch eine gute P/L CPU (Mainboard preise müsste ich erst raussuchen).
 
Volle Zustimmung.

Bei Intel ist der 14600kf mit 220€ eine echte Ansage und bei AMD das Gegenüber wohl aktuell der 7600X3d, der aber mit über 300€ recht teuer ausfällt.

Wenn der 245k bereicht bei 200-250€ liegen würde, wäre der auch durchaus interessant.

AMD finde ich auch echt teuer, wenn man nicht gerade schon den Unterbau hat.
 
Hm. Anscheinend muss ich gegen das Milchmädchen antreten. Nun gut, einen Versuch noch, eigentlich habe ich bereits alles erklärt.
Du ziehst am Strohhalm
:ugly:
Also werde ich versuchen mich kürzer fassen. Meinen Hintergrund beiseite lassen und Multithreading auf ein Kuchenmodel reduzieren. Am Ende ist ja nur wichtig was am Besagten rauskommt.

Preisfrage, wenn ein Ryzen 8-Kerner, der ja die berühmten 33% zusätzlichen Kerne gegenüber dem 6-Kerner besitzt, aber nur 7% (bzw 10% bei den Cache-Monstern) mehr Leistung daraus gewinnt, wieso ist dann ein 285K mit nur 20% zusätzlichen Kernen gg. dem 265K ebenso 7% schneller? Wieso ist zuletzt genannter, obwohl mit satten 42% Plus an Kernen nur 7% schneller als ein 245K?
Oder wollt ihr behaupten, die 4 weitern E-Cores des 285K sind etwas Besonderes, oder funktioniert Arrow Lake besonders gut, wenn das Verhältnis P- zu E-Cores genau 2.0 beträgt?

Dann nehmen wir halt das uralte Beispiel aus Crysis 3. Mit höherer CPU-Last gewinnen einige Modelle also verhältnismäßig mehr Leistung aus zusätzlichen Kernen. Wie wäre es mit einem Rechenbeispiel bei einer CPU, bei der die Auslastung weniger beträgt?
Der FX-8350 hat gegenüber dem FX-6300 einen höheren Takt, rechnet man den einfach mal heraus, sind wir wieder bei 10% mehr Leistung durch die 2 zusätzlichen Kerne. Wobei, da gabs glaube ich ein Gerichtsurteil..
Also ein i7 3950X, der schafft es gar nur auf zusäztliche 16% mehr FPS bei 50% mehr Kernen im Vergleich zu einem 3770K. Das ist die mieseste Kernskalierung aller Zeiten. :schief:

Fragt euch lieber mal, was der 13900K da eigentlich vor hat. Scheint aber in mehreren Benchmarks schon solche Extravaganzen entwickelt zu haben, einfach mal hinter dem 13700K und 13600K zu landen.

Hier gibts noch mehr zu staunen. Total War ist halt viel Rechenaufwand, der auch noch gut verteilbar ist. Das wäre dann euer ideales Modell, zumindest bis zum 8-Kerner.

Kurzum, wenn man Stalker mehr Kerne hinwirft, dann macht das Spiel auch etwas daraus. Und zwar ordentlich, siehe Arrow Lake, weitere 4 Kerne oben drauf, weitere 7% mehr Leistung. Kein Ende abzusehen, denn soviele Kerne haben wir in den Benchmarks nicht gefunden. Ein Ryzen mit 2 CCDs wäre da auch keine Hilfe.
 
Zuletzt bearbeitet:
Fragt euch lieber mal, was der 13900K da eigentlich vor hat. Scheint aber in mehreren Benchmarks schon solche Extravaganzen entwickelt zu haben, einfach mal hinter dem 13700K und 13600K zu landen.
Weil der 13900K hier bei PCGH powertechnisch komplett kastriert wird. Kerne haben ja einen Grundbedarf, auch wenn die kaum was machen. Ansonsten ist ein 13900K eigentlich immer vor einem 13700K. Das liegt einfach am höheren Takt und dem größeren L3 Cache.
 
Weil der 13900K hier bei PCGH powertechnisch komplett kastriert wird. Kerne haben ja einen Grundbedarf, auch wenn die kaum was machen. Ansonsten ist ein 13900K eigentlich immer vor einem 13700K. Das liegt einfach am höheren Takt und dem größeren L3 Cache.
Das ist plausibel. Intel und Spezifikationen eben, allerdings schätze ich das an PCGH. Der 14900K zeigt ja was möglich wäre.
 
Troy und F1 Skalieren gut mit kernen der Rest eher mäßig.
Und bei F1 sieht man das es einfach keine Ahnung von SMT hat weswegen eigentlich alles auf dem Selben nivau ist außer der 16 Kerner.

Du kannst weiter der Meinung sein das 10% besser FPS für 33% Mehr Cores gut Skalierung sind, wenn wir E Cores mit Rechnen bei Arrowlake wird es sogar noch schlimmer.

Ich kann bei besten will nicht sehen das ich 33% mehr Kerne oder gar noch mehr auf ein Spiel werfe und dafür 7-10% mehr Performance erhalte gute Skalierung ist.

Aber immerhin willst du mir nicht erzählen das 6 Kerner tot sind, wie manche andere hier.
Anders gefragt sind 8% mehrleistung bei 33% mehrpreis eine gute Investition?
 
Das ist plausibel. Intel und Spezifikationen eben, allerdings schätze ich das an PCGH. Der 14900K zeigt ja was möglich wäre.
Es sind eben keine Spezifikationen. Das denken die Tester sich hier aus. Intel selbst spricht von sogenannten empfohlenen Einstellungen. Die Implementierung wird somit an die Boardhersteller weitergereicht. Dave macht sich nicht die Mühe, diese stattdessen zu verwenden.

Beim Speicher ist das was anderes. Dennoch ist z.B. ein 12900K + DDR5-4400 brutal langsam. Das kann man keinem erklären so richtig. PCGH ist nicht der TÜV für Gaming Hardware, hier werden DIY und Enthusiasten angesprochen. Wenn ich PCGH CPU Benchmarks auf X poste und die Leute sehen die DDR5-4400 in den Charts, dann rappelt es im Karton. Immer! ^^
 
Weil der 13900K hier bei PCGH powertechnisch komplett kastriert wird. Kerne haben ja einen Grundbedarf, auch wenn die kaum was machen. Ansonsten ist ein 13900K eigentlich immer vor einem 13700K. Das liegt einfach am höheren Takt und dem größeren L3 Cache.
Tja, dann sollte man halt als Hersteller seine Specs anpassen oder noch besser, diese nicht verändern weil man Probleme mit der Lebensdauer hat.
Die Raptoren sind schnell hätte intel aber auf 100-200mhz Takt verzichten und hätte man damals direkt pl1 und pl2 auf
200 Watt für die großen gesetzt. Hätte man heute weniger Probleme.
AMD musst das auch schon lernen Ryzen 3000. Oder FX.
 
Es sind eben keine Spezifikationen. Das denken die Tester sich hier aus. Intel selbst spricht von sogenannten empfohlenen Einstellungen. Die Implementierung wird somit an die Boardhersteller weitergereicht. Dave macht sich nicht die Mühe, diese stattdessen zu verwenden.

Beim Speicher ist das was anderes. Dennoch ist z.B. ein 12900K + DDR5-4400 brutal langsam. Das kann man keinem erklären so richtig. PCGH ist nicht der TÜV für Gaming Hardware, hier werden DIY und Enthusiasten angesprochen. Wenn ich PCGH CPU Benchmarks auf X poste und die Leute sehen die DDR5-4400 in den Charts, dann rappelt es im Karton. Immer! ^^
Dürfen die Twitter nutzer gerne tuen, und sich dann wieder beschweren weil das Game Crasht weil so schrecklich Programmiert, nur weil man pech hat und der Gelibte CPU dann doch nicht die 7000 MHZ RAM kann oder die Kühlung doch keine 253 Watt abführen kann.

Selbst schuld, AMD wird auch mit Spec getestet da stört es dich nicht.


Ich lass das einfach mal da:
1732891273733.png
 
Und wer sagt jetzt, dass Baseline "die Spezifikation für Reviews" ist, egal, welches Board man nimmt?!
Ob es mit den Worten von Intel zu sagen Baseline oder aber auch Pl1= 125 Watt is standard.
Anders gefragt wer sagt das es das nicht ist.
Man könnte auch einfach eine Spec nennen oder Reviewers Guid oder aber auch man sagt einfach.
Unsere CPUs sollten wie folgt betrieben werden.
PL1=PL2=300 Watt (z.b)
Tut man aber nicht.

Aber für dich sind so oder so alle Deutschen Medien gekauft, also von daher egal.

Intel kann oder will einfach nicht konkret werden, weil sie entweder Angst vor schlechter PR haben oder weil Sie etwas wissen.

Ist mir auch egal.

Ändert nichts daran das ich durch die überzogenen AMD preise den 14600 im Moment für Gamer gut finde.
Und wenn ich die CPU selbst nicht verkaufen muss, gerne auch den 14600k oder 13700k. Weil günstig und schnell im Gaming.
 
oder im fall von Intel keine CPU mit mehr als 8 P Kernen haben.
Na na na na na, und ob wir das haben ...

Intel 10-Kerner im Kellerduell mit Skalierung from Hell *Uh Yeah*
Sie sind älter, aber immernoch gut.
Runtergeldaen ist es schnell, dann geht der Stress erst los. Da hilft vermutlich eine NVME.
 

Anhänge

  • Intel 10-Kerner rocken!!!.png
    Intel 10-Kerner rocken!!!.png
    63,3 KB · Aufrufe: 16
  • Screenshot (14).png
    Screenshot (14).png
    1,1 MB · Aufrufe: 13
Zuletzt bearbeitet:
Zurück