News Core i9-14900KS: Intel packt die 400-Watt-Brechstange voraussichtlich bereits im März aus

Wenn dein Workload Anwendungen sind dann würde ich die neuen Threadripper in Betracht ziehen. Ich habe letzte Woche die Printtests gelesen und war erstaunt das die HEDT-Plattform von AMD doch wieder viel Liebe bekommt. Mit den CPUs kann man dann auch spielen.
Nah finde die HEDT Plattformen nur semi gut zum spielen.
Da würde ich ´ne Mainstream Plattform immer vorziehen.
Für mich persönlich hat AMD im Desktopbereich gerade einfach die Nase vorne.
Ist ja auch nicht unrichtig.
1. Effizienz - Ob das Video 20 Sekkunden schneller gerendert wurde ist weniger relevant als die insgesamt Verbrauchte Leistung und die Kosten die damit einher gehen.
Ein Corsa bringt mich auch effizienter von A nach B.
Trotzdem fährt nicht jeder einen Corsa.

Sondern manche kaufen sich trotzdem einen AMG.
Sind schneller von A nach B gekommen.
Müssen dafür aber mehr Kohle in den Tank blasen.

Ist denen trotzdem egal.
Die fahren trotzdem AMG.
 
Nah finde die HEDT Plattformen nur semi gut zum spielen.
Da würde ich ´ne Mainstream Plattform immer vorziehen.
Das Thema habe ich nur angerissen für diejenigen die max. Anwendungsleistung brauchen und bei denen Zeit = Geld ist. Man kann dann nach Feierabend auch damit spielen dafür ist es aber nicht gedacht.
AMD hatte hier einige Jahre nichts im Angebot, bei Intel bin ich nicht ganz auf dem laufenden. Ist nicht so meine Baustelle :D

Ein Corsa bringt mich auch effizienter von A nach B.
Trotzdem fährt nicht jeder einen Corsa.

Sondern manche kaufen sich trotzdem einen AMG.
Sind schneller von A nach B gekommen.
Müssen dafür aber mehr Kohle in den Tank blasen.

Ist denen trotzdem egal.
Die fahren trotzdem AMG.
Kann auch jeder machen was er/sie/es möchte. Aktuell ist die Effizienz neben der Plattform das Hauptargument für mich AMD zu kaufen oder zu empfehlen. Ich zeige die Vor- und Nachteile der Plattformen auf und zu 99% hat aktuell AMD die Nase vorne. Wenn das für dich keine Rolle spielt, andere Themen wichtiger sind und Intel das besser bedient dann hau rein :D. Es wäre nur fatal nicht über den Tellerrand zu schauen und zu sondieren was die anderen haben, worin sie besser und schlechter sind.
 
Nach Spezifikation sind es allerdings 257 Watt, wieso berichtet ihr von 400 Watt, bevor das Wattmonster getestet wurde? Klingt fast so als würdet ihr versuchen nur Klicks zu machen.
Weil die Vorgänger schon die 350 Watt gerissen haben. 351W habe ich gelesen.
Natürlich nur im Extremtest mit AVX, das ist klar.
Aber solche Werte können nun einmal erreicht werden, wenn man die Prozessoren wirklich voll auslastet - udn die sich wegen schlechter Kühlung nicht vorher selber runterregeln.
Deshalb sollte man niemals diese verdammt schlechten ALDI Rechner kaufen. :-P
Und Gen 14 ist noch viel durstiger.
Die stehen in Sachen Effizienz ganz weit unten in der Liste.
Selbst in Spielen ziehen die so viel Strom, das geht auf keine Kuhhaut.
Wer will denn 210 oder gar 217 Watt in Spielen wie Cyberpunk und Starfield verprassen, wenn das auch mit maximal der Hälfte quasi gleich gut geht?
Dann noch eine 7900XTX oder 4090 obendrauf.
Strom und Gas wird bei uns gerade wieder 25% teurer.
Wer damals über AMDs "limitierte" 9000er Serie gelästert und geschimpft hat, hat eine wunderbare Steilvorlage.
Die DInger werden mittlerweile mehrere hundert Mhz über ihrem tatsächlich sinnvollen Alltagslimit betrieben, weil denen die Ideen ausgegangen sind.
Es ist schließlich seit 14 Gens im Grunde immer noch der gleiche Kram.
Erst mit Meteor Lake bauen die endlich mal grundlegend etwas um.
Aber auch da sieht man eigentlich erst einmal nur große Fortschritte beim Thema Mobilität durch Ausklammern von verbauten Komponenten bei Niedriglast, weniger bei Leistung pro Watt, wo man im Desktop dann mal einen großen Leistungssprung bei weniger Verbrauch sehen könnte.
Hoffentlich bringen da dann die Nachfolger mal überarbeitete Kerne, damit man im Desktopbereich irgendwann in ein paar Jahrend ann wieder konkurrenzfähig wird.
Weil fortwährend 2-3facher Effizienzunterschied ist nur noch lächerlich und inakzeptabel.
AMD wird bei Grafikkarten dafür von vielen hier auch plattgemacht, weil die beim Raytracing in der Effizienz wohl locker 50% schlechter sind, oder etwas nicht?
Gleiches Recht für alle. ;-P
Außerdem muss man es auch so sehen:
wenn sich jemand zum Gaming extra NVidia kauft, eben weil die mit RT wesentlich effizienter und natürlich auch leistungsfähiger sind, na dann muss man eigentlich zwangsweise auch schon einen AMD X3D als CPU dazu kaufen, ansonsten ziehen die angeführten Argumente ja nicht mehr.
 
Zuletzt bearbeitet:
Weil die Vorgänger schon die 350 Watt gerissen haben.
Nochmal: Nur dann wenn man die Intel-Specs ignoriert hat.
Das ist nur bei den Topmodellen mittlerweile in den Tests oft so üblich weil man "400 WATT!!!111eins" viel besser verkaufen kann als "Der KS ist bei gleichem Maximalverbrauch 2% schneller als der K".

Dass AMD effizienter unterwegs ist ist gar keine Frage, natürlich sind sie das. Nur dieses reißerische Gesülze von gefühlt schmelzenden Intel-CPUs bei No-Limit ist irgendwann einfach nur noch nervig. Die allermeisten Leute die diese Sprüche raushauen würden nicht mal bemerken, ob sie nen ZEN4 oder nen RaptorLake im PC hätten wenns nicht draufstehen würde.

AMD wird bei Grafikkarten dafür von vielen hier auch plattgemacht, weil die beim Raytracing 50% schlechter sind, oder etwas nicht?
Ja, das ist genau son Mist. Ja, die GPUs sind im RT schlechter und sie sind auch ineffizienter als Lovelace. Aber da wird manchmal genauso maßlos übertrieben.

Irgendwie ist das sinnvolle Maß an Diskussion immer mehr verloren gegangen - heute diskutiert man nur noch über Extreme.
Dinge sind nur noch Extrem geil oder Ultraschlecht. News-Seiten müssen drauf aufspringen um rentabel zu bleiben und schreiben 400 Watt in die Überschrift - nur dass dann in der Print im Kleingedruckten die Realität steht (am beispiel des 13900KS) - 253 Watt:
1708068897598.png

und, selbst im Falle von "CPU darf alles was geht" in der Realität:
1708068938356.png


Klar ist das zu viel und ineffizient und natürlich wird der 14000er da nicht besser aussehen aber die oft veranstaltete Hexenjagd sehe ich hier wirklich unbegründet.
 
Irgendwie ist das sinnvolle Maß an Diskussion immer mehr verloren gegangen - heute diskutiert man nur noch über Extreme.
Dinge sind nur noch Extrem geil oder Ultraschlecht.
Eher Grundlegende Probleme unserer Gesellschaft.

Es gibt immer nur zwei Seiten.
Das es dazwischen noch so viel mehr gibt, soweit können oder wollen viele leider nicht mehr schauen.

Oder akzeptieren das auch einfach gar nicht.
 
@Incredible Alk
Es fehlt hier im Forum ein 100% Emote/Reaktion mit dem ich ausdrücken kann wie sehr du Recht hast und ich dir zustimme.
Konstruktive und begründete Kritik muss immer möglich sein. PCGH macht das in den Tests auch für mich auf einem seriösen und hohen Niveau. Leider nehmen hier aber auch Überschriften in den News zu. Die Begründung hast dafür hast du perfekt geliefert. Macht man es nicht verliert man die Aufmerksamkeit und dadurch verdient man weniger Geld...
 
Ein Corsa bringt mich auch effizienter von A nach B.
Trotzdem fährt nicht jeder einen Corsa.

Sondern manche kaufen sich trotzdem einen AMG.
Sind schneller von A nach B gekommen.
Müssen dafür aber mehr Kohle in den Tank blasen.

Ist denen trotzdem egal.
Die fahren trotzdem AMG.
Der Unterschied ist aber in der CPU-Welt nicht AMG zu Corsa sondern eher Shelby GT500 (290 km/h Spitze, 21,7L Verbrauch) zu Lotus Emira V6 (290km/h Spitze, 11L Verbrauch). Da beide CPUs ähnliches leisten (aktuell ist mit minimalem Abstand Intel vorne), der Verbrauch sich aber massiv unterscheidet.
und, selbst im Falle von "CPU darf alles was geht" in der Realität:
279 W im Durchschnitt schließen ja 300-350W in vereinzelten Szenarien ja grundsätzlich nicht aus.
Ich gehe natürlich mit dem Grundtenor deines Posts mit, vor allem als Person, die sich (leider) auch schon zu solchen Formulierungen hat hinreißen lassen.

Daher mag ich den neuen Zusatzwert/Zusatztest: CPU-Verbrauch im GPU-Limit. Da wird aufgezeigt, dass auch im GPU-Limit der Verbrauch nicht "komplett irrelevant" ist und auch durchaus Unterschiede herrschen, aber nicht zwangsläufig so große Unterschiede wie es die jeweils isoliert betrachteten CPU-Tests im CPU-Limit suggerieren *könnten*
 
Daher mag ich den neuen Zusatzwert/Zusatztest: CPU-Verbrauch im GPU-Limit. Da wird aufgezeigt, dass auch im GPU-Limit der Verbrauch nicht "komplett irrelevant" ist und auch durchaus Unterschiede herrschen, aber nicht zwangsläufig so große Unterschiede wie es die jeweils isoliert betrachteten CPU-Tests im CPU-Limit suggerieren *könnten*
Die Idee ist gut, die Umsetzung schwierig, denn die "Höhe" des GPU-Limits müsste man festlegen und das wird schwer.
Eine 4070 hat das Limit ja woanders als eine 4090 beispielsweise.
Da müsste man irgendwas basteln wie in 720p ohne Limit messen was an fps geht und dann die Settings so wählen dass die GPU nur die Hälfte davon schafft. Sowas kriegste aber nie konsistent hin, vor allem nicht über viele Spiele und Hardware.
 
Die Idee ist gut, die Umsetzung schwierig, denn die "Höhe" des GPU-Limits müsste man festlegen und das wird schwer.
Eine 4070 hat das Limit ja woanders als eine 4090 beispielsweise.
Da müsste man irgendwas basteln wie in 720p ohne Limit messen was an fps geht und dann die Settings so wählen dass die GPU nur die Hälfte davon schafft. Sowas kriegste aber nie konsistent hin, vor allem nicht über viele Spiele und Hardware.
So ähnlich hatte Dave es ja auch aufgezogen, wenn ich mich Recht erinnere. Es müssen ja auch nicht drölfzig Spiele getestet werden. Immer mal wieder eines reicht ja, um einen groben Blick zu bekommen und quasi beide Lager gleichzeitig ruhig zu stellen. Die, die sagen "aBeR iM GpU-LiMiT vErbRAucHt mEiNe CpU gAR NiX" genau wie die, die die CPU-Limit Maximal-Werte überall anwenden möchten.
 
Nur welches Spiel als Beispiel nimmt man da ?
Das ist schwierig.

Nimmt man ein WoW als Beispiel, so ist das ziemlich genügsam in der Leistungsaufnahme, im GPU Limit.
- Dort wird dann dem Leser vermittelt, das die CPUs ja eigentlich alle recht wenig Leistungsaufnahme haben.

Nimmt man dann CP2077, wo die Leistungsaufnahmen auch im GPU Limit wesentlich höher sind.
- Da bekommt der Leser einen ganz anderen Gesamteindruck.

Alleine auf Grund dessen weil die Zahlen nun mal komplett unterschiedlich hoch sind bzw. dort ganz einfach wesentlich größere Zahlen gezeigt werden, reicht es schon für denjenigen der einfach mal Infos sich einholen möchte, ohne tiefer in die Materie eingehen zu wollen.

Solche Werte, wie die Leistungsaufnahme der CPU im GPU Limit lässt sich mMn auch besser über Durchschnittswerte ermitteln von mehreren getesteten Spielen.

Wo dann aber wie schon Alk sagte andere Problematiken einher gehen.
 
WoW als Beispiel, so ist das ziemlich genügsam in der Leistungsaufnahme, im GPU Limit.
Das relavante Limit ist egal welche Auflösung in WOW halt dennoch das CPU-Limit. Im Raid wärest du froh, wenn du im GPU-Limit liegst. Und da die Multicore-Auslastung von WOW Grütze ist, hast du natürlich auch weniger Verbrauch als bei Cyberpunk, wo sie nunmal eher vorblidlich ist.
Und es macht immer und unter allen Umständen mehr Sinn, ein "schwierigeres" Szenario abzubilden als das leichtere.
Was nützt es mir zu wissen, dass meine CPU im GPU-Limit bei WoW 5 Watt verbraucht, wenn es in einem AAA-Titel mit guter Mehrkernauslastung 100W im GPU-Limit sind.
 
Nimmt man ein WoW als Beispiel, so ist das ziemlich genügsam in der Leistungsaufnahme, im GPU Limit.
- Dort wird dann dem Leser vermittelt, das die CPUs ja eigentlich alle recht wenig Leistungsaufnahme haben.
Wenn du bei WoW im GPU Limit sein solltest, dann läuft irgendwas falsch.
CPU Auslastung ist kein Indikator für ein CPU Limit sondern eine nicht vorhandene GPU Auslastung.
Es kann bereits ein überlasteter Kern die ganze Engine bremsen, da hast du nicht mal 12,5% CPU Auslastung.
 
Wenn du bei WoW im GPU Limit sein solltest, dann läuft irgendwas falsch.
Wat ?
Stell mal 2160p ein und stumpf alle Regler nach rechts.

Als letztes hatte ich WoW auf ´ner 4070Ti laufen.
Die macht da noch ok FPS und klebt im absoluten GPU Limit.

Die Tage teste ich mal mit ´ner 4090.

Außerdem erzähl das mal jemanden mit ´ner 1070.
Die Karte pfeift selbst in FHD und wahrscheinlich nicht mal maximalen Settings aus dem letzten Loch.

Verallgemeinern würde ich die Aussage daher besser nicht.

CPU Auslastung ist kein Indikator für ein CPU Limit sondern eine nicht vorhandene GPU Auslastung.
Es kann bereits ein überlasteter Kern die ganze Engine bremsen, da hast du nicht mal 12,5% CPU Auslastung.
Danke für die Erklärung.
War aber nicht nötig.
 
Möglich, sogar wahrscheinlich - aber nicht, wenn du in 8K mit MSAA und scharf gerade über den Wald von Elwynn fliegst, dann winselt auch deine RTX 4080 um Gnade. :D

MfG
Raff
Ja, in der Open World ist das ja auch Wumpe. Aber in ner M+ 25 aufwärts in nem Big - Pull mit 50-100 Mobs oder so. Also da, wo es auf FPS auch ankommt. Oder im Raid. Oder im BG. Da biste (meine ich zumindest) CPU-Bound. Und das wäre ja eine Szene, die im Test genommen wird. Ihr macht ja keine Tests, die irgendein Softy-Szenario abbilden. Also Cyberpunk Fahrstuhl oder Alan Wake 2 im Hauptmenü.
 
Weil die Vorgänger schon die 350 Watt gerissen haben. 351W habe ich gelesen.
Mainboardübertaktung, Maximum sind 253 Watt.
Natürlich nur im Extremtest mit AVX, das ist klar.
Das ist den meisten eben nicht klar. Man lässt diese Informationen weg um eine Schlagzeile zu produzieren.
Der theoretische Maximalverbrauch mit Übertaktung spielt keine Rolle und kann höchstens ein Zusatztest sein.
Aber solche Werte können nun einmal erreicht werden, wenn man die Prozessoren wirklich voll auslastet - udn die sich wegen schlechter Kühlung nicht vorher selber runterregeln.
Mit Übertaktung und AVX instructions. Ja.
Die stehen in Sachen Effizienz ganz weit unten in der Liste.
So ganz richtig kann das nicht sein, denn im Heft übertrifft Raptor Lake den Konkurrenzprozessor um 15% in Anwendungen. Takte ich nun Raptor Lake dementsprechend niedriger, müsste der Strombedarf ähnlich sein. Der 170W 7950X3D erreicht 87,4 Punkte, der 253W 14900K erzielt 100%. Der 7950X erzielt mit 220W Limit 89,5%, der 14900K mit 253W Limit 100%.

Die Effizienz hängt glasklar am Betriebspunkt.
Wer will denn 210 oder gar 217 Watt in Spielen wie Cyberpunk und Starfield verprassen, wenn das auch mit maximal der Hälfte quasi gleich gut geht?
Dann noch eine 7900XTX oder 4090 obendrauf.
Vice Versa Spiele. Gesamtsystemverbrauch.
Screenshot 2024-02-16 153333.png

PCGH Heft 03/2024.
13600K/14600K P02 93% AVG 90%
7800X3D P02 94,5% AVG 99,9%
7950X3D P02 93,5%
14900K P02 100% AVG 100%
13900K P02 99,8% AVG 98,2%
Das Gesamtsystem mit 14600K ist annähernd so effizient wie das mit dem 7800X3D oder 7950X3D, gemessen in 1080P. Ich brauche keinen ans Maximum getakteten 14900K.
Hoffentlich bringen da dann die Nachfolger mal überarbeitete Kerne, damit man im Desktopbereich irgendwann in ein paar Jahrend ann wieder konkurrenzfähig wird.
Nach den Messungen ist man mehr als konkurrenzfähig.
Weil fortwährend 2-3facher Effizienzunterschied ist nur noch lächerlich und inakzeptabel.
Differenziert man es, ist deine Aussage so eine Halbwahrheit.
 
Am Rande bemerkt: Selbst mein "offener" 13900KS am GPU-Testsystem verhält sich in den meisten Szenarien okay-ish. Mit den schnellsten Grafikkarten sieht man schon mal 150 bis 190 Watt. Mehr nur bei Shader-Compiling (dann phasenweise auch mal >250). Das ist natürlich ineffizient, aber schön schnell. Kurzzeitige Spitzen gibt es bei jeder Hardware. Am Ende wissen wir alle, dass ein beliebiger X3D effizienter ist, aber auf dem Weg zu maximal robuster (Pro-Kern-)Leistung ist ein Raptor die erste Wahl.

MfG
Raff
 
Zurück