News Core i9-14900K: Intels neue Speerspitze schlägt den AMD Ryzen 9 7950X3D voraussichtlich nur minimal

Fairerweise muss man aber sagen, dass AMD nicht besser ist. Die non X3D Modelle saufen auch wie Löcher.
Der Cache bewirkt hier wahre Wunder, aber Intel hat nichts diesbezüglich und so ein Design zaubert man nicht eben so aus dem Hut.
Richtig, allerdings sind die X3D Modelle ganz normal Teil des Lineups und, verglichen mit der Konkurrenz, normal bepreist. Dementsprechend muss Intel dem Vergleich standhalten und das kriegen sie aktuell nicht hin.
 
Bei AMD sind es vor allem die 12- und 16-Kerner, die ordentlich saugen, also 5950X, 7900X und 7950X. Solche CPUs kaufen jedoch Leute, die mit dem PC arbeiten. Primär für Spieler gibt es bessere Angebote, auch bei Intel, die dann effizienter arbeiten. Ein i5-13400F etwa ist ziemlich sparsam unterwegs, leistet jedoch nur 65 Prozent eines 7950X3D in Spielen. Intel könnte richtig effiziente CPUs bauen, wenn sie wollten, aber die wären dann eben 10 bis 20 Prozent langsamer als die AMD-Pendants in den Benchmarks. Das geht so natürlich nicht :ka:
 
Erstmal wenig, ich sehe da aber selbst in UHD noch 65% mehr Verbrauch vom 13900K. Das ist einfach nicht gut und optimierst du, wie schon geschrieben, auch nicht weg.
Ja, habe ich auch nicht gesagt.

Joa, viele User schreiben die Kritik wirklich nicht sachlich, das ändert aber nichts daran dass sie valide ist. Aktuell ist die Effizienz der Intel Topmodelle eine Katastrophe und das muss man auch klar so ansprechen. Ohne Kritik wird Intel daran wohl kaum was ändern. Intel ist keine kleine Hinterhofklitsche die vor einem wütenden Mob geschützt werden muss. Genauso wenig wie ich AMD vor berechtigter Kritik an den, meiner Meinung nach, katastrophal schlechten RDNA3 Karten "schützen" muss. Beide Hersteller haben aktuell diverse miese Produkte am Markt und die werde ich solange kritisieren bis sich was ändert.

Edit: Um das klarzustellen ich finde z.B. die Ineffizienz der AMD CPUs im Idle auch ***, aber auch das ändert nichts an der Kritik.

Es wird geschrieben, das ein 13900k, oder jetzt 14900k nicht konkurrenzfähig sei. (absolut)

Das betrifft aber nur die Effizienz.
Für mich ist der 13900k damit halt völlig konkurrenzfähig mit Abstrichen bei der Effizienz.

Und mit Tweaken kommt man eine ganze Ecke näher an eine 7800X3d. Ich meine der Intel verliert mit etwas weniger Takt, fast gar keine Leistung (im Schnitt).

Klar soll Intel das verbessern. Aber vier ältere Monitore machen einen nicht kleineren Unterschied aus, im Vergleich zu neuen bei denen man auf den Verbrauch achtet.

Außerdem ist die 7900XTX auch absolut Konkurrenzfähig zu einer RTX4080 (Wenn man RT ausklammert), mit Abstrichen bei der Effizienz.


Solche Threads sind oft viel zu schwarz - weiß
Wow... das ist echt hart, wenn man, wie ich, die cTDP auf 45W stehen hat. Ich will nicht wissen, was rauskommt, wenn ich den auch auf 45W stellen würde...
Schöne Idee für einen Test der PCGH.

7950X3d und 14900k bei 45W, aber inkl. dem schnellsten Speicher der auf den Systemen läuft.
 
Das betrifft aber nur die Effizienz.
Was ein absolut essenzieller Teil der Bewertung ist. Du kannst doch nicht die dreifache Energiemenge in ein Produkt blasen und dich dann hinstellen und behaupten du bist Konkurrenzfähig :ugly:
Konkurrenzfähig bist du dann wenn du in den wichtigsten Punkten konkurrenzfähig bist. Das sind bei CPUs die zwei Punkte Leistung und Verbrauch. In einem der Punkte ist Intel nicht konkurrenzfähig.
Und mit Tweaken kommt man eine ganze Ecke näher an eine 7800X3d. Ich meine der Intel verliert mit etwas weniger Takt, fast gar keine Leistung (im Schnitt).
Und das geht beim 7800X3D nicht? Vllt fällt der Effizienzvorsprung dann von Faktor 3 auf Faktor 2 bis 2,5. Das ändert aber nichts an der Konkurrenzfähigkeit.

Edit: Worauf ich mich noch einlassen würde wäre der Punkt "Scheduler-Probleme" beim 7950/7900X3D. Das ist alles andere als optimal und da muss AMD ganz dringend nachbessern in Zukunft. Das kriegt Intel um Längen besser hin.
 
Bei AMD sind es vor allem die 12- und 16-Kerner, die ordentlich saugen, also 5950X, 7900X und 7950X. Solche CPUs kaufen jedoch Leute, die mit dem PC arbeiten. Primär für Spieler gibt es bessere Angebote, auch bei Intel, die dann effizienter arbeiten. Ein i5-13400F etwa ist ziemlich sparsam unterwegs, leistet jedoch nur 65 Prozent eines 7950X3D in Spielen. Intel könnte richtig effiziente CPUs bauen, wenn sie wollten, aber die wären dann eben 10 bis 20 Prozent langsamer als die AMD-Pendants in den Benchmarks. Das geht so natürlich nicht :ka:

Der 13400f hat bei mir mit DDR5 6000 CL 30 enorm zugelegt, im Vergleich zu den bei euch getesteten DDR5 4400 Variante.

Deswegen hätte es mich gefreut wenn Intel generell höhere Standards bei Speicher definiert hätte.

DDR 6400 CL32 für alle CPUs.

Schauen wie 14400f und co. spezifiziert sein werden, oder steht das schon.
Was ein absolut essenzieller Teil der Bewertung ist. Du kannst doch nicht die dreifache Energiemenge in ein Produkt blasen und dich dann hinstellen und behaupten du bist Konkurrenzfähig :ugly:
Konkurrenzfähig bist du dann wenn du in den wichtigsten Punkten konkurrenzfähig bist. Das sind bei CPUs die zwei Punkte Leistung und Verbrauch. In einem der Punkte ist Intel nicht konkurrenzfähig.

Naja eigentlich war es immer die Leistung die zählte.
Und das geht beim 7800X3D nicht? Vllt fällt der Effizienzvorsprung dann von Faktor 3 auf Faktor 2 bis 2,5. Das ändert aber nichts an der Konkurrenzfähigkeit.
Gerade waren es noch 65%, jetzt faktor 2 bis 3.
Edit: Worauf ich mich noch einlassen würde wäre der Punkt "Scheduler-Probleme" beim 7950/7900X3D. Das ist alles andere als optimal und da muss AMD ganz dringend nachbessern in Zukunft. Das kriegt Intel um Längen besser hin.

Für ein ganzes Setup ist das alles eher relativ. Wie ich schon schrieb. 4 ältere Monitore, oder eine 7900XTX... oder oder.


Und nochmal.

Hier wird geschrieben, das Intel absolut nicht konkurrenzfähig sei. Das sehe ich nicht so.

Wenn überhaupt müsste es heißen.

Bei der Leistung etwa gleichstand und bei der Effizienz ganz klar pro AMD.
 
Der 13400f hat bei mir mit DDR5 6000 CL 30 enorm zugelegt, im Vergleich zu den bei euch getesteten DDR5 4400 Variante.
Damit steigt jedoch auch der Verbrauch und die Mehrleistung kommt nur im CPU-Limit zum Tragen.
Deswegen hätte es mich gefreut wenn Intel generell höhere Standards bei Speicher definiert hätte.
Dito.
Schauen wie 14400f und co. spezifiziert sein werden, oder steht das schon.
Die Gerüchte und Leaks sagen einmal DDR5-6400 und dann DDR5-5600. Mehr kann ich dazu nicht sagen.
 
Gerade waren es noch 65%, jetzt faktor 2 bis 3.
Ich denke wir beide wissen was ich damit meine...

Faktor 2 bis 3 kommt aus dem Durchschnittsverbrauch im CPU Limit bei PCGH und CB. Die 65% aus dem Test in UHD von Igor.
Für ein ganzes Setup ist das alles eher relativ. Wie ich schon schrieb. 4 ältere Monitore, oder eine 7900XTX... oder oder.
Ich dachte wir sprechen über CPUs.
Bei der Leistung etwa gleichstand und bei der Effizienz ganz klar pro AMD.
Und damit, in meinen Augen, nicht konkurrenzfähig.

Ich bin jetzt aber auch raus, wir drehen uns im Kreis und kommen eh nicht auf einen Nenner.
 
Verstehe einige Kommentare nicht.

Gerade nochmal vergleiche gesehen, zwischen 13900k und 7800x3d. Beide mit DDR5 6000 betrieben in 8 oder 10 Spielen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Mal AMD schneller, mal Intel und die meiste Zeit dieser Benchmarks verbraucht der Intel nur zwischen 10 und 20W etwa mehr.

Ein 13900k mit einem TDP Limit bei 95, oder 125W gepaart mit einem schnellem Speicher Kit, bzw. relativ schnell mit scharfen Timings (natürlich DDR5) ist nach wie vor Konkurrenzfähig zu einem 7800X3d.

Klar, es gibt Spiele da ist es deutlich und einer von beiden ist sichtlich schneller. Das gibt es aber auf beiden Seiten.

Out of the Box würde ich den 7800X3d bevorzugen. Aber wer auch tweaken mag, kann ohne Probleme einen passenden Ersatz im 13900K, oder eben auch im 13700kf finden.

Der auch nicht wirklich viel mehr verbraucht.

Da sind die Unterschiede bei den GPUs gravierender, finde ich.

Ein 14700kf könnte auch je nach Straßenpreis eine Option sein. Wobei der 13700kf dann attraktiver sein dürfte.
Es geht ja um Auslastung Szenarien. Spiele werden ja mit der Zeit anspruchsvoller. Meinen 7950x konnten nur wenige Spiele zu einer Auslastung von 25% bewegen.

Benchamrks auf Youtube zu vertrauen ist nicht ungefährlich.

Ich verwenden lieber Werte von PCGH, Computerbase, IgorLabs.

Es gibt bei den ganzen Youtube Influencer und Möchtegern tech Channels immer unreimheiten.

------------------------------------------------------------------------------------------------------------
Hier eine 5 Sterne Bewertung vom 13900K.

"Sehr gute CPU, aber ein Hitzkopf (unter volllast)!
Unbedingt auf die richtige Kühlung achten, wenn die CPU voll ausgelastet werden soll.
Ich habe eine h170i-AiO(420mm) verbaut und damit bekomme ich den Prozessor gerade so gebändigt. In Cinebench R23 läuft die CPU damit die Komplette Zeit unter volllast (bis zu 350W) bei 95-98°C ohne zu throtteln und knackt beinahe die 40k marke mit dem Standardtakt. Bei der ganzen Sache unter volllast, wird es auch wichtig sich um einen sehr guten Airflow im Gehäuse zu kümmern.

Wenn die CPU ausschließlich für Gaming genutzt werden soll, reicht auch eine kleinere Kühlung. Die meisten Spiele jucken den Prozessor kaum und er dümpelt mit angenehmen 55-65°C rum. Ich denke aber auch, es wäre sinnvoll hier von vorne rein mit mindestens einer AiO ins rennen zu gehen. "
------------------------------------------------------------------------------------------------------------

Tja, was soll ich sagen, ich kann die CPU mit Coden, Blender, Unity, Videoumwandlung, Rippen & Co schon ordentlich ins Schwitzen bringen. Beim 7950x reicht bei mir eine 360 AIO locker aus. Ich mache mich die Tage mal ran und optimieren das gute Stück Silizium mal.Meiner läuft mit ECO 105Watt. 170 TDP bringt ca 2-5% mehr Leistung aber deutlich mehr Verbauch.

Aber und das soll ein großes Aber sein, Intel liefert auch ab! Ohne 3D Cache spielerei ist man gleich = schnell +/-.

Als Argument, zusagen die CPU ist Effizient, weil Spiel XY die CPU nicht auslastet ist nicht gut genug.

Ein paar Atom Kerne an einen 9900K (Es wurde auch etwas mehr geändert ist mir klar^^) zu kleben und den zu optimieren ist halt scheinbar schnell gemacht. (Das wäre mal ein Artikel wert auf PCGH oder in der Zeitschrift, Architektur Wandel bei AMD und Intel)

Hier sehen wir auch, dass die Hersteller scheinbar keine 10 CPU´s im Voraus in der Schublade haben.

Auch der Core2 war ja eine Weiterentwicklung des Pentium 3, da der P4 nicht so gut war.

Sowas wünsche ich mir für Intels nächste CPU auch. Effizientskerne machen hier und da sinn, vorallem in mobilen Geräten sind sie ein Mehrwert.

Spannender finde ich tatsächlich Intels GPU´s die geben Gas mit dem treiber und Optimierungen unglaublich.
 
Zuletzt bearbeitet:
Wenn man ehrlich ist, gehts beim Vergleichen bzw beim Argumentieren, nur darum seine Investition zu rechtfertigen.

Einfach fürs eigene Gewissen, dass man sich richtig entschieden hat.

Keine aktuelle CPU wird in Spielen wirklich gebraucht oder der Entwickler gab sich nicht genug Mühe.

Der Rest kommt manipulativ von den Herstellern uns etwas einzureden.

Das witzige ist dabei, wenn es nichts zu zocken gibt redet man über Hardware, wenn es Spiele gibt, reden wir über das Spiel und wie schlecht die Hardware genutzt wird.
 
Zuletzt bearbeitet:
Keine aktuele CPU wird in Spielen bis zu 50% ausgelastet, evtl beim i3.
Factorio, Anno 1800, Stellaris, Cities Skylines – es gibt Spiele, die benötigen eine sehr schnelle CPU. Auch so was wie Cyberpunk zieht dir mit dem CPU-Limit den Boden unter den Füßen weg, wenn man auf Raytracing abzielt. Die Kerne müssen dabei nicht zu 100 Prozent ausgelastet sein, um zu limitieren.
 
Factorio, Anno 1800, Stellaris, Cities Skylines – es gibt Spiele, die benötigen eine sehr schnelle CPU. Auch so was wie Cyberpunk zieht dir mit dem CPU-Limit den Boden unter den Füßen weg, wenn man auf Raytracing abzielt. Die Kerne müssen dabei nicht zu 100 Prozent ausgelastet sein, um zu limitieren.
Ah, interessant. Muss ich mal beobachten. Die Games zocke ich auch, ab und zu.

Muss mal mehr beobachten, statt zocken.

Daher hilft Intel immer noch der hohe Takt.

Jedoch schätze ich das die Engine am Ende auch limitieren müsse, so dass aus mehr Leistung im Verhältnis weniger bei rumkommt.
 
Verstehe einige Kommentare nicht.

Gerade nochmal vergleiche gesehen, zwischen 13900k und 7800x3d. Beide mit DDR5 6000 betrieben in 8 oder 10 Spielen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Mal AMD schneller, mal Intel und die meiste Zeit dieser Benchmarks verbraucht der Intel nur zwischen 10 und 20W etwa mehr.

Ein 13900k mit einem TDP Limit bei 95, oder 125W gepaart mit einem schnellem Speicher Kit, bzw. relativ schnell mit scharfen Timings (natürlich DDR5) ist nach wie vor Konkurrenzfähig zu einem 7800X3d.

Klar, es gibt Spiele da ist es deutlich und einer von beiden ist sichtlich schneller. Das gibt es aber auf beiden Seiten.

Out of the Box würde ich den 7800X3d bevorzugen. Aber wer auch tweaken mag, kann ohne Probleme einen passenden Ersatz im 13900K, oder eben auch im 13700kf finden.

Der auch nicht wirklich viel mehr verbraucht.

Da sind die Unterschiede bei den GPUs gravierender, finde ich.

Ein 14700kf könnte auch je nach Straßenpreis eine Option sein. Wobei der 13700kf dann attraktiver sein dürfte.
So fair muss man sein. So viel verbraucht der Intel dann letztendlich auch nicht.

Aber das der Intel dann noch getweaked werden muss, dass ist für mich ein Ausschlusskriterium. Wer kann das? Will das? Und wer möchte das? Letzteres ein paar PCGH Enthusiasten, aber ansonsten ist das nicht zumutbar. Wer spielt schon gerne mit Spannungen herum?

Dann gibt es noch die offene Frage der Gewährleistung. Darf ich einfach so eine CPU außerhalb der vorgeschriebenen Werte betreiben? Was ist, wenn die CPU defekt gehen sollte und Intel die CPU ausliest?

Und selbst wenn der Endverbraucher experimentierfreudig ist.

Bei einem Fertig-PC sind zum Beispiel die Möglichkeiten hierfür beschränkt. Und die meisten kaufen solche PC´s.

Ich bewerte die CPU´s, wie sie zur Verfügung gestellt werden. So wie Intel den Prozessor ausliefert und vorsieht.
 
Zuletzt bearbeitet:
Finde ich zwar gut wenn sich die zwei ein Rennen liefern.

Frage mich aber was das Ding Watt aufnimmt. Wenn das weit mehr ist als beim AMD muss ich die nicht haben.

Auch mein 5950X tut es dir nächsten Jahre noch locker.
 
Erstmal wenig, ich sehe da aber selbst in UHD noch 65% mehr Verbrauch vom 13900K. Das ist einfach nicht gut und optimierst du, wie schon geschrieben, auch nicht weg.

Joa, viele User schreiben die Kritik wirklich nicht sachlich, das ändert aber nichts daran dass sie valide ist. Aktuell ist die Effizienz der Intel Topmodelle eine Katastrophe und das muss man auch klar so ansprechen. Ohne Kritik wird Intel daran wohl kaum was ändern. Intel ist keine kleine Hinterhofklitsche die vor einem wütenden Mob geschützt werden muss.
Ich hau meinen 13600KF gleich raus. Die kleine Saufsau:D

Jaaa, die Intels gönnen sich, richtig. Aber ob das Gesamtsystem unter Last nun 400/425 oder 450W verbrät, merkst du wie genau an der Stromrechnung? Sag ich mit meiner optimierten 4090:cool:

Und ich rede hier nicht vom 24/7-Zocker;) Aber noch einmal, AMD ist aktuell in Sachen Effizienz ungeschlagen. Da sollte Intel in Zukunft nachlegen... ähem, sich verbessern natürlich!

Gruß
 
Dann verstehe ich nicht worauf du hinaus willst.

Dass der 13900K bei der Leistung mithalten kann bezweifelt niemand, bleibt also nur der Verbrauch und die Effizienz und da kannst herumoptimieren wie du willst, der 13900K kommt nicht mal in die Nähe der Konkurrenz.
Doch mit 95w Power Target sind die trotzdem ziemlich schnell
Ich hau meinen 13600KF gleich raus. Die kleine Saufsau:D

Jaaa, die Intels gönnen sich, richtig. Aber ob das Gesamtsystem unter Last nun 400/425 oder 450W verbrät, merkst du wie genau an der Stromrechnung? Sag ich mit meiner optimierten 4090:cool:

Und ich rede hier nicht vom 24/7-Zocker;) Aber noch einmal, AMD ist aktuell in Sachen Effizienz ungeschlagen. Da sollte Intel in Zukunft nachlegen... ähem sich verbessern natürlich!

Gruß
Genau die CPU selbst beim Gaming pc ist nicht das Problem. Meine 4090 verbraucht auch 360w mit 80% Power Target. Ob 500 oder 550w ist schon egal
 
Eure Grafikkarten wären die ersten die aus mein System fliegen :haha:

Die paar Stunden in der Woche/im Monat (mal mehr, mal weniger), wo das Gesamtsystem entsprechende Leistung abruft, spielt der Verbrauch doch überhaupt keine Rolle. Auf's Jahr gerechnet, verbraucht meine Frau morgens wohl mehr mit dem 2kW Fön, wenn sie regelmäßig ihre langen Haare trocknet :D

Topic:

Ich bin ja auch dafür, das Intel einen Technologieschritt nach vorne macht, der x-te Aufguss wird langsam langweilig und wir werden sehen, ob Arrow Lake hier endlich mal frischen Wind reinbringt. Der deutliche Effizienzvorsprung von AMD steht außer Frage, aber was kommt denn effektiv bzw. monetär dabei rum ? Wenn überhaupt, ein paar Euro im Monat, das ist für mich kein ausschlaggebendes Kriterium, der Fokus liegt auf Leistung und Stabilität, out of the box.
 
Der deutliche Effizienzvorsprung von AMD steht außer Frage, aber was kommt denn effektiv bzw. monetär dabei rum ?
Absolut gesehen natürlich nicht viel, aber der Punkt dabei ist ja, dass AMD beispielsweise den 7800X3D um einiges günstiger als einen 13900K anbietet. Und letzterer ist trotzdem noch langsamer. Natürlich nur auf Spiele bezogen jetzt. Man erhält für weniger Geld also das bessere Produkt, was auch noch (wesentlich) sparsamer daherkommt.
 
Zurück