News Core i9-14900K: Intels neue Speerspitze schlägt den AMD Ryzen 9 7950X3D voraussichtlich nur minimal

Dat lohnt Ja gar nicht vom 13900KS/ 12900K auf den 14900K zu wechseln. Lieber 5 Generationen warten bis man wieder 50% Mehr hat.

Back to the Roots Intel bis zu 10% jedes Jahr.
Man nannte es auch Intels "Salami-Taktik". Jede Gen ein Scheibchen Power obendrauf:D

Klar, damals ohne AMD's Konkurrenz konnte man es sich dies erlauben...

Gruß
Intel Gewinnt mal wieder, was für ein Durchmarsch. Und was heißt hier minimal, im premium bereich ist wenig sehr viel mehr wert.
Richtig. Vor allem für die Kunden, welche für 3% Vorsprung nen ordentlichen Batzen Kohle latzen.

Hauptsache vorne:cool:

Gruß
 
Verstehe einige Kommentare nicht.

Gerade nochmal vergleiche gesehen, zwischen 13900k und 7800x3d. Beide mit DDR5 6000 betrieben in 8 oder 10 Spielen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Mal AMD schneller, mal Intel und die meiste Zeit dieser Benchmarks verbraucht der Intel nur zwischen 10 und 20W etwa mehr.

Ein 13900k mit einem TDP Limit bei 95, oder 125W gepaart mit einem schnellem Speicher Kit, bzw. relativ schnell mit scharfen Timings (natürlich DDR5) ist nach wie vor Konkurrenzfähig zu einem 7800X3d.

Klar, es gibt Spiele da ist es deutlich und einer von beiden ist sichtlich schneller. Das gibt es aber auf beiden Seiten.

Out of the Box würde ich den 7800X3d bevorzugen. Aber wer auch tweaken mag, kann ohne Probleme einen passenden Ersatz im 13900K, oder eben auch im 13700kf finden.

Der auch nicht wirklich viel mehr verbraucht.

Da sind die Unterschiede bei den GPUs gravierender, finde ich.

Ein 14700kf könnte auch je nach Straßenpreis eine Option sein. Wobei der 13700kf dann attraktiver sein dürfte.
 
Verstehe einige Kommentare nicht.

Gerade nochmal vergleiche gesehen, zwischen 13900k und 7800x3d. Beide mit DDR5 6000 betrieben in 8 oder 10 Spielen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Mal AMD schneller, mal Intel und die meiste Zeit dieser Benchmarks verbraucht der Intel nur zwischen 10 und 20W etwa mehr.

Ein 13900k mit einem TDP Limit bei 95, oder 125W gepaart mit einem schnellem Speicher Kit, bzw. relativ schnell mit scharfen Timings (natürlich DDR5) ist nach wie vor Konkurrenzfähig zu einem 7800X3d.

Klar, es gibt Spiele da ist es deutlich und einer von beiden ist sichtlich schneller. Das gibt es aber auf beiden Seiten.

Out of the Box würde ich den 7800X3d bevorzugen. Aber wer auch tweaken mag, kann ohne Probleme einen passenden Ersatz im 13900K, oder eben auch im 13700kf finden.

Der auch nicht wirklich viel mehr verbraucht.

Da sind die Unterschiede bei den GPUs gravierender, finde ich.

Ein 14700kf könnte auch je nach Straßenpreis eine Option sein. Wobei der 13700kf dann attraktiver sein dürfte.
Darfst auch nicht die e Cores nicht vergessen wegen Hintergrund Apps. Das sind alles Tests wo nichts mitläuft. Das ist keine real Bedingung
 
Gerade nochmal vergleiche gesehen, zwischen 13900k und 7800x3d. Beide mit DDR5 6000 betrieben in 8 oder 10 Spielen.
Und welche Vergleiche sollen das sein?
Ein 13900k mit einem TDP Limit bei 95, oder 125W gepaart mit einem schnellem Speicher Kit, bzw. relativ schnell mit scharfen Timings (natürlich DDR5) ist nach wie vor Konkurrenzfähig zu einem 7800X3d.
Selbst mit so einem geringen TDP Limit ist der Verbrauch noch immer nicht konkurrenzfähig.
und die meiste Zeit dieser Benchmarks verbraucht der Intel nur zwischen 10 und 20W etwa mehr.
Und die Verbrauchsangaben beziehen sich auf die per Software ausgelesene Package Power, nehme ich an? Blöderweise kommt die bei Intel aktuell so überhaupt nicht hin und die kannst da noch gut was drauf rechnen.

Edit: OK, du hast das Video gerade hinzugefügt. Das ändert aber nichts an den anderen Punkten. Ich vertraue da eher auf die vernünftig dokumentierten Tests von hier oder CB.
 
Abgesehen davon kann Intel noch die Cache Karte ziehen, AMD hat sie schon gezogen. Spätestens dann ist AMD auch nicht mehr was die Effizienz anbelangt uneingeschränkt vorne.
Genau das wäre offensichtlich die richtige Reaktion.
Es kommt nicht so gut rüber, wenn man eine Software 1.0 releast, die man auf 126GiB RAM limitiert hat, und 1 Jahr später kommt Version 2.0 raus, die dann 128 GiB RAM benutzen darf. Irgendeinen anderen Mehrwert als Werksübertaktung will ein Kunde normalerweise schon sehen, und den sehe ich hier gar nicht.

Was bessere Idle-Werte durch das Big-Little-Design angeht: Finde ich gut und sollte AMD auch bald bringen. Aber im kombinierten Vergleich bei Laptop-Tests (jedenfalls die, die ich gesehen habe) ist Intel trotz Big-Little-Design im Bezug auf die Akkulaufzeit weiterhin deutlich abgeschlagen.

Edit: In meinem HTPC (der auch mein einziger Gaming-PC ist) habe ich die cTDP zum Beispiel auf 45W stehen, um die Temperaturen auf beengtem Raum zu senken. Und ob da Intel dann noch für Gaming mithalten kann, finde ich fraglich. Ansonsten benutze ich im Alltag sowieso nur Notebooks, die viel Idlen und höchstens 35W ziehen.
Kann bei anderen anders aussehen - bei mir ist es eben so, dass zuerst Usability und Lautstärke, dann Effizienz, dann erst Leistung kommt, solange die Leistung in einem angemessenen Rahmen bleibt.
 
Zuletzt bearbeitet:
Und welche Vergleiche sollen das sein?
Hat sich ja erledigt.
Selbst mit so einem geringen TDP Limit ist der Verbrauch noch immer nicht konkurrenzfähig.
Den Verbrauch meine ich auch nicht. Wobei es im Schnitt über die Spielzeit nicht so extrem ist, wie oft propagiert.
Und die Verbrauchsangaben beziehen sich auf die per Software ausgelesene Package Power, nehme ich an? Blöderweise kommt die bei Intel aktuell so überhaupt nicht hin und die kannst da noch gut was drauf rechnen.
Du gehst nur auf den Verbrauch ein. Der zwar hier und bei CB, oder bei Igor genauer ermittelt wird. Aber hier auch einfach oft die Worst Case Szenen zeigt. Was wichtig zu wissen ist. Aber nichts mit dem Spielealltag zu tun hat.

Interessant wäre wie es über längere Zeiträume aussieht.
Edit: OK, du hast das Video gerade hinzugefügt. Das ändert aber nichts an den anderen Punkten. Ich vertraue da eher auf die vernünftig dokumentierten Tests von hier oder CB.

Wie gesagt, ich bleibe dabei, wenn der Intel im Schnitt eines Spieles, also nicht nur Worst Case Szenen um 30-40W höher liegt ok, ist schlecht bei der Effizienz.

Aber da fällt keiner von um. Das ist nicht mehr wie früher.

Vor allem mit Effizienztuning. Weniger Powerlimit, etwas undervolting und dazu schnellen Speicher. Das hilft schon, im Vergleich zum Stock 13900k.

Genau darauf bezog ich mich ja.
 
Du gehst nur auf den Verbrauch ein.
Natürlich, die Leistung in Spielen ist ja auch gleich. Worauf soll ich also sonst eingehen ^^
Wie gesagt, ich bleibe dabei, wenn der Intel im Schnitt eines Spieles, also nicht nur Worst Case Szenen um 30-40W höher liegt ok, ist schlecht bei der Effizienz.
Der Unterschied ist im Schnitt aber höher. Du verlässt dich da gerade nur auf die Package Power Angaben aus dem Video. Die haben aber nichts mit dem realen Verbrauch zu tun. Wenn per Software 130W ausgelesen werden entspricht das eher realen 160 bis 170W. Das ist beim 7800X3D nicht so, da entspricht das Software Reading ziemlich genau dem realen Wert.

Ganz nebenbei sind 30 bis 40W mehr halt mehr als 50% Mehrverbrauch. Selbst das wäre schon extrem viel.
Vor allem mit Effizienztuning. Weniger Powerlimit, etwas undervolting und dazu schnellen Speicher. Das hilft schon, im Vergleich zum Stock 13900k.
Das sind aber alles auch Dinge die beim 7800X3D ganz genauso funktionieren.

Ich will damit nicht sagen dass der 13900K kompletter Müll ist, aber er kann stand aktuell nicht mit der Konkurrenz mithalten.
 
Natürlich, die Leistung in Spielen ist ja auch gleich. Worauf soll ich also sonst eingehen ^^

Der Unterschied ist im Schnitt aber höher. Du verlässt dich da gerade nur auf die Package Power Angaben aus dem Video. Die haben aber nichts mit dem realen Verbrauch zu tun. Wenn per Software 130W ausgelesen werden entspricht das eher realen 160 bis 170W. Das ist beim 7800X3D nicht so, da entspricht das Software Reading ziemlich genau dem realen Wert.

Ganz nebenbei sind 30 bis 40W mehr halt mehr als 50% Mehrverbrauch. Selbst das wäre schon extrem viel.

Das sind aber alles auch Dinge die beim 7800X3D ganz genauso funktionieren.

Ich will damit nicht sagen dass der 13900K kompletter Müll ist, aber er kann stand aktuell nicht mit der Konkurrenz mithalten.

Bei der Effizienz!

Das der bei der Effizienz mithalten kann sage ich auch nicht.

Und nein, ich verlasse mich nicht nur auf die Werte aus dem Video, sondern allen Tests die ich im Netz gelesen habe, seit Release!

Das Video war nur ein Beispiel.

DAs der reale Verbrauch abweicht von den angezeigten ändert an meiner Aussage wenig.

Da die sich nicht auf die Effizienz bezog ursprünglich.

Relativ zum 7800XD ist der Mehrverbrauch gewaltig. Aber Absolut auf den ganzen Rechner, kann man bei der Wahl der GPU mehr falsch machen.
 
Die Zahlen aus dem Video kann man auch nicht vergleichen, wenn es um die Leistungsaufnahme und den Fps pro Watt geht. Da werden zwei Software-Sensoren von zwei verschiedenen Boards miteinander verglichen. Niemand weiß, was die auslesen, und wie korrekt die arbeiten :ugly:
Da reicht schon eine Einstellung im BIOS und es stehen ganz andere Zahlen da.
 
Du solltest das Video nochmal gucken. Der Intel ist meistens eher bei 100+ Watt im Video.

Spiel und der jeweilige angezeigte Mehrverbrauch
1: 39W mehr
2: 70W Wow
3: 23W
4: 50W
5: 37W
6: 36W
7: 41W
8: 33W
9: 38W
10: 39W

Ob 100+W oder nicht spielt keine Rolle.
Ich schrieb einen Mehrverbauch von im Schnitt 40-50W meine ich. Was nicht so daneben war. Kannst das Video ja nochmal schauen.


Ob der Realverbrauch davon nochmal abweicht, war zu dem Zeitpunkt nicht Bestandteil der Aussage.
 
Die Zahlen aus dem Video kann man auch nicht vergleichen, wenn es um die Leistungsaufnahme und den Fps pro Watt geht. Da werden zwei Software-Sensoren von zwei verschiedenen Boards miteinander verglichen. Niemand weiß, was die auslesen, und wie korrekt die arbeiten :ugly:
Da reicht schon eine Einstellung im BIOS und es stehen ganz andere Zahlen da.
Ok

Ich schrieb was von Tweaken.

Ich schrieb etwas von einem Mehrverbrauch von 40-50W.


Hier sind es in 720p 55W.

Mit steigender Auflösung fallend. Das ist ungetweakt.

Das ist auch ein Test, dem man Ungenauigkeit nicht vorwerfen kann.
Klar das ist jetzt nicht unbedingt in Worst Case Szenen. Aber meine Aussage bezog sich auch bewusst nicht auf Worst Case Szenen!
Da diese eben nicht den Spiele Alltag widerspiegeln.

Warum kann man den Test von Igor nicht ernst nehmen? Der deckt meine Aussage!
Der Punkt ist aber extrem wichtig. So steht da erstmal ein Overlay mit irgendwelchen Zahlen die extrem von den echten Werten von PCGH oder CB abweichen. Das sollte zumindest für Misstrauen sorgen.
Was spricht gegen den Test von Igor?
Dann verstehe ich nicht worauf du hinaus willst.

Dass der 13900K bei der Leistung mithalten kann bezweifelt niemand, bleibt also nur der Verbrauch und die Effizienz und da kannst herumoptimieren wie du willst, der 13900K kommt nicht mal in die Nähe der Konkurrenz.
Das liest sich in jedem Thread dazu anders!
 
Was spricht gegen den Test von Igor?
Erstmal wenig, ich sehe da aber selbst in UHD noch 65% mehr Verbrauch vom 13900K. Das ist einfach nicht gut und optimierst du, wie schon geschrieben, auch nicht weg.
Das liest sich in jedem Thread dazu anders!
Joa, viele User schreiben die Kritik wirklich nicht sachlich, das ändert aber nichts daran dass sie valide ist. Aktuell ist die Effizienz der Intel Topmodelle eine Katastrophe und das muss man auch klar so ansprechen. Ohne Kritik wird Intel daran wohl kaum was ändern. Intel ist keine kleine Hinterhofklitsche die vor einem wütenden Mob geschützt werden muss. Genauso wenig wie ich AMD vor berechtigter Kritik an den, meiner Meinung nach, katastrophal schlechten RDNA3 Karten "schützen" muss. Beide Hersteller haben aktuell diverse miese Produkte am Markt und die werde ich solange kritisieren bis sich was ändert.

Edit: Um das klarzustellen ich finde z.B. die Ineffizienz der AMD CPUs im Idle auch scheiße, aber auch das ändert nichts an der Kritik.
 
Joa, viele User schreiben die Kritik wirklich nicht sachlich, das ändert aber nichts daran dass sie valide ist. Aktuell ist die Effizienz der Intel Topmodelle eine Katastrophe und das muss man auch klar so ansprechen. Ohne Kritik wird Intel daran wohl kaum was ändern.
Fairerweise muss man aber sagen, dass AMD nicht besser ist. Die non X3D Modelle saufen auch wie Löcher.
Der Cache bewirkt hier wahre Wunder, aber Intel hat nichts diesbezüglich und so ein Design zaubert man nicht eben so aus dem Hut.
 
Zurück