Special Intel Core i9-14900K, i7-14700K und i5-14600K im Test: Diese Prozessoren hätte man sich sparen können

erinnert mich an die Prescott-Zeiten
INTEL will halt die anno Dazumal versprochenen 10 GHz endlich einlösen (bei 1.21 Gigawatt) ... :rollen:

Knapp 190 Watt in Games und knapp 300 Watt in Anwendungen für die Speerspitze, das sind echt SPITZENWERTE :daumen:

Kopf hoch INTEL, wird schon wieder, versprochen !

p.s. hätten sie wenigstens den RAM Takt auf 6400 MHz erhöht bzw. unterstützt.
 
Zuletzt bearbeitet von einem Moderator:
wenn zen 5 nochmals 10%15% drauflegt wird ziemlich eng für intel. die leute haben vor 10 jahren AMD bulldozer ausgelacht.
Was hast du immer mit dem Bulldozer-Vergleich? Bulldozer war eine Krücke die viel Strom für wenig Leistung verbraten hat. Raptor Lake befindet sich bei der Leistung auf sehr hohem Niveau, die auf den letzten Metern leider auch mit viel Strom erkauft wird. Am Ende ist das trotzdem eine völlig andere Situation als bei Bulldozer. Oder anders ausgedrückt:

Bulldozer: leistet wenig, braucht viel.
Raptor Lake: leistet viel, braucht viel.
 
Super Test wie immer. Interessant ist das mein kleiner I5 10400f mittlerweile ganz ganz weit unten in der Liste ist aber in Kombination mit einer rtx3060ti dennoch locker ausreicht. In meinen Spielen bin ich damit immer im gpu Limit. Man könnte es daher auch so sehen der I5 10400f (den man bei ebay spot billig bekommt) reicht aus um eine rtx3060ti/4060ti/rx7700xt zu füttern. Könnte sogar damit für eine. Rtx4070/rx7800xt gerade so noch ausreichen bzw nur minimal bremsen.
Hängt natürlich von den Titeln + Auflösung ab. Ich zocke in 5120x1440.
Da ruht sich die cpu aus und die gpu ist kurz vor dem Herzinfakt.
 
Was hast du immer mit dem Bulldozer-Vergleich? Bulldozer war eine Krücke die viel Strom für wenig Leistung verbraten hat
Durch die farbige Brille sieht alles anders aus ... :cool:
 

Anhänge

  • FX 9590 vs i7 4770K.jpg
    FX 9590 vs i7 4770K.jpg
    477,6 KB · Aufrufe: 86
Was hast du immer mit dem Bulldozer-Vergleich? Bulldozer war eine Krücke die viel Strom für wenig Leistung verbraten hat. Raptor Lake befindet sich bei der Leistung auf sehr hohem Niveau, die auf den letzten Metern leider auch mit viel Strom erkauft wird. Am Ende ist das trotzdem eine völlig andere Situation als bei Bulldozer. Oder anders ausgedrückt:

Bulldozer: leistet wenig, braucht viel.
Raptor Lake: leistet viel, braucht viel.
Ich korrigiere das für dich:

Bulldozer: leistet mäßig, verbraucht viel.
Raptor Lake: leistet viel, verbraucht exorbitant viel.
 
Korrigiere das für dich:

Bulldozer: leistet wenig, braucht viel.
Raptor Lake: leistet viel, braucht extrem viel.
Ne, so pauschal ist das auch nicht richtig. Bei entsprechenden Anwendungen war Bulli stark. Ich hatte einen FX8120@5,125GHz auf AM3, einen FX-8320@5,0GHz auf AM3+ und einen i7-3820@4,85GHz (Sockel 2011) und da war beim arbeiten mal der eine, mal der andere schneller. In Spielen allerdings, war der i7 uneinholbar für den FX. Da lag ja selbst ein i5-2500k oft vor allen erhältlichen FX. Übertaktet noch deutlicher.
Das war noch eine geile Core-Generation. Die nächste geile Generation war dann Broadwell, dann Skylake und dann gings bergab.
 
Pat, Pat, Pat. Nich immer und überall is bigger auch better:nene:

Gruß
Ich habe gestern die Geforce RTX 3090 Ti frisch geindext. Knapp 450 Watt GPU-Grillpower plus rund 150 für den Prozessor -> kuschelige 25+ °C in der Benchbude auch im Winter kein Problem. Im Sommer ist so was aber ganz schön eklig ... :ugly:

MfG
Raff
 
Ich habe gestern die Geforce RTX 3090 Ti frisch geindext. Knapp 450 Watt GPU-Grillpower plus rund 150 für den Prozessor -> kuschelig 25 °C in der Benchbude auch im Winter kein Problem. Im Sommer ist so was aber ganz schön eklig ... :ugly:

MfG
Raff
Das erinnert mich irgendwie an mein Vega64 Setup.
Vega auf 500 Watt oced was kein Problem war für das ding. Und dazu der gute alte i7 2700k auf 5 Ghz der sich dann auch gerne mal 110 Watt geschluckt hat.
Rekord waren 27 Grad im Winter bei ausgeschalter heizung.

Von den Sommer Temperarturen von knapp 35 Grad brauchen wir nicht reden.

@PCGH_Dave
Danke danke,
Super Test aber Schlechtes Produkt. vlt übersehen , aber kann euere GPU Test CPU auch einblenden lassen ?
 
Die Effizienz einer jeden CPU wird unter "Eigenschaften" bewertet und fließt auch mit in die Note ein.
Ahh, ja beim zweiten Blick macht es Sinn. Hast du die spontane Möglichkeit den Anteil der Gewichtung der Effizienz an der Gesamtnote zu berechnen?

Die Ausstattung wird auch zu 20 Prozent gewertet
Hier muss ich ehrlicherweise zugeben, kann ich die Gewichtung von 20% nicht so recht nachvollziehen! Vor allem da manche Sachen ja auch unterschiedlich bewertet werden könnten, bspw. wie bewertet man DDR5 oder DDR4 Support (ich weiß, dass Intel beides kann, was sicherlich höher zu bewerten ist, als wenn es nur eins kann), DDR5 gut? Oder DDR4 gut? Oder kein Unterschied, da jeweils ein Standard unterstützt wird? Irgendwie bekomme ich in meinen Gedanken alle "Ausstattungspunkte" gut im Benchmarkparcour abgebildet.
Aber nur meine Meinung

die Leistung jedoch zu 60 Prozent
passt in meinen Augen gut, ist am Ende für die meisten das wichtigste
davon mit einer 60:40-Gewichtung für die Spiele-Leistung, die sich wiederum aus dem Mittelwert der durchschnittlichen Framerate und den P1- und P0.2-Fps zusammensetzt.
krass, so detailliert! :daumen:
 
Ich habe gestern die Geforce RTX 3090 Ti frisch geindext. Knapp 450 Watt GPU-Grillpower plus rund 150 für den Prozessor -> kuschelige 25+ °C in der Benchbude auch im Winter kein Problem. Im Sommer ist so was aber ganz schön eklig ... :ugly:

MfG
Raff
Haste die 3090Ti noch selbst im Bench-Keller oder redest du vom Altmetall in der Redaktion:-D

Aber mal ehrlich, 150-180W nur für die CPU is schon ne Ansage. Man sieht bei AMD wie's besser geht...

Gruß
 
Wenn man nichts Gehaltvolles beizutragen hat, kommt so was dabei raus. Freunde scheinst du auch keine zu haben, denn sonst wüsstest du was mit dem Wort "umgangssprachlich" anzufangen und würdest nicht auf derart peinlichen Niveau den Korrekturstift ansetzen ... :klatsch:
man muss aber schon festhalten das der Verbrauch im Vergleich zu Ryzen mit 3D-Cache schon exorbitant ist

ich meine der 14900K zieht 187 Watt in Spielen und der 7800X3D nur 51 Watt und ist dabei auch noch besser in Spielen
das ist mehr als das 3,5 fache an Verbrauch

überleg mal was hier los wäre, Nvidia bringt ne Karte raus mit 200 Watt und AMDs Karte mit der gleichen Spieleleistung würde 600/700 Watt ziehen
die würde man sprichwörtlich kreuzigen
 
Vor allem da manche Sachen ja auch unterschiedlich bewertet werden könnten
Das werden sie auch. Ich möchte hier nicht die ganze Excel offenbaren, weil das irgendwo auch unser kleiner Schatz ist. ;)
krass, so detailliert! :daumen:
Ja, was denkst du denn? Die anderen können ja gerne diese professionellen "Tests" bei Youtube schauen, Beispiel.
Unsere Ergebnisse sind immer fair und schonungslos ehrlich. Passt einigen nicht in den Kram. :slap:
 
Zurück