News Core i7-14700K vs. Core i7-13700K: Raptor Lake Refresh 17 Prozent schneller im Cinebench R23

4 Kerne mehr, plus mehr Takt bei ganz "tollem" Verbrauch (sarkastisch) dann lediglich 17 % mehr im Multi und ganze 4 % mehr im Single. Und das vermutlich bei 18 % Preissteigerung.
Gaaanz großes Tennis INTEL !!
 
Bin gespannt wenn das teil auf irgend einen vertrauenswürdigen Benchtabel gesattelt ist wie PCGH oder ein paar hardware youtubern. ;-
 
Jup, nennt sich aktuell noch i7. Der "neue" i7 hat einfach vier E-Cores mehr und ist damit "plötzlich" im Multicore schneller. Wie üblich: Marketing.
Sprich der 14600K ist quasi ein 13700K ?

Weiß ich nicht Intel, ob das so nötig ist.
Der aktuelle i5 ist so wie er ist eigentlich in Ordnung.

Weiß nicht warum Intel da jetzt zwingend dran rum doktorn muss.
 
Die 3DCache Modelle sind ein Sonderfall und haben Ihren Preis.

Und die Intel CPUs gibt es umsonst? Der Markt hat es geregelt und die Preise sind etwa da, wo sie hingehören, mit den üblichen ca. 10% Intelaufschlag.

Die 3D Cache CPU sind schon deswegen ein Sonderfall, weil 1. teuer im eigenen Line up und 2. speziell auf das Gaming zugeschnitten.

Ach?

Es liegt eher daran, dass die CPUs einfach zu gut sind und Raptorlake alt aussehen lassen.

Warum hast du dir eigentlich einen 7800X3D gekauft?

Effizient sind die großen Zen5 CPU´s nicht, da diese bei einfachen Aufgaben mehr Strom verbrauchen als ein Raptor Lake.

Wir reden eher so von 10-30 Last, in denen AMD etwas mehr braucht. Dafür heizt Raptorlake den Strom unter vollast nur so raus.

Dort gibt es Effizienz Kerne, die wesentlich stromsparender sind als die großen Kerne von AMD. Diese E-Kerne erledigen die meisten Aufgaben im Betrieb. Intel hat es tatsächlich geschafft mit 10nm eine überlegene CPU zu erschaffen.

Die E Kerne sind eigentlich nur effizient, wenn man die TDP stark drosselt, etwa beim N100 (den ich mir wohl bald kaufen werde, wenn mein i7 3770 wirklich kaputt ist)

Ein 7800X3D ist ein erfreulicher Einzelfall und kostet mal eben 459€.Ein 13600K ist 10% langsamer im Gaming dafür aber 30% schneller im Multithreading und kostet...299€. Für mich die CPU des Jahres 2023.

Und ein 5800X3D kostet auch 300€ und ist in Spielen schneller.

Im übrigen ist der 12600K in Spielen 29% langsamer, als der 7800X3D und 16% langsamer, als der 5800X3D.

D Käse mit dem 13600K hat quasi 1:1 der Userbenchmark verzapft.

Bezogen auf den Idle Verbrauch und im Office Betrieb. Für mich ist der 13600K ein Wunderwerk der Technik.

Hui, ein Wunderwerk der Technik.

Mein Laptop mit i3 4030U braucht beim Surfen 8,9W und zwar an der Steckdose, mit allem drum sowie dran und das Wunderwerk ist gut 10 Jahre alt. Wenn du willst, dann tausche ich das Wunderwerk gegen deinen 7800X3D,

Nicht umsonst haben sich die größten Ingenieure bei Intel für 3 Monate ins nahegelegene Camp David zurückgezogen. Das Ergebnis ist überragend und vergleichbar mit den größten Erfindungen der letzten 100 Jahre.

Autsch, sowas muß doch weh tun, wenn man es ausspricht. Eine CPU, die etwas schneller, als ihr Vorgänger ist und der Konkurrenz unterliegt, soll sich also mit den größten Erfindungen der letzen 100 Jahre messen können.

Penicilin? Also diese CPUs haben wohl nicht groß leben gerettet.
Die Atombombe? Raptorlake kann zwar ein ordentliches Lock in die Brieftasche sprengen, nicht mehr.
Das Düsenflugzeug? So schnell ist Raptorlake auch nicht.

Man kann das jetzt noch den ganzen Tag so weiter machen. Lobhudelei kann auch schnell lächerlich wirken.

Frame Generation regelt. Damit ist man effizienter/sparsamer unterwegs als mit einem X3D und einer 7900 XT.

Niedrige Details und geringere Auflösung regeln noch mehr, wenn wir schon auf der Schiene fahren.

Sprich der 14600K ist quasi ein 13700K ?

Weiß ich nicht Intel, ob das so nötig ist.
Der aktuelle i5 ist so wie er ist eigentlich in Ordnung.

Weiß nicht warum Intel da jetzt zwingend dran rum doktorn muss.

AMD baut momentan die besseren CPUs und setzt Intel unter Druck.

Freu dich doch einfach, anstatt herumzumeckern. Man bekommt, mit dem i5 14600K, wohl einen besseren i7 13700K und muß weniger Geld hinblättern. Das ist doch toll. Gleichzeitig wird AMD motiviert wesentlich schneller CPUs zu produzieren und die Preise zu senken, das ist noch besser.

Dort gibt es Effizienz Kerne, die wesentlich stromsparender sind als die großen Kerne von AMD. Diese E-Kerne erledigen die meisten Aufgaben im Betrieb.

Die E Kerne sind nicht wirklich energieffizienter, als die P Kerne, die sind vorallem flächenefizient. Aber das ist dann eher etwas, das den Endkunden nicht interessiert, solange der Preis stimmt.

Intel hat es tatsächlich geschafft mit 10nm eine überlegene CPU zu erschaffen.

Die CPUs sind in Multithreadanwendungen langsamer, als die normalen Ryzen 7000er, sie sind in Spielen langsamer, als die 7000 X3D und sogar als der 5800X3D. Außerdem fehlt den Raptorlake CPUs AVX 512, man kann es nichtmal mehr freischalten.

Die AMD CPUs sind insgesamt klar überlegen.
 
Bezogen auf den Idle Verbrauch und im Office Betrieb. Für mich ist der 13600K ein Wunderwerk der Technik.

Nicht umsonst haben sich die größten Ingenieure bei Intel für 3 Monate ins nahegelegene Camp David zurückgezogen. Das Ergebnis ist überragend und vergleichbar mit den größten Erfindungen der letzten 100 Jahre.
Du solltest Ironie besser kennzeichnen... oder es als bezahlte Werbung kennzeichnen... meine Güte, so eine übertriebene Darstellung liest man ja selbst von den Hardcore-Fanboys selten.

Ein Produkt welches lediglich über den Mehrverbrauch punkten kann, ist genau das Gegenteil von Ingenieurskunst...

Ist Dir schon einmal aufgefallen, dass niemand außer Intel selbst, seine Produkte so weit vorn sieht wie Du. Ich habe noch keinen einzigen Testbericht gesehen, der deine Thesen auch nur halbwegs bestätigt. Im Gegenteil, die Effizienz gepaart mit der Leistung von AMD wird stets als klar besser bewertet.

Ja die Intel CPUs sind perse nicht schlecht.... mehr aber auch nicht.
 
14 (!!???) Generationen, fast immer nur Brechstange statt tatsächlicher Entwicklung.
Ich bin zutiefst enttäuscht!
Was ist aus dem einstigen Pionier und Antreiber der Prozessortechnik geworden?
Wie ein alter Mann, der mühselig mit 3fachem (!!!) Effizienzdefizit hinter dem kleinen Kind AMD hinterherhechelt.
Irgendwie nur noch peinlich.
So schlecht war AMD nicht einmal zur schlimmsten Bulldozer Ära mit den zuletzt überdrehten 8-Kern-Heizmonstern.
Niemand hätte zu der Zeit auch nur im Traum daran gedacht, wie tief so ein Intel sinken könnte.

Die Raptor Lake (Refresh) Prozessoren von Intel ist hervorragende Ingenieurkunst. Trotz des Nachteils in der Fertigung (10nm), ist Raptor Lake klar besser als das AMD Gegenstück.

Der Stromverbrauch hält sich bei den gemäßigteren CPU´s ebenfalls in Grenzen.

Aber zugegeben: Der Leistungszuwachs (Refresh) ist zu gering und wird mit Strom erkauft.
hahhahahhah, kauf dir mal ne PCGH! UND lesen!
Schaut nach Comedy Lake reloaded aus.
Comedy Lake exhausted (erschöpft, abgekämpft) ^^
 
Zuletzt bearbeitet:
Bezogen auf den Idle Verbrauch und im Office Betrieb. Für mich ist der 13600K ein Wunderwerk der Technik.

Nicht umsonst haben sich die größten Ingenieure bei Intel für 3 Monate ins nahegelegene Camp David zurückgezogen. Das Ergebnis ist überragend und vergleichbar mit den größten Erfindungen der letzten 100 Jahre.
Sag mal haben sie deinen Account gekapert? Oder bekommst du Geld? Anders kann ich mir deine Lobeshymne auf Intel nicht erklären.
 
Für mich

Die meiste Zeit wird gesurft oder im Leichtlastbetrieb gearbeitet. Da werden die Stromkosten eingespart und nicht im Lastbetrieb, wo ein ausgewähltes Game evtl. alle Kerne einmal auslastet. Wie oft kommt das vor?

Schade nur, wenn das gar nicht stimmt, und du die Unwahrheit erzählst.
Mit einem 13600er spart man keine Stromkosten ein. Niemals.
Wie kommst du zu so einem Schluss? Wunschdenken?
Alleine die Tatsache, dass es sich um eine 125W/180W CPU handelt, sollte die Alarmglocken klingeln lassen.
Vielleicht sollte man da dann aus Prinzip lieber grundlegend auf kleinere Chips bis auf 45W runtergehen, wenn man eh nichts auf der CPU laufen lassen möchte und man eigentlich nur einen PC haben möchte, der möglichst gar nichts tun soll? Was für ein Unsinn. Wieso nicht gleich ein Tablet? lol

Realer Teillast und Idleverbrauch:

Ich habe mir privat kürzlich einen 5800X3D geholt, der haut dein Teil locker weg und ist in Spielen und Anwendungen mehr als ausreichend.
Und die CPU ist schon älter.
Sogar in Spielen wir Division 2 schleckt der bei mir gerade mal kurz reingeschaut lediglich 35W, weil die GPU etwas bremst und ich ein Framelimit bei 163FPS habe.

In der Firma habe ich nun jetzt neu einen 13600K bekommen.
Mein Fresse, ist der schlecht!
Bei meinem 2700K ist der Lüfter nie merklich angesprungen, wenn der bei einfacher Arbeit Teillast hatte.
Der 13600K springt sofort auf Turboturbine, wenn der einmal in der Stunde mal 30 Sekunden was berechnen soll.
Jetzt weiß jeder, ob ich arbeite, oder nicht. Daher von mir: keine Empfehlung. lol ;-)
 
Sprich der 14600K ist quasi ein 13700K ?

Weiß ich nicht Intel, ob das so nötig ist.
Der aktuelle i5 ist so wie er ist eigentlich in Ordnung.

Weiß nicht warum Intel da jetzt zwingend dran rum doktorn muss.
Hast du nicht gesehen, was Intel beim Wechsel von Alder Lake zu Raptor Lake gemacht hat? Alles unterhalb eines 13600K ist lediglich ein Refresh, aber mit anderer Kern- und Taktkonfiguration, damit die Leute nicht merken, dass es eigentlich Modelle sind, die schon seit über einem Jahr erhältlich sind. Schau dir unsere Tests zum 13400F oder 13500 an, dann weißt du, was ich meine.

Jetzt steht der Refresh von Raptor Lake an. Was wird Intel machen oder besser gefragt, was kann Intel angesichts der Konkurrenz machen? AMD hat mit den 3D-Cache-Prozessoren mächtig vorgelegt.

Intel wird also über den Preis gehen müssen. Wie machen sie das? Sie verkaufen den "alten i7" als "neuen i5". Der "neue" setzt dabei technisch auf das gleiche Grundgerüst, wird mMn. 200 höher takten und damit als "neuer i5" so schnell sein, wie der "alte i7". Alle werden ausrasten, und sagen, guckt mal, der neue i5 ist ja so schnell wie der alte i7. Dabei ist es das gleiche Silizium, nur auf dem Heatspreader steht etwas anderes drauf. Das ist Marketing! Der einzige Vorteil wird sein, und das habe ich eben schon angedeutet, dass man einen 13700K in Form des 14600K dann etwa 100 Euro günstiger erhält.

Ein 14700K hat dann vier E-Cores mehr, weil der sich ja irgendwie vom alten i7 abheben muss, wird ebenfalls 200 MHz höher takten und damit in Spielen auf Augenhöhe mit einem 13900K sein. In Anwendungen muss der "alte" 13900K natürlich schneller bleiben, deshalb hat der neue i7 ja nicht 16 E-Cores bekommen, sondern nur 12. Der "neue" 14900K wird dann praktisch ein 13900KS sein, nur, dass der SC-Boost noch minimal höher ausfällt.

14900K >= 13900KS
14700K >= 13900K
14600K >= 13700K

Das ist nichts, was man mit den aktuellen Modellen nicht auch erreichen könnte, einzig der Preisvorteil wird interessant sein, doch den Weg muss Intel gehen, weil Zen 4-3D einfach eine zu starke Konkurrenz für RPL ist.

Stellt euch dann lieber mal die Frage, wie Intel die höheren Taktfrequenzen erreicht. Das geht nur über den Verbrauch...
 
Was für ein dämlicher Vergleich. Keine Ahnung, was das eine mit dem anderen zutun haben soll.
Ich verstehe zwar was du meinst aber ich. Aber Pu244 hat mit seiner aussage ja doch recht.

Klar DLSS3.0 lässt die Bildqualität jetzt nicht so leiden wie z.b eine Drastische Reduzierte Auflösung oder Niedriger Details.
Aber was damit er gemeint ist glaube ich mal ist,
Das wenn ich meiner GPU defacto weniger zu tuen geben sie auch weniger verbraucht.

Denn DLSS3.0 Sparrt nur dann Strom wenn ich das Limit von der GPU in die CPU verlagere oder halt in mein Frame CAP laufe.
Wenn ich mit DLSS3.0 aber einfach nur mehr Bilder erzeuge wie z.b ich in Cyberpunk2077 ist tue. Dann verbraucht die GPU und mein System gleich viel.
 
Ach, was für ein Potanz. 17% Mehrverbrauch in 720p... Das ist schon ein echtes Handicap:lol:und ein überaus realistisches Szenario. Das ist dann natürlich der erhebliche Aufpreis zur AM5 Plattform wert...
Du bist ja putzig!

Im Ernst, du schreibst was von "überlegender Ingineurskunst" und dann werden die Flaggschiffe ausgeblendet, die kleinen CPUs die technisch schlechter sind als unrealistisches Szenario ausgeblendet. Also klar, wenn ich alles was gegen die Intels spricht ausblende, am besten noch AMD als nicht realistisches Wolkengebilde beachte, dann sind die Intel CPUs natürlich das beste was es gibt! :ugly:

P.S.
Im übrigen habe ich es sogar extra geschrieben, dass ich die AM5 Plattform derzeit noch zu teuer finde, wobei auch hier sollte man mittlerweile mal ehrlich sein und akzeptieren, dass beide Plattformen mit DDR5 (nur dann erreicht der Intel ja auch seine hier getesteten Werte, ansonsten fehlen gerne nochmal 5% und mehr an Leistung und damit auch Effizienz und der Abstand wächst auf deutlich über 20% an) konstruiert nahezu identische Preise haben. Ein A620 kostet um die 80 EUR, die günstigsten Intel Boards um die 60 EUR, damit liegen zwischen den Plattformen noch 20 EUR Differenz! Das ist, gerade beim Blick auf einen 13600K / 7700X nicht wirklich viel und sollte eher keine Rolle spielen. Das alle bei AMD einen X Chip wollen ist für mich unverständlich, aber der Menscheit geschuldet. Ein Vergleich von Intel und AMD macht hier eben nur begrenzt sind, die 100 EUR Aufpreis bei AMD kauft man eben mit der Gewissheit, auch 2026 noch CPUs zu bekommen, während Intel bereits eigentlich die 14th nicht mehr unterstützen wollte und nur auf Grund technischer Unzulänglichkeiten noch eine Gen mehr unterstützt; wobei eine Gen? Ist ja nur namentlich eine Generetion.
Das geht nur über den Verbrauch...
Na, da geht sicher auch was über Binning der Chips und je länger so eine Iteration läuft, je besser wird ja nunmal die Ausbeute, insofern würde es mich nicht wundern, wenn man den Takt sogar ohne signifikanten Mehrverbrauch hinbekommt! Nur müssen wir die Kirche im Dorf lassen, 200Mhz mehr Takt klingt gut, sind aber am Ende bei 6Ghz Basis 3,33% Mehrleistung!
 
Frame Generation regelt. Damit ist man effizienter/sparsamer unterwegs als mit einem X3D und einer 7900 XT.
Inwiefern? In welchen Szenario?
Hast du Testergebnisse vorliegen?
Oder meinst du jetzt nur allgemein Intel/NVidia gegen AMD/AMD?
Da braucht ein Intel Prozessor grob 150 gegen 50 Watt, also 100 Watt mehr.
Die kann man natürlich mit einer 4080/90 gegen eine 7900XT(X) wohl sicher wieder rausholen, was die Effizienz angeht.
Bei so einer großen und heißen GPU wäre es aber so oder so auf jeden Fall ratsam einen X3D zu verwenden, alleine schon wegen der Kühlung des gesamten Systems und auch der Lautstärke.
Denn wir wissen ja: der X3D ist im Bestfall 3x effizienter als ein Intel 13Gen, im anderen Fall ist eine NVidia Karte im Extremfall mit den Zusatztechniken und Raytracing 2x so effizient wie aktuell AMD.
Wenn also das Geld relativ egal ist, holt man sich auf jeden Fall eine 4090, und verwendet Raffs super duper Undervolting Tipps, um die bei gefühlt halbem Verbrauch zu betreiben.
Dazu wie gesagt ein X3D, dann hat man sicher ein extrem sparsames und trotzdem megaschnelles System, dagegen stinkt dann ein System bestehend aus 13900K mit 7900XTX als entgegengesetztes Extrem förmlich ab, vor allem, wenn man die auch noch frei takten und saufen lässt (siehe die ominöse 4000 Watt Herstellerfreigabe im Mainboard-UEFI).
Bei der Hitze aktuell dazu unterm Dachboden. Gar nicht. Ich zocke gerade gar nichts mehr. Das wird ekelhaft warm. Meine Kombi 13900K + 3090 Ti.
Das ist der Grund, warum ich eben jene Komponenten gar nicht erst gekauft habe.
Bei mir liegt der gemessene Rekord bei 37 Grad, im Haus natürlich.
Aktuell komme ich maximal auf 32 Grad. Toi, toi, toi.
Aber eine Woche Knallersonne obendrauf und nachts keine Abkühlmöglichkeit, dann schaue ich mal wieder nach.
Jedenfalls hilft es auch, wenn man nur surft und einfache Indie Games oder alte Klassiker von GOG daddelt.
Cyberpunk mit Pathtracing ist definitiv eine schöne Winterzeitbeschäftigung. :-)
 
Zuletzt bearbeitet:
Inwiefern? In welchen Szenario?
Hast du Testergebnisse vorliegen?
Oder meinst du jetzt nur allgemein Intel/NVidia gegen AMD/AMD?
Da braucht ein Intel Prozessor grob 150 gegen 50 Watt, also 100 Watt mehr.
In meiner HW-Konstellation sinkt der Verbrauch massiv, wenn ich FG zuschalte und zwar in jedem Spiel.
 
  • Like
Reaktionen: QIX
Freu dich doch einfach, anstatt herumzumeckern. Man bekommt, mit dem i5 14600K, wohl einen besseren i7 13700K und muß weniger Geld hinblättern. Das ist doch toll. Gleichzeitig wird AMD motiviert wesentlich schneller CPUs zu produzieren und die Preise zu senken, das ist noch besser.
Es ist ja nicht mal wirklich meckern.

Eher könnte Intel das so ja von mir aus gerne machen.
Wenn die Gaming Last Verbrauch bleibt wie er beim aktuellen i5 ungefähr ist.

Dann nehme ich den neuen i5 gerne.

Wobei ich das eh etwas entspannter sehe hinsichtlich Verbrauch, als andere.
Da eh nicht mehr wirklich viel gedaddelt wird und sich daher die Stromersparnis in Grenzen hält bei der Nutzung einer anderen CPU.

Hast du nicht gesehen, was Intel beim Wechsel von Alder Lake zu Raptor Lake gemacht hat? Alles unterhalb eines 13600K ist lediglich ein Refresh, aber mit anderer Kern- und Taktkonfiguration, damit die Leute nicht merken, dass es eigentlich Modelle sind, die schon seit über einem Jahr erhältlich sind. Schau dir unsere Tests zum 13400F oder 13500 an, dann weißt du, was ich meine.

Jetzt steht der Refresh von Raptor Lake an. Was wird Intel machen oder besser gefragt, was kann Intel angesichts der Konkurrenz machen? AMD hat mit den 3D-Cache-Prozessoren mächtig vorgelegt.

Intel wird also über den Preis gehen müssen. Wie machen sie das? Sie verkaufen den "alten i7" als "neuen i5". Der "neue" setzt dabei technisch auf das gleiche Grundgerüst, wird mMn. 200 höher takten und damit als "neuer i5" so schnell sein, wie der "alte i7". Alle werden ausrasten, und sagen, guckt mal, der neue i5 ist ja so schnell wie der alte i7. Dabei ist es das gleiche Silizium, nur auf dem Heatspreader steht etwas anderes drauf. Das ist Marketing! Der einzige Vorteil wird sein, und das habe ich eben schon angedeutet, dass man einen 13700K in Form des 14600K dann etwa 100 Euro günstiger erhält.

Ein 14700K hat dann vier E-Cores mehr, weil der sich ja irgendwie vom alten i7 abheben muss, wird ebenfalls 200 MHz höher takten und damit in Spielen auf Augenhöhe mit einem 13900K sein. In Anwendungen muss der "alte" 13900K natürlich schneller bleiben, deshalb hat der neue i7 ja nicht 16 E-Cores bekommen, sondern nur 12. Der "neue" 14900K wird dann praktisch ein 13900KS sein, nur, dass der SC-Boost noch minimal höher ausfällt.

14900K >= 13900KS
14700K >= 13900K
14600K >= 13700K

Das ist nichts, was man mit den aktuellen Modellen nicht auch erreichen könnte, einzig der Preisvorteil wird interessant sein, doch den Weg muss Intel gehen, weil Zen 4-3D einfach eine zu starke Konkurrenz für RPL ist.

Stellt euch dann lieber mal die Frage, wie Intel die höheren Taktfrequenzen erreicht. Das geht nur über den Verbrauch...
Ja Logo.

Die Möglichkeiten die Intel da aktuell nun mal hat in der aktuellen Architektur sind limitiert.
Hat Intel wirklich eine andere Möglichkeit ?

Ich war trotzdem nur etwas verwundert, das Intel in einem Refresh dem i5 2 große Kerne mehr spendiert.
Bei dem i5 hätte ich wenn nur mit weiteren kleinen Kernen gerechnet und mehr Takt auf P und E Cores.
So lief es ja auch von ADL zu RPL, das die jeweiligen CPUs ab dem 13600K aufwärts nur weitere kleine Kerne plus Takt bekommen haben im Gegensatz zu ADL.

Inwiefern? In welchen Szenario?
Hast du Testergebnisse vorliegen?
Oder meinst du jetzt nur allgemein Intel/NVidia gegen AMD/AMD?
Da braucht ein Intel Prozessor grob 150 gegen 50 Watt, also 100 Watt mehr.
Na Testergebnisse fordern und 2 Sätze weiter wild mit Zahlen rumwerfen ist aber auch jetzt schwierig.

Sicher können wir die Testergebnisse nun dazu von Dave nehmen.
Nur spiegeln die auch nicht das realistische Szenario wieder wie die Verbräuche in einem normalen Gaming Rechner so aussehen.

Wenn wir da den angeblich Sauf König nehmen - den 13900K - wird dir @IICARUS sicher auch realitätsnähere Werte liefern können (Gaming technisch)

Was nicht heißen soll, das ich Dave seine Testmethodik nicht richtig finde.
(Ich denke schon man weiß wie es gemeint ist)
Es ist schon die absolut richtige Methodik um gute Vergleichswerte zu vermitteln.

Aber dazu sollen ja auch noch Vergleichswerte im GPU Limit folgen zwischen AMD & Intel.

Und ohne viel vor weg zu nehmen aus dem Test und sicher werden erfahrene Leute hier es sich auch schon denken können.
Aber AMD & Intel CPUs rücken da doch etwas enger beieinander.
 
Zuletzt bearbeitet:
Frame Generation regelt. Damit ist man effizienter/sparsamer unterwegs als mit einem X3D und einer 7900 XT.
Ich persönlich stehe ja voll auf Powerlimits. Damit kann man die Leistungsaufnahme bei moderaten Leistungsverlusten massiv zurückfahren. Noch lieber sind mir eigentlich Temperaturlimits, weil man damit die Lautstärke direkt steuern kann und sich damit das Powerlimit automatisch der Umgebungstemperatur anpasst, aber wenn man wirklich aktiv die Leistungsaufnahme zwecks Nutzererhaltung senken will, ist das vielleicht nicht ausreichend.

Und weil ich schon öfter den Satz "Ich hol mir doch keine High-End-Hardware, um sie dann zu drosseln!" gehört habe: Gerade diese Hardware ist dann sehr effizient und leistet bei gleicher Leistungsaufnahme deutlich mehr als die kleineren Chips.
 
Zurück