News Core 14: Raptor Lake Refresh in Kanada mit 4 % Aufpreis

Bei meiner CPU hab ich noch nie 155 Watt während des Gamings gesehen - weder im fordernden Cyberpunk noch in anspruchsvollen VR Situationen. Aber hey, wenn man will findet sich immer eine Möglichkeit um eine CPU schlecht dastehen zu lassen :schief:
 
Das Einzige, was mich interessiert, ist die Effizienz. Ob die jetzt drei Prozent schneller sind, ist einfach egal.

Da ist wohl jemand schon besonders geil auf den i9 14900T...

Dann kommt da ein Stöhnen aus dem PCGH Benchmarkkeller "Oh ja, schlag den R9 7950X in der Multithreadanwendungseffizenz, bestraf ihn, er war ganz ganz böse..." :ugly:

Nein, immer noch nicht. Es hatte nur jemand Vorabpreise eines Shops abgeschrieben und es als "Leak" ins Netz gestellt - und Gott und die Welt hats abgeschrieben... und (wenigstens manche...) einen Tag später dann korrigiert, hier am Beispiel 3DCenter:

Na also, dann war es doch ein Leak oder gibt es neuerdings irgendeinen Standard, was die Quellen angeht? Da nimmt man dann alles, was bei drei nicht auf den Bäumen ist und irgendwie interessant sein könnte. Hat ja auch geklappt, beim nächsten Leak wird sein Käse als "der bekannte Leaker..." durchs Dorf gerollt.

Aber es ist wie immer, was einmal als Gerücht im Netz ist wird so oft wiederholt bis es als Fakt angenommen wird. Und in 4 Wochen heißts dann wenn die CPUs 3 statt 15% teurer werden (keine Ahnung), ja das konnte ja keiner ahnen.^^

So funktionieren Leaks eben. Die RTX 4090 sollte eine TDP von 450, dann 480, 600, 800, 900, 600 und dann wieder 450W haben. So funktionieren Leaks nunmal.

Kann auch sein, dass die geleakten 600W der RTX 5090 garnicht stimmen und dass es am Ende nur 520W oder gar 660W werden. Nur alles über 675W ist unrealistisch, da man da jetzt schon einen zweiten Stecker braucht und alles unter 450W ist recht unwahrscheinlich.

Ich bin so frei und leake jetzt schon mal, dass die RTX 6090 ganze 800W brauchen wird und die 7090 geht sogar mit 1050W zu Werke. Das passt auch in die bisherige Entwicklung.
 
Bei meiner CPU hab ich noch nie 155 Watt während des Gamings gesehen - weder im fordernden Cyberpunk noch in anspruchsvollen VR Situationen. Aber hey, wenn man will findet sich immer eine Möglichkeit um eine CPU schlecht dastehen zu lassen :schief:
Vermutlich kommt das wieder von den realtiätsfernen 720p CPU Benchmarks, wo die CPU dann hoch eskalieren kann und viel Strom frisst. Beim Gaming in realitätsnahen Auflösungen aber wird es nur die bekannten ~20-30 Watt Unterschied geben, weil ich persönlich hab auch noch nie ein Testvideo gesehen wie sonst 150 Watt average zustande kommen sollten.
 
Bei meiner CPU hab ich noch nie 155 Watt während des Gamings gesehen - weder im fordernden Cyberpunk noch in anspruchsvollen VR Situationen. Aber hey, wenn man will findet sich immer eine Möglichkeit um eine CPU schlecht dastehen zu lassen :schief:
Vermutlich kommt das wieder von den realtiätsfernen 720p CPU Benchmarks, wo die CPU dann hoch eskalieren kann und viel Strom frisst. Beim Gaming in realitätsnahen Auflösungen aber wird es nur die bekannten ~20-30 Watt Unterschied geben, weil ich persönlich hab auch noch nie ein Testvideo gesehen wie sonst 150 Watt average zustande kommen sollten.
Wirklich? Schon wieder? Möchten wir das zum tausenden Mal ausdiskutieren? Fakt ist nun mal, dass ihr im CPU-Limit diese Werte (mit leichten Abweichungen, die aber vollkommen normal sind) ebenfalls erreichen werdet, wenn ihr der CPU das Gleiche abverlangt. Wenn eure CPU weniger benötigt, dann, weil sie entweder weniger leistet oder, insbesondere, weniger leisten muss (GPU-Limit, V-Sync, Fps-Limit) inkl. der Nicht-Vergleichbarkeit eures privaten Systems inkl. Software, die wir nicht kennen und insbesondere inkl. (so meine Annahme) einem falschen Software-Sensor vertraut (die Package Power wird oft nicht korrekt ausgelesen). Bei uns werden dagegen alle Prozessoren unter den gleichen Bedingungen getestet, und daher sind die Werte auch miteinander vergleichbar – völlig egal, ob das ein Zweikern-Intel oder 96-Kern-Server-Prozessor ist.

Wenn also deine CPU, Atma, noch nie die Werte gesehen hat, dann ist das zwar schön für dich, bedeutet aber auch nur, dass du deine CPU nicht so auslastest, wie wir das im Test tun. Und es bedeutet, dass du mit einem Ryzen, der von uns als dreimal sparsamer ausgewiesen wird, wahrscheinlich ebenso dreimal sparsamer in deiner Messsituation unterwegs wärst.

Und noch ein Satz zu den "realitätsfernen 720p Benchmarks": so testet man CPUs, im CPU-Limit. Für den Prozessor existiert keine Auflösung, sondern nur für die Grafikkarte. Wenn ich Benchmarks in UHD mache, dann teste ich die Grafikkarte, nicht den Prozessor. Viele Beispiele dazu, warum das so wichtig (und richtig!) ist:
 
Zuletzt bearbeitet:
Und noch ein Satz zu den "realitätsfernen 720p Benchmarks": so testet man CPUs, im CPU-Limit. Für den Prozessor existiert keine Auflösung, sondern nur für die Grafikkarte. Wenn ich Benchmarks in UHD mache, dann teste ich die Grafikkarte, nicht den Prozessor. Viele Beispiele dazu, warum das so wichtig (und richtig!) ist:
Hab nicht angezweifelt, dass das Sinnvoll ist die Leistungsfähigkeit einer CPU zu Vergleichszwecken im CPU Limit zu testen.
Ändert aber nix daran, dass keinem bis kaum einem diese synthetischen Benchmarkergebnisse im Realen Leben was nützen, da kein Mensch in dieser Auflösung zockt und daher die realen Verbrauchswerte und auch Unterschiede niedriger sind als in diesen Benchmarks, weil die CPU nicht so stark ausgelastet wird.

Theoretisch hast du natürlich recht, wir haben aber von der Praxis gesprochen und da kann mir niemand ein 3x Unterschied in nem GPU Limit verkaufen, 1.5x-2x vielleicht.
 
CPU-Test und Auflösung in einem Satz, meine Güte :nene:
Sagt mal, warum mosert ihr bei RAM oder SSD-Tests nicht auch über die Auflösung, die haben ja genauso wenig mit dem GPU-limit zu tun :schief:
Wollt ihr wissen wann die GPU limitiert, schaut euch GPU-Tests an! Huhu!
Ich glaub ich machs beim nächsten GPU-Test wie ihr, ich mosere herum warum nicht im CPU-limit getestet wird :fresse::lol:
 
Ändert aber nix daran, dass keinem bis kaum einem diese synthetischen Benchmarkergebnisse im Realen Leben was nützen, da kein Mensch in dieser Auflösung zockt und daher die realen Verbrauchswerte und auch Unterschiede niedriger sind als in diesen Benchmarks, weil die CPU nicht so stark ausgelastet wird.

Du zockst einfach die falschen Spiele. Spiel mal etwas Anno und mach ein paar Mods drauf, mit mehr Welten. Dann kriegst du auch einen 7950X3D in die Knie.

Theoretisch hast du natürlich recht, wir haben aber von der Praxis gesprochen und da kann mir niemand ein 3x Unterschied in nem GPU Limit verkaufen, 1.5x-2x vielleicht.

Früher oder später wird die CPU ausgelastet. Mein i7 3770 hat am Anfang auch ein recht geruhsames Leben geführt, so ab 2015 bekam er immer mehr zu tun und mit der GTX 980Ti wurde er zur begrenzenden Komponente.

Wenn ein Hersteller eine CPU verkauft, die soviel säuft, dann muß er es sich auch gefallen lassen, wenn man ihn daran mißt.
 
doch es gibt welche die in 720p zocken.Ich bin so einer.Zocke Counterstrike Source in 720p.Das mache ich damit ich was vom Gegner aus der Ferne besser sehe.Klar sieht der Zaun etwas Kantig aus mit den groben Pixel.Nun es ist ein 27" Bildschirm.Ich brauche ein großen Bildschirm mit niedrigere Auflösung.Vielleicht kann ich ja dann aus einem 60 HZ Bildschirm dann ein 80 Hz oder mehr machen,wer weis.Ich sehe die Gegner zum teil echt nicht gut.Wenn es soweiter geht muss ich mir ein 32 " mit Full HD oder sogar noch weniger Auflösung holen.
Am besten sowas wie 1366x768.Vorteil ist,die GPU langweilt sich noch mehr und ich spare noch mehr Strom weil ich die FPS ebenso noch limiteren kann und dann die GPU noch weniger Ausgelastet wird.
Der anderen Pcs haben nur ein 22" 1680x1050.Der weitere Pc wo mein bester Kumpel dran sitzt und es bei mir hat,ein 24" Full HD noch aber sobald der defekt ist ebenso so einen gleichen Bildschirm bekommt.Vorteil das dann bei dem die rtx 3050 auch weniger Strom fressen wird bei rund 75 Fps Limiterendes Limit von mir gesetzt.
Ich bin da hart gesotteter.Wird da die CPU gewiss ebenso so sparsam sein nicht wahr?
Und ja ich weis ich kenne sonst keinen mehr der so dann Unterwegs ist.
Wäre ich mit 1680x1050 auch noch im CPU Limit oder schon beim GPU Limit?
 
Bin zwar tendenziell pro Intel, aber der Refresh ist nun nix, worauf ich als Ingenieur stolz wäre.
Mal schauen, was nächstes Jahr herauskommt.
 
Ich werde mir den 14700k holen und ihn dann wie meinen 5800x Undervolten. Dazu kommt dann 7600er RAM von Patriot.
Wer auch andere Sachen am Pc macht außer zocken kauft sich doch keinen 8kerner für um die 400€.
 
Tja, den 7800x3d hatte ich zuhause, nur war der Start von AMD erneut nennen wirs verkorkst, weshalb er zurück ging. Mal sehen, ob der 14700k problemloser betrieben werden kann, um meinen 8700k zu ersetzen
 
Tja, den 7800x3d hatte ich zuhause, nur war der Start von AMD erneut nennen wirs verkorkst, weshalb er zurück ging.
Du sagst also, obwohl du wusstest, dass der Start einer neuen Generation sich schwierig gestalten würde, hast du das Zeug trotzdem gekauft? Selbst schuld. Was damit die CPU zu tun hat, ist mir auch ein Rätsel. :ka:
 
Finds etwas schade das Intel jetzt doch nicht den 14700k zu einem 13900k nachfolgere gemacht hat was die Cores angeht. Das wäre nach meiner Meinung der einzige Vorteil dieses Refreshes gewesen mehr kerne für weniger Geld.
 
Du sagst also, obwohl du wusstest, dass der Start einer neuen Generation sich schwierig gestalten würde, hast du das Zeug trotzdem gekauft? Selbst schuld. Was damit die CPU zu tun hat, ist mir auch ein Rätsel. :ka:
Nur bei AMD scheint sich das schwierig zu gestalten und ich hatte zum Zeitpunkt meiner Bestellung (naiv?) gehofft, dass der Hersteller dazu gelernt hat.

Ich bin dann aufgrund der Familie nicht gleich dazu gekommen, weshalb es dann ob der Entwicklung zurück ging. Hardware bei AMD reift ähnlich wie große TripleA Spiele beim Kunden.
 
Hardware bei AMD reift ähnlich wie große TripleA Spiele beim Kunden.
Neue AGESA-Versionen hast du also noch nicht mal ausprobiert? Ich verstehe den Sinn einfach nicht. Wenn das Zeug doch da war, und währenddessen Zeit vergangen ist, dann spräche doch nichts gegen einen Test mit aktueller UEFI-Version, oder? Ich nutze den 7800X3D, seit es ihn gibt, auf einem AM5-Brett und ich hab keine Probleme, ich verstehe nicht, wie andere das immer machen.
 
Ich nutze den 7800X3D, seit es ihn gibt, auf einem AM5-Brett und ich hab keine Probleme, ich verstehe nicht, wie andere das immer machen.
Ich auch nicht, aber ich denke das Stichwort ist OC. Bzw. Schön den 6400 RAM in die AM5 Kiste brügeln und dann wundern warum die CPU die Offiziell nur für 5200 Freigegeben ist nicht 100% Stabil läuft.

Mein 6000 Kit funktioniert auch erst seid dem vorletzten Bios update zu 100% Problemlos. Ist das ein Problem nein. Habe dann halt einfach 5600mhz eingestellt das lief auch.

Jetzt mit dem neuen Agease will ich mal testen ob auch etwas mehr geht. Nicht weil ich es brauche sondern weil ich halt gerne Optimiere.
 
Vielleicht kein Bios Update gemacht und sich dann beschwert das es noch immer nicht optimal funktioniert.Das wiederspricht sich ja im grunde aber genau das machen welche auf schnell ,schnell geht und so.
 
Zurück