News Raptor Lake Refresh: Die 14. Generation der Core-CPUs soll mehr Takt und einen noch höheren Verbrauch mitbringen

320 Watt OC Modus ?!? Einfach nur WOW !
INTEL hat sicherlich mitbekommen, dass der Strom wieder günstiger wird.
Allerdings nicht, dass dies der Holzweg (trotz Hammer) ist.
Wird schon klappen tun.
Was nicht viele verstehen wieso auch immer ! Das der Verbrauch bei 320 Watt ist wenn alle 8 P Cores und 16 E Cores auf 100% Auslastung sind. Im ganz Normalen Alltag ist der verbrauch deutlich Geringer und in Game zwischen 60 und 150 Watt
 
Naja, Strom ist nur hier in D teuer. Nicht einmal in ganz Europa sind Strompreise irgendein Thema. Und woanders in der Welt ist Strom ohnehin nur ein unbedeutender Kostenfaktor. Da geht es dann mehr um Wärmeentwicklung und Wärmeabfuhr. Wobei selbst das baulich mittlerweile sinnvoll genutzt werden kann.

Bei Systemen, die durcharbeiten ist Effizienz mittlerweile ein großes wenn nicht das größte Thema.
Im Heimanwender-Desktop dagegen sind die Unterschiede allgemein viel zu klein, um sich bemerkbar zu machen. Verrechnet mit den Verbrauchsunterschieden zwischen CPUs ergeben nicht einmal deutsche Preise eine erwähnenswerte Summe. Da stehen da zwar 20-40 W unterschied in AAA-Benchmark-Szenen auf dem Papier, aber wie viele Stunden im Jahr führt der durchschnittliche Anwender CPU-Benchmarks aus? Eben. Spielt man im GPU-Limit, sinken der Verbrauch und der Verbrauchsunterschied deutlich. Spielt man was älteres sowieso. In Menüs erst Recht. Weniger fordende Szene, Fame-Lock, etc. – der diskutierte und für die Kühlerauslegung wichtige Unterschied liegt am Ende möglicherweise keine 500 Stunden im Jahr an, entspricht dann also 10-20 kWh. Also über die Nutzungsdauer der CPU 10 bis 50 Euro – das ist nichts im Vergleich zur Anschaffung respektive den da zu zahlenden Preisen.

Wer am PC auch surft oder gar Bürotätigkeiten durchführt, sollte sogar eher auf den Leerlaufverbrauch achten. Da notiere ich quer über alle Mainboard-Tests zum Beispiel 15 W Unterschied zwischen Ryzen 9 7950X und Core i9-12900K (zugunsten von letzterem, die AMD-Systeme schlucken mehr) und bis zu 25 W (AMD) respektive bis zu 20 W (Intel) Unterschied zwischen verschiedenen Boards innerhalb einer Plattform. Also 30 W Einsparpotential und das während der gesamten Betriebsszeit des Rechners, also möglicherweise 80+ h die Woche/4000 h im Jahr. Sind über fünf Jahre Nutzungsdauer als Primärsystem dann immerhin schon 600 kWh/300 Euro, wenn sich jemand Gedanken über Strompreise machen möchte.

Die meiste Leute werden aber schon mehr Einsparpotenzial bei ihrem Internet- oder Handy-Tarif, bei kaum genutzten Streaming-Abos, Pile-of-Shame-Spielekäufen und ähnlichem haben. Ich persönlich finde vor allem die Geldbeutel-Auswirkungen von zwei GPU-Upgrades im gleichen Zeitraum weitaus schwerwiegender als die Stromkosten.

Die Sinnfrage darf trotzdem gestellt werden. Es macht keinen Sinn eine K-CPU auf einem B-Board zu verbauen, ebenso macht es keinen Sinn eine non-K-CPU auf einem Z-Board zu verbauen. Somit bleibt das Ram-OC ab B660 ein nutzloses Checklistenfeature. Intel macht das sehr bewusst so, die sind ja nicht dumm - Upselling und so.

Spezifiziert sind DDR5-5200 oder gar -4400. Dagegen sind -6000, die ohne SA-OV durchaus möglich sein müssten, schon ein ordentlicher Fortschritt. Das Feature wird durch die Sperre zwar entwertet, aber es ist keineswegs nutzlos.
 
Du, mir ist der Verbrauch eigentlich völlig egal, blöderweise habe ich die Abwärme danach im Raum. Aus dem Grund kommen aktuell keine Intel CPUs und keine AMD GPUs in Frage.
Da musste aber viel spielen damit dieser Plan aufgeht.

Was nicht viele verstehen wieso auch immer ! Das der Verbrauch bei 320 Watt ist wenn alle 8 P Cores und 16 E Cores auf 100% Auslastung sind. Im ganz Normalen Alltag ist der verbrauch deutlich Geringer und in Game zwischen 60 und 150 Watt
Ich denke es hat einen Grund warum man seine Beitragsliste nicht sehen kann.

Der OC Mode ist allerdings trotzdem kein gutes Signal, sicherlich sollte es gewissen Modellen erlaubt sein bei Bedarf auszurasten jedoch hat es selbst bei den TVB und KS CPU's nicht wirklich viel gebracht da durch das hohe current die Kerntemperatur so schnell steigt und dadurch die gewonnene Rechenzeit eher minimal ist.
 
Da wirbt Intel mit Leistungssteigerung bei vllt. höherem Stromverbrauch und der durchschnittliche Kartoffelfresser hat nichts besseres zu tun als über den Stromverbrauch zu meckern. ?

Wie öfters vorgerechnet wurde, spielen die leicht höheren Verbräuche keine wirklichen große Rollen, was die Jahresendabrechnung angeht, vor allem bei Gamern.

In meinen wachsendem Bekanntenkreis mit leichter PC-Affinität kümmert es auch kein Schwein, ob der 7800x3D mit ~60W oder der 13700K mit ~110W im Gaming läuft. Dafür läuft eine Intelkiste "signifikant" stabiler:

@Incredible Alk ich habe persönlich nicht die gleiche Erfahrung wie du gemacht, aber aus meinem Bekanntenkreis höre ich ähnliches (va Probleme mit Ryzen 3000).
Ein Intel läuft und läuft und läuft...

Ob die Kiste nun 50W mehr frisst oder nicht, interessiert nur den gelangweilten Deutschen ab 50, der einen vorgeschobenen Aufreger zum Dampfablassen nach einen stressigem Arbeitstag braucht. Abgesehen von einigen Trittbrettfaher.

@topic: Ich bin äußerst gespannt auf den Refresh und wie hoch die Leistungssteigerung ausfällt. Selbst ein kleiner IPC-Gewinn plus mehr Takt könnten gute 10-15% rausholen. Das wäre doch schon mal was. Vllt. schafft der neue IMC dann auch konstant 8000 MT/s.

Es erwarten uns aufregende Zeiten ?

Das Rumgeheule hir im Forum war zunächst witzig, fast schon niedlich... dann eher nervig und nun langsam erbärmlich.
Wenn immer nur die gleichen auf Commando nur über den Verbrauch meckern merkt man schnell, dass sonst keinerlei technisches Wissen vorhanden ist.
 
Das lässt sich mit unabhängigen Messungen belegen.
Abgesehen von den kastrierten X3D CPUs in Spielen die mit weniger TDP laufen und deaktiviertem zweien CCX laufen, ist Intel mit der Effizienz an den Ryzen 7000 CPUs mehr als dran.
Das bigLittle Konzept hat in meinen Augen gar keinen Anteil daran.
Natürlich, man hat die Effizienz zur Vorgängergeneration mit sparsamen Kernen und trotz unterlegenem Fertigungsprozess auf das Niveau von AMD gebracht.
Nö, das Maximum ist das was bei den meisten Boards voreingestellt ist und bedeutet, "hau raus die *********************". @Stock sind 320W angedacht, praktisch dürfen sie aber mehr ziehen (wer da Schuld ist sei mal dahingestellt) und landen am Ende im Kühlungslimit.
Ich kann immer nicht nachvollziehen, wenn Hater schon immer im Voraus alles wissen. Ich gehe mal nicht davon aus, dass du in der Branche arbeitest und unterstelle, dass du keinerlei Insider Infos hast?
 
Naja, Strom ist nur hier in D teuer. Nicht einmal in ganz Europa sind Strompreise irgendein Thema. Und woanders in der Welt ist Strom ohnehin nur ein unbedeutender Kostenfaktor. Da geht es dann mehr um Wärmeentwicklung und Wärmeabfuhr. Wobei selbst das baulich mittlerweile sinnvoll genutzt werden kann.

Vermutlich ist es zu einfach gedacht, aber Intel braucht doch eigentlich nur dem Cache-Weg von AMD folgen. Pappt mehr Cache an die Kerne und auf geht's. Intel hat ja schon vor einem Jahrzehnt mit Broadwell gezeigt wie es geht.
könnte man machen.
Tut man aber sicher nicht (mit RL+)
Weil man sich die aufgabe für die nachfolgenden Gens nicht unnötig schwer machen wird.

Ich fänds für mobile Produkte cool, also die Mobilchips mit extra Cache damit diese noch effizienter werden, aber auch dann hat man das Problem, dass man das bei jeder folgenen Gen so machen müsste.
 
@Lohnkrake Von der Sache her hast Du recht. Und wenn es ums Stromsparen geht, dann holt man die 50-70 Watt Unterschied im Zweifelsfall über die GPU viel leichter wieder raus (maximales Undervolting).

Viele AMD-Fanboys nutzen eine RX 6800-6950 XT oder eine RX 7900 XT(X), die auf jeden Fall ineffizienter sind als (m)eine Ada GPU. Da gleicht sich das am Ende des Tages auch wieder aus.

Ich finde Intel auch geiler, weil "it just works", will AMD aber einfach mal eine Chance geben.
 
Im ganz Normalen Alltag ist der verbrauch deutlich Geringer und in Game zwischen 60 und 150 Watt
Hast du jemals Shader in einem Spiel kompiliert? ;-)
Ansonsten messen wir den Teillast-Verbrauch einer CPU bei Spielen selbstverständlich auch mit, und geben die Werte in sämtlichen CPU-Tests und Online-Vergleichen zum Thema an. Die Werte, die ihr da seht, spiegeln den Verbrauch im CPU-Limit wider und je länger ihr eine CPU nutzt, oder umso schneller die verbaute GPU ist, desto eher nähert man sich diesen Zahlen an, wenn man auf Fps-Limits verzichtet.

Ansonsten: interessante Diskussion, insbesondere wenn man bedenkt, dass sich viele User mehr CPU-Leistung kaufen, als sie eigentlich benötigen und sich dann über den geringen Verbrauch "wundern". Auch schön: Die Intel-Nutzer sagen "optimiert!", die AMD-User sagen "hab ich schon ab Werk", also letztlich lese ich heraus, dass 13900K-Nutzer zwei Wochen optimieren "müssen", damit sie die Effizienz von AMD erreichen. Doch jetzt habe ich eine Frage: Was passiert, wenn man den AMD optimiert? :bier:

Ein Artikel dieser Art ist derzeit in Planung, das Sommerloch bietet genug Raum für solche Späße. Einfach etwas abwarten, ich bin dran :daumen:
 
Haut mich jetzt nicht vom Hocker, entlockt mir eher ein müdes Gähnen.
Die typisch uninspirierte faule "Ich pumpe mehr Strom hinein, mal sehen was passiert" Arbeit.
Intels 15000 CPUs müssen unbedingt deutlich effizienter werden, sonst verlieren sie noch viel mehr Potenzielle Käufer.
Ich mag Stromsparende Leistungsstarke CPUs die relativ kühl sind, wo man kein neues Netzteil benötigt und die leise zu kühlen sind, alles andere ist für "unbedarfte Fans" die gerne über Dinge hinwegsehen wollen. Ich halte nichts davon... Wenn die Kiste den Stromzähler nicht quält, einen startenden Düsenjäger bei der Lautstärke keine Konkurrenz machen kann, ist es nichts für mich ... ;-)
 
Mal abwarten was da kommt. Vielleicht kann man den höheren Taktspielraum auch für eine niedrigere Leistungsaufnahme einsetzen.
Ich werde von meiner 5800X3D/4070 Kombi die nächsten 5 Jahre definitiv nicht aufrüsten.
 
Hast du jemals Shader in einem Spiel kompiliert? ;-)
Ehrlich gesagt noch nie. Ich spreche nur aus eigene Erfahrung wo mein verbrauch ca Liegt mehr als 150 Watt hatte ich in Spielen noch nie gesehen.
Mal abwarten was da kommt. Vielleicht kann man den höheren Taktspielraum auch für eine niedrigere Leistungsaufnahme einsetzen.
Ich werde von meiner 5800X3D/4070 Kombi die nächsten 5 Jahre definitiv nicht aufrüsten.
Der 5800X3D ist auch die Leistungsbombe schlechte hin. Preis Bombe ! Verbraucht Bombe ! und auch die Leistung ! ist Bombe
 
Die allermeisten Fehler waren im Netz wohlbekannt was da alles nicht ging.
Speicherkits die Instabil waren. XMP das manuell angepasst werden musste. WHEA Fehler en masse mit Samsung SSDs. Das berühmte Ryzenstuttering. Der fTPM Bug. BIOS updates die den enannten Wheafehler beheben aber den Boost der CPU so verstellen dass sie instabil wird bei bestimmten Workloads. Datenträger die einfach im Betrieb verschwinden ohne Fehlermeldung (toll wenn die Arbeit des Tages dann einfach nie gespeichert wurde) bis der PC stromlos gemacht wird und dann wieder ein Jahr perfekt funktionieren und dann wieder... weg sind, Netzwerkverbindungen die monatelang stabil sind, dann 3 Tage lang alle 2 Stunden 10 Sekunden ausfallen und danach wieder monatelang laufen, kaputte Grafikkarten weil ein Biosflash der Karte auf AM4 Gigabyteboards fehlschlägt, Lüfter die grundlos aufdrehen und runterdrehen bis zum nächsten Neustart, grade aktuell ein Backdoor immBios von Gigabyteboards das technisch gesehen die Systemübernahme von außen ermöglicht und so weiter und so weiter.

All diese Dinge sind irgendwie lösbar gewesen oder haben Workarounds. Aber wie gesagt: ich habe darauf keine Lust mehr. Neben mir steht seit Herbst 22 ein stark genutztes 13600K System. Bugs und Probleme seitdem: Null. Das hätte ich auch gerne gehabt. Deswegen plane ich Arrow Lake zu kaufen. Es sei denn mein AM4 hat vorher wieder nen Zusammenbruch, ich glaube beim nächsten mal verkaufe ichs und bau mirn neuen Raptor.

Hab von einigen Dingen gehört. Jedoch muss ich sagen, dass die meisten Sachen, ab Ryzen 2000/3000 Serie und ab dem 400 Chipsatz kaum wargenommen habe. Hatte selbst vor kurzem ein B350 Board gekauft vom Nachbarn mit einem 1600 der läuft bei meiner Tochter ohne Probleme. Und die Cpu hat sogar einen fehlenden PIN :-).

Es gab wie gesagt, bestimmt das ein oder andere Board das mir auf den Sack ging, daher kann ich deine Erfahrung auch nachvollziehen. Deshalb war ich auch so überrascht, dass auf dem x670 mit dem 7950x von Anfang an alles ohne irgendwelche zicken lief. So wünscht man sich das.

Jedoch muss ich sagen, dass es auch im Freundeskreis Intel konfigurationen gibt und auch in Bewertungen, dass das ein oder andere Intel CPU und Board seine Tücken haben.

Ein Freund von mir hat auch den 7950x gekauft und davor 10 Jahre lang den i7 3930 6/12. Nie Bios update gemacht, der wurde so zusammengebaut vom Händler und lief. Wenn man, wie ich, häufiger rumbastelt, Board und CPU tauscht oder für Andere PC´s zusammenbaut- aufrüstet. Dann hat man ein größeren Erfahrungsschatz und einem kommt die Platform buggy vor. Obwohl ich glaube, dass die Mainboard Hersteller da auch eine gewisse mitverantwortung haben.

AMD war vorher der Underdog und viele kauften, weil es schnell oder viele Kerne günstiger gab als bei Intel.

Daher verschmerzt man das ein oder andere Problem. Beim AM5 muss ich ganz ehrlich sagen. Hatte ich andere Erwartungen. Die Teile waren nicht günstig und hätte ich direkt am Anfang Probleme gehabt, dann wäre ich bei einem 13900K gelandet geb ich dir Brief und Siegel. Hätte alles zurück geschickt.

Ich hatte in den 90er/00er viel Spass mit Hardware und Software vorallem dem fast wöchentlichen Neuinstallieren von Windows 98/XP/2000. Aber aus dem Alter bin ich raus.

Mein Arbeitskollege dem hab ich zum 13700K geraten und der ist Bestens zufrieden. Selbst die 7900XTX 24Gb konnte ihn überzeugen. Nur war die Option aus 8P und 8E Cores für den selben Preis wie ein 7700x interessanter, jetzt siehts wieder anders aus.
 
Zuletzt bearbeitet:
Hab von einigen Dingen gehört. Jedoch muss ich sagen, dass die meisten Sachen, ab Ryzen 2000/3000 Serie und ab dem 400 Chipsatz kaum wargenommen habe. Hatte selbst vor kurzem ein B350 Board gekauft vom Nachbarn mit einem 1600 der läuft bei meiner Tochter ohne Probleme. Und die Cpu hat sogar einen fehlenden PIN :-).

Es gab wie gesagt, bestimmt das ein oder andere Board das mir auf den Sack ging, daher kann ich deine Erfahrung auch nachvollziehen. Deshalb war ich auch so überrascht, dass auf dem x670 mit dem 7950x von Anfang an alles ohne irgendwelche zicken lief. So wünscht man sich das.

Jedoch muss ich sagen, dass es auch im Freundeskreis Intel konfigurationen gibt und auch in Bewertungen, dass das ein oder andere Intel CPU und Board seine Tücken haben.

Ein Freund von mir hat auch den 7950x gekauft und davor 10 Jahre lang den i7 3930 6/12. Nie Bios update gemacht, der wurde so zusammengebaut vom Händler und lief. Wenn man, wie ich, häufiger rumbastelt, Board und CPU tauscht oder für Andere PC´s zusammenbaut- aufrüstet. Dann hat man ein größeren Erfahrungsschatz und einem kommt die Platform buggy vor. Obwohl ich glaube, dass die Mainboard Hersteller da auch eine gewisse mitverantwortung haben.

AMD war vorher der Underdog und viele kauften, weil es schnell oder viele Kerne günstiger gab als bei Intel.

Daher verschmerzt man das ein oder andere Problem. Beim AM5 muss ich ganz ehrlich sagen. Hatte ich andere Erwartungen. Die Teile waren nicht günstig und hätte ich direkt am Anfang Probleme gehabt, dann wäre ich bei einem 13900K gelandet geb ich dir Brief und Siegel. Hätte alles zurück geschickt.

Ich hatte in den 90er/00er viel Spass mit Hardware und Software vorallem dem fast wöchentlichen Neuinstallieren von Windows 98/XP/2000. Aber aus dem Alter bin ich raus.

Mein Arbeitskollege dem hab ich zum 13700K geraten und der ist Bestens zufrieden. Selbst die 7900XTX 24Gb konnte ihn überzeugen. Nur war die Option aus 8P und 8E Cores für den selben Preis wie ein 7700x interessanter, jetzt siehts wieder anders aus.

Derlei Probleme sind für mich (trotz Nutzung von AMD-Systemen seit Jahren) irgendwie fremd. Natürlich kann es mal ein instabiles System geben und gewisse Probleme waren bekannt, stimmt. Da hatte ich bei letzteren scheinbar Glück, dass die bei mir nie auftraten. Zu Athlon XP-Zeiten hatte ich noch viel Ärger, was aber vorwiegend am VIA-Chipsatz bzw. dessen Treibern lag.

Danach aber liefen meine Eigenbau AMD-Systeme und AM4 sowieso - egal ob damals mit dem 2700X oder jetzt dem 5800X3D. Läuft einfach und mit der Perfomance bin ich zufrieden, womit ich zum Topic komme: wieso sollte ich einen Intel-Hitz- und Suffkopf kaufen, wenn das AMD System läuft, gut performt und dabei auch noch energieeffizienter arbeitet?

Nein Intel, so nicht - trotz Strompreisbremse. Früher waren die AMD die Suffköppe, jetzt sinds halt die Intel.
 
Was eine Enttäuschung :(
da verzichte ich die Monate auf den 13900 k(s) mit der Hoffnung das sie im Herbst die Kritiker überzeugen, bzw. ihr Defizit ernst nehmen, den Verbrauch reduzieren und DLVR integrieren. Und jetzt gehts wieder nur um mehr Takt und noch höheren Verbrauch. Klasse.
 
Naja wurde ja gesagt der richtige Sprung kommt ja erst 2024. Darum habe ich da in der Hinsicht auch nix besonderes erwartet gehabt. Hat ja Intel zuvor angekündigt das da nix besonderes kommen wird. Die eigentlichen Verbesserungen weiter unten statt finden werden also. I5 und. Drunter. Da dachte ich mir schon das es nur refresch werden wird. Also das ist vorhersehbar gewesen. Die nächst kleinere Fertigung. Ich hoffe diese verwenden sie nicht um noch mehr takt und so zu holen sondern wirklich mal ne richtige ipc, so das der takt wieder sinken kann und noch immer mehr leistung daraus rum kommt und nicht noch weiter mit dem holzhammer drauf hauen werden.
 
Ich hoffe diese verwenden sie nicht um noch mehr takt und so zu holen sondern wirklich mal ne richtige ipc, so das der takt wieder sinken kann und noch immer mehr leistung daraus rum kommt und nicht noch weiter mit dem holzhammer drauf hauen werden.
Glaubst Du nicht das Intel das schon umgesetzt hätte, wenn sie dafür ein "Rezept" hätten? Mit dem kommenden "Tile Ansatz" geht Intel immerhin schon mal "neue Wege". Das wird auch über einen Interposer im Substrate umgesetzt, hat aber nichts mit AMDs Chiplets zu tun. Ansonsten ist das Thema IPC Gain auf Basis der RPL Architektur nun mal ausgereizt. Da kann man mit Cache Tweaks und Größenanpassung noch etwas rauskitzel. Dazu noch einen Spritzer mehr Takt und vll. noch ein oder zwei SKUs mit angepasster Core Config. Fertig ist der Refresh.

Das Tile und Big/Little Konzept muss halt entsprechend gut umgesetzt werden. Das lässt sich dann in "Gaming CPUs"(mit max. 10 P-Cores und 0-4 E-Cores) und "Creator CPUs"(max. 4-6 P-Cores und bis zu 36 E-Cores) segmentieren. Wenn Intel es hinbekommt und die E-Cores in der Leistungsaufnahme drückt und gleichzeitig die Performance zu steigern wäre das ein riesen Schritt.
 
Zurück