News Raptor Lake Refresh: Die 14. Generation der Core-CPUs soll mehr Takt und einen noch höheren Verbrauch mitbringen

Ich hatte die Tage beim studieren etlicher Tests beinahe mal das Gefühl, das Intel bei den low / percentile Fps und in hinblick aufs Nötige keine so schlechte Figur gemacht hat.
Schlecht ist die Figur nicht, aber auch nicht besser als der 7950X3D. Ich habe mal die Daten aus dem 7800X3D Test übertragen um auch ein Index mit den P1 Werten bilden zu können:
1685618583267.png


Das ist dann zwar nicht der vollständige Index, aber man hat zumindest einen Richtwert.
 
Schlecht ist die Figur nicht, aber auch nicht besser als der 7950X3D. Ich habe mal die Daten aus dem 7800X3D Test übertragen um auch ein Index mit den P1 Werten bilden zu können:
Anhang anzeigen 1427928

Das ist dann zwar nicht der vollständige Index, aber man hat zumindest einen Richtwert.
Habe auch schnell nochmal einen Überflug gemacht. Sieht eher so aus, das es wieder Ausreißer auf beiden Seiten gibt. Von daher im allgemeinen keine Relevanz.
 
Na ja, der Big Little Ansatz ist schon gut und bis zu den AMD X3D CPUs der 7000 Reihe war auch der Verbrauch im Vergleich alles andere als schlecht.

Die 13900KS Brechstange mal außen vor.

Ich denke wenn die Hersteller Specs bzgl. Ram angehoben werden, auf 6400, dann hilft das schon ein klein wenig, bei den Fps. Tests müssen zeigen wie es dann im Detail aussieht.

Ich persönlich würde aber jedem eher einen 7000X3D empfehlen, da einfach sehr gute Leistung auf niedrigen Verbrauch trifft.

Großartige Leistung, wenn man trotz vieler "Effizienzkerne" bis zu 3x so viel Strom verbraucht wie die Konkurrenz ?!
Für mich ist das die Goldene Himbeere!
Dagegen stinkt die Bulldozer Technik ja geradezu förmlich ab.
AMD hat jedoch rechtzeitig die Notbremse gezogen.
Intel ist aber schon Gen 14.
Die X3D zeigen alleine schon im Vergleich zu den 170W Boliden von AMD eindrucksvoll, dass Watt und Takt sowas von überbewertet werden und der völlig falsche Ansatz für Leistungsverbesserungen oberhalb einer roten Linie sind.
Diese hat Intel bereits seit Jahren überschritten, und trotzdem fährt man die Tehcnik Jahr für Jahr erneut gegen die Takt- und Watt-Wand.
Anstatt die vorhandene Technik zu optimieren und erst einmal mit etwas weniger Takt den Durchschnittsverbrauch um 50 Watt zu senken, nein, da gibt man lieber 200mhz obendrauf, für nochmals 50 watt mehr.
Bei der Arbeit hat man mir statt einen Ryzen einen Intelrechner hingestellt.
Sobald der arbeiten soll, also aus dem Idle aufgeweckt wird, da bekomme ich ein Motorengeräusch wie in den 90ern.
Jedenfalls wird mein Arbeitskollege dann wieder davon wach.
Leider weiß so jetzt jeder, ob ich wirklich arbeite, oder aber nur PCGH im Internet lese. ^^ ;-P
 
Und die sinnlos hohen PL Zahlen kann man ja beliebig anpassen. Ich würde einen 13900K auch niemals mit 250W+ betreiben (bei Videokompression ist hohe Last auf allen Kernen üblich und die CPU boostet wie bekloppt) sondern auf ein paar Prozent Leistung verzichten und auf 150W deckeln. Denn mir ists völlig egal ob ein Video jetzt 4 stunden oder 4 Stunden und 10 Minuten rausrendert. Wenn man die Systemontime eh hat also der PC sowieso läuft kann man auch auf 60W begrenzen und 6 oder 7 Stunden im Hintergrund laufen lassen. Deswegen hab ich ja auch meinen 5950X fast immer auf 1v und 3,6 Ghz allcore stehen was auf meist unter 100W rauskommt. Ob der 3,6 oder 4,1 Ghz (stock allcore) läuft macht zeitlich kaum was aus und die 5 Ghz singlecoreboost habe ich selten vermisst.

Wow OK du schreibst da was von stunden und ich von Sekunden. Da würdest du es lächerlich finden wenn ich sage ich hätte 43 Sekunden Zeitersparnis dann würdest du es als lächerlich empfinden. Dafür zahle ich 1000€. Da würdest du mich als verrückt bezeichnen weil ich da so sinnlos Geld verbrennen würde um noch etwas schneller umzuwandeln pro Aufnahme. Weiß nicht was du darüber denken tust.
 
Wow OK du schreibst da was von stunden und ich von Sekunden. Da würdest du es lächerlich finden wenn ich sage ich hätte 43 Sekunden Zeitersparnis dann würdest du es als lächerlich empfinden. Dafür zahle ich 1000€. Da würdest du mich als verrückt bezeichnen weil ich da so sinnlos Geld verbrennen würde um noch etwas schneller umzuwandeln pro Aufnahme. Weiß nicht was du darüber denken tust.
Kommt immer drauf an was das Ziel ist. Jemand der mit sowas Geld verdient und zeitkritisch arbeiten muss wird selbstverständlich die Sekunden suchen gehen und da ists auch egal ob der PC 1000€ mehr oder weniger kostet oder die Stromrechnung nen Hunderter mehr oder weniger ist.

Nur für mich der das rein aus Hobby macht spielt es gar keine Rolle ob ein Video ne Stunde länger braucht, es spielt meist nicht mal ne Rolle ob ichs jetzt oder in 2 Wochen mache.

Nur sind die Personen bei denen es auf Minuten ankommt normalerweise nicht die, die sich selber nen Spielepc bauen ind den dafür benutzen. Die haben Workstations dafür oder nutzen gleich Cloud computing dafür.
 
Ja oder sie lassen es zusammen bauen. Und nutzen privat so wie ich ne Nas und wandeln das dann um und sichern es diesen dann draut, um es. Immer mal wieder anzusehen. Was sagst du denn zu denen sowas?
 
Großartige Leistung, wenn man trotz vieler "Effizienzkerne" bis zu 3x so viel Strom verbraucht wie die Konkurrenz ?!
Für mich ist das die Goldene Himbeere!
Dagegen stinkt die Bulldozer Technik ja geradezu förmlich ab.
AMD hat jedoch rechtzeitig die Notbremse gezogen.
Intel ist aber schon Gen 14.
Die X3D zeigen alleine schon im Vergleich zu den 170W Boliden von AMD eindrucksvoll, dass Watt und Takt sowas von überbewertet werden und der völlig falsche Ansatz für Leistungsverbesserungen oberhalb einer roten Linie sind.
Diese hat Intel bereits seit Jahren überschritten, und trotzdem fährt man die Tehcnik Jahr für Jahr erneut gegen die Takt- und Watt-Wand.
Anstatt die vorhandene Technik zu optimieren und erst einmal mit etwas weniger Takt den Durchschnittsverbrauch um 50 Watt zu senken, nein, da gibt man lieber 200mhz obendrauf, für nochmals 50 watt mehr.
Bei der Arbeit hat man mir statt einen Ryzen einen Intelrechner hingestellt.
Sobald der arbeiten soll, also aus dem Idle aufgeweckt wird, da bekomme ich ein Motorengeräusch wie in den 90ern.
Jedenfalls wird mein Arbeitskollege dann wieder davon wach.
Leider weiß so jetzt jeder, ob ich wirklich arbeite, oder aber nur PCGH im Internet lese. ^^ ;-P

Irgendwas hast du gelesen / verstanden, was nicht in meinem Beitrag stand.

Aber ok,
Ich habe grundsätzlich vom Big Little Ansatz gesprochen. Der soweit mit dem i12000 ja auch relativ funktioniert hat.
Auch mit Ryzen 7000 ohne x3d konnte man noch gut um. Jetzt hat AMD wieder seit ein paar Monaten die x3D am Start und wird so getan, als ob alles was Intel macht nur schrott ist.

Ich habe selbst in diesem Thread schon geschrieben, das ich eher AMD empfehlen würde, weil eindeutig effizienter.

Bei Bulldozer war AMD über nicht konkurrenzfähig, nicht nur beim Verbrauch.

Aber ok, dann hast du jetzt erstmal deine ganze Wut auf Intel richtig raus gelassen. Hauptsache es geht jetzt besser. ;)

Nicht zu ernst nehmen, ich bin doch der gleichen Meinung, das für 99% der Spieler die HighEnd Zocker CPUs wollen mit AMD besser bedient sind.
 
Wenn ich optimierte 13600k(s) sehe, die mit undervolting und hohem Speichertakt bei geringer Latenz schon nahe an die Leistung eines 7800X3D heran reichen und dabei eben nicht so absurd viel verbrauchen, wie ein 13900k, fällt mir das etwas schwer zu glauben.

Bzw. wie groß ist die Relevanz noch in 1440p, oder gar 4k. Wenn die CPUs immer mehr im Teillast sind und die Unterschiede zwischen einem Stock 7800X3d und einem Stock 13900k schon nur bei 40W liegen in 4k, im Schnitt.

Was hier aber auch gerne unterschlagen wird - auch wenn ich zu FX 8320 Zeiten auch sehr gerne lange optimiert habe - dass UV und der Betrieb mit hohem Speichertakt auch entsprechend Zeit in Anspruch nimmt. Das Ganze sollte dann ja auch entsprechend auf Stabilität getestet werden und da kommt dann schnell einiges zusammen.
Und bei dem 7800X3D steckt man ihn einfach aufs Board und kann sich die Testerrei sparen.
Deswegen sind das schon immer so Äpfel mit Birnen Vergleiche.

Ansonsten bin ich mal sehr gespannt, was der Refresh so bieten wird.

@Incredible Alk
Da hattest du ja wirklich richtig Pech gehabt mit der ganzen Anzahl an Problemen. Aber manchmal hat man mit dem Board auch einfach Pech!
Ich hatte zu FM2 Zeiten ein Asrock Board und mein 7750K lief nichtmal Stock stabil, egal was ich gemacht habe... Ich zig Ramkits probiert, alles erfolglos. Dann war es mir zu blöd und ich hab das Board getauscht und auf eins von Asus gesetzt und mit Selber CPU und Ram war jetzt sogar stabil OC möglich.
Aber wie heißt es so schön, wenn es nicht läuft dann richtig :/
 
Ja oder sie lassen es zusammen bauen. Und nutzen privat so wie ich ne Nas und wandeln das dann um und sichern es diesen dann draut, um es. Immer mal wieder anzusehen. Was sagst du denn zu denen sowas?
Machst du es jetzt beruflich, oder privat? Ich komme da gerade nicht hinterher ;)
Was hier aber auch gerne unterschlagen wird - auch wenn ich zu FX 8320 Zeiten auch sehr gerne lange optimiert habe - dass UV und der Betrieb mit hohem Speichertakt auch entsprechend Zeit in Anspruch nimmt. Das Ganze sollte dann ja auch entsprechend auf Stabilität getestet werden und da kommt dann schnell einiges zusammen.
Und bei dem 7800X3D steckt man ihn einfach aufs Board und kann sich die Testerrei sparen.
Deswegen sind das schon immer so Äpfel mit Birnen Vergleiche.

Ansonsten bin ich mal sehr gespannt, was der Refresh so bieten wird.
Man, ihr habt gelesen was ich vorher geschrieben habe, oder?

Jeder der CPUs zum Kaufpreis ab 400€ kaufen möchte, ist zu 99% mit AMD besser beraten.
Was anders habe ich nirgends gesagt.
 
dann kann man schon noch zu einem 13600k(f)
Das die CPUs gut sind, wollte ich nicht in Abrede stellen, gerade im Gaming Only und normalem Desktop Betrieb sind sie gut und preislich akttraktiv.
Das Teil braucht im Gaming nicht mal 1/3 davon. Das immer dieser Unsinn überall erzählt wird. Im Gaming bzw. Teillastbereich ist der Raptor absolut Konkurrenzfähig. Die Tests von Igor zeigen das auch klar.
Dennoch bleibt es dabei, dass im Gaming die 3Ds konkurenzlos sind, lt. Igor bspw. pro FPS (1440p) 0,2W verbraucht, ein 13900K dagegen schon 0,36W, also 80% mehr Energie braucht. Ob das jetzt ausreicht um "konkurenzfähig" zu sein? Subjektive Einschätzung, mich persönlich würde es nicht wahnsinnig stören, da meine Gamingzeiten recht gering ausfallen, je höher der Gaminganteil ist, je interessanter wird das. Sobald Intel aber eben in den Maximallastbereich geht, sind sie bis auf wenige Anwendungen nicht mehr zu kühlen, was neben der Energie auch ein nicht unwichtiger Aspekt sein kann.
Rein aufs Gaming (PCGamesH) ist aber in meinen Augen 80% mehr Energie pro FPS schon nicht mehr schön zu reden, auch wenn es nur 100W sind und nicht die 320W.

Im Gegenteil, das bigLittle Konzept hat Intel was die Effizienz angeht wieder konkurrenzfähig gemacht. Dort wo ein 11900K einfach nur chancenlos war.
Quatsch!
Das bigLittle Konzept hat in meinen Augen gar keinen Anteil daran. Intel hat der Wechsel zu 10nm (oder wie auch immer es jetzt heißt) wieder ran gebracht, dazu recht konsequente Entwicklungen der Kerne. Die littleKerne haben letzlich nur einen Anteil daran, dass man auch in Anwendungsszenarien (also parralelisierten Workloads) wieder dabei ist.

Das Maximum ist der 320 Modus.
Nö, das Maximum ist das was bei den meisten Boards voreingestellt ist und bedeutet, "hau raus die Scheiße". @Stock sind 320W angedacht, praktisch dürfen sie aber mehr ziehen (wer da Schuld ist sei mal dahingestellt) und landen am Ende im Kühlungslimit.
Jedenfalls mehr als genug um von AMD mal wieder 5-10 Jahre Abstand zu halten (das deckt sich leider auch mit den sonstigen PCs die ich so baue, das waren zwar die letzten Jahre mehrAmd als intel Systeme - Rückrufe wegen diversen Problemen kamen bisher ausschließlich (!) von den Amd Systembesitzern).
Schonmal dran gedacht, dass dies aber auch einfach ein Problem vor dem Computer sein kann? Ich kann immer wieder berichten, dass wir zu AM2 Zeiten hier 25 Rechner im Dauerbetrieb hatte und nie Probleme hatten, im Anschluss gab es 7700k Rechner und ebenfalls nie Probleme, nun haben wir leider etwas gesplittet und neben AM5 Rechner die bisher keine Probleme gemacht haben, auch 12th Intel Rechner, die leider bisher eher schwierig waren, der Scheduler mag gut sein, aber mit komischer Software kommen komische Probleme und erst nachdem ich die Effizienzkerne abgeschaltet habe, läuft alles zufriedenstellend.

Wenn ich optimierte 13600k(s) sehe, die mit undervolting und hohem Speichertakt bei geringer Latenz schon nahe an die Leistung eines 7800X3D heran reichen und dabei eben nicht so absurd viel verbrauchen, wie ein 13900k, fällt mir das etwas schwer zu glauben.
???
zw. wie groß ist die Relevanz noch in 1440p, oder gar 4k. Wenn die CPUs immer mehr im Teillast sind und die Unterschiede zwischen einem Stock 7800X3d und einem Stock 13900k schon nur bei 40W liegen in 4k, im Schnitt.

Großartige Leistung, wenn man trotz vieler "Effizienzkerne" bis zu 3x so viel Strom verbraucht wie die Konkurrenz ?!
:daumen:
 
Schonmal dran gedacht, dass dies aber auch einfach ein Problem vor dem Computer sein kann?
Bei fast dreistelligen Anzahlen von Systemen und genauso vielen Leuten vor diesen ist das sehr unwahrscheinlich ;-)

Du kannst auch andere User hier fragen die viele Systeme bauen, benchen, tun usw - aktuell ist da die einhellige Meinung wenn du fire&forget willst benutzt du kein AMD.

Bevor das falsch verstanden wird: ich will keinesfalls AMD schlechtmachen. Die haben hervorragende Hardware, sind sehr performant und extrem effizient (vom Idlestatus abgesehen). Nur haben Sie Probleme in der Dauerzuverlässigkeit. Nicht im Sinne von Langlebigkeit sondern von unerwartetem Fehlverhalten. Und das hat bei mir dieses mal in so starker Form zugeschlagen (was sicherlich auch ne Portion Pech war) dass ich beim nächsten System davon weg will. Das soll kein "Markenbashing" sein, nur meine persönliche Erfahrung der letzten Jahre ;-)
 
Kann man alles machen. Man könnte aber auch argumentieren, dass die CPU mit nur 8 Kernen für 470 Euro nicht gerade der Brüller für das Geld ist und auch alles andere als eine Langzeitinvestition und ein 13700KF für 400 das bessere Paket hat.

Oder man schaut was man braucht und kauft sich dann die CPU die am besten zu einem passt. Der Preis soll auch eine Rolle spielen.

Der Preis und die Single Core Leistung ist auch mein Problem bei dem 7800x3d.

465€ ist wirklich ein Brett und ist im Desktopbetrieb schlechter als ein Raptor Lake.

Ich kann mich nicht so recht mit dem 7800x3d anfreunden trotz der brachialen Effizient. Es liegt vermutlich am Preis.
 
Zurück