Intel Raptor Lake: Mit 6 GHz bis zu 41 Prozent schneller als Alder Lake

Aber deswegen muß man nicht ein Produkt, welches noch gar nicht auf dem Markt ist, permanent schlecht machen.
Wer macht wo irgendetwas schlecht?
Natürlich zählt am Ende nur die ST Leistung, im Gaming/Anwendungen.
Die ganzen Kerne/Threads kann eh kaum jemand nutzen.
Wie es um die ST Leistung von Zen 4 steht, bin ich auf dem Stand von >15% bis maximal 28%.
Und von 1670 Pkt zu über 22XX Punkten im CB R23 sind es wohl über 30%....rechne mal nach bevor du hier laufend immer das Gegenteil behauptest.

Ich sehe die ST Leistung von beiden CPUs auf sehr guter Augenhöhe.
Der 7600x legt gegenüber dem 5600x um 25,9% aus deiner Quelle zu.
Und einige Werte aus der Quelle sind falsch, es gibt keinen Ü 30 Gain.
 
Zuletzt bearbeitet:
Ist bei AMD auch der Fall und wo war die große Aufregung?
Ach stimmt ja, 230W (ZEN4) sind natürlich was völlig anderes als 241W (ADL) oder 253W (RPL) :ugly:
Quatsch mit Soße und das weißt du auch!

AMD reizt das PowerLimit auch aus, was ich ganz sicher nicht gut finde! Allerdings mit dem Unterschied, dass wohl deutlich was an Effizienz kommt! Hier geht es um eine 6Ghz Kotzgrenzencpu, die (so vermutet) bei 350W betrieben wird! Damit erreicht man dann 15% Mehrleistung bei 15% Mehrverbrauch (schön gerechnet), was wie auch schon beim KS, oder bei diversen Bulldozerinkarnationen (um auch AMD ins Boot zu holen) schlicht "Scheiße" ist. Das hat damals eben auch Aufregung geführt, ist nur schon lange her, deswegen will sich niemand mehr daran erinnern.

Fakt ist doch, dass Raptor Lake keinerlei (bzw. geringste Verbesserungen am P-Core) Verbesserungen bringt und Mehrleistung daher nur durch Takt geht, was widerum die Stromaufnahme erhöht. Meine Aussage, gib einem Alder Lake den gleichen Strom und ich würde mich nicht wundern wenn RL dann nur 1-2% vorne liegen wird, zielt genau darauf ab. Wenn (Betonung hier auf WENN) das so kommt, ist es faktisch eine Fehlentwicklung und völlig unnötig, weil den Nutzern für nichst Geld aus der Tasche gezogen wird (und ja, ein wissender wird es nicht tun, aber selbst hier im Forum kaufen dann am Ende 20% den 13900K um vom 12900k aufzurüsten, nur um den Anschein zu haben die dickste Beule in .,... zu haben!)

AMD ist kein Heilsbringer und wird ganz sicher von mir nirgends so dargeboten, mit Zen 4 werden sie aber einen Entwicklungssprung machen, auf 5nm und eben in der Architektur, nach aktuellen Infos wird das dazu führen, dass bei gleichem Verbrauch 49% mehr Leistung geboten wird, was effektiv einer Verbesserung der Effizienz um 49% entsprechen würde, bei gleicher Leistung geschieht dies wohl sogar mit 62% weniger Leistungsaufnahme! Das sind erstmal Leaks, die es so zu Intel derzeit nicht gibt, daher vieleicht der etwas größere werdende Rumor gegen Intel, da wird an der Effizienz vieleicht im einstelligen Bereich gedreht, was einfach deutlich zu wenig ist.

Unabhängig davon bin ich weder bei Intel noch bei AMD ein Freund davon, die PowerLimits (wie man sie auch immer nennen will) ständig irgendwohin anzuheben, ich fahre meienn 5900X komplett undervoltet und habe mehr als genug Leistung, bei knapp 65W (Gaming) und 95W Vollast!
 
Allerdings mit dem Unterschied, dass wohl deutlich was an Effizienz kommt!
Das wissen wir nicht. AMD erhöht den Takt ordentlich und gerade hier bleibt die Effizienz idR. auf der Strecke,

Hier geht es um eine 6Ghz Kotzgrenzencpu, die (so vermutet) bei 350W betrieben wird!
Vermuten kann man viel, aber faktisch liegt die TDP bei 253W. In den offiziellen Specs findet man nichts von euren 350W: https://www.computerbase.de/2022-09/intel-praesentation-die-katze-raptor-lake-ist-aus-dem-sack/

Bezüglich der 350W sprach der Leaker aber schon von einem extra Modus. Das ist also nicht default/stock und kein Maßstab für einen Vergleich. Ich kann bei AMD auch PBO aktivieren und das TDP Limit rausnehmen. Dann saufen die auch wie ein Loch.
Um den Modus nutzen zu können, benötige ich auch noch ein extra Mainboard, welches dies unterstützt und du tust so, als würde jeder 13900K out of the Box bei jedem User zuhause 350W verbraten, was völliger Quatsch ist.
Wo ist das Problem, dass ich die Möglichkeit habe, meine CPU manuell zu konfigurieren und, bei Bedarf, mehr Strom ziehen zu lassen? Das geht AMD doch auch und dort stört es niemanden, aber bei Intel wird mal wieder ein riesen Fass aufgemacht.
Ein 5950X lutscht auch mal eben ~240W in CineBench mit PBO:
Screenshot 2022-09-14 141106.png


Fakt ist doch, dass Raptor Lake keinerlei (bzw. geringste Verbesserungen am P-Core) Verbesserungen bringt und Mehrleistung daher nur durch Takt geht, was widerum die Stromaufnahme erhöht.
Naja, doch. Die Kerne bekommen mehr Cache.
Was bringt AMD denn? Mehr Cache und mehr Takt. Wo ist da jetzt der Unterschied und wieso erwartet man bei Intel jedes Jahr eine komplett neue Architektur?!
 
Zuletzt bearbeitet:
Und einige Werte aus der Quelle sind falsch, es gibt keinen Ü 30 Gain.


1669 Punkte erzielt in der News der 5950X
22xx Punkte erzielt der 7950X
531 Punkte Differenz (wenn man die beiden X durch 0en ersetzt, was das geringste Ergebnis lt. News wäre)

531 Punkte sind ausgehend von 1669 Punkten exakt 31,81%! Rechnerisch mal Ü30! Und woher nimmst du die Gewissheit, dass die Quelle falsch liegt? Gegenquelle? Gerne!
 
@BigBoymann

Und dann fängt man an unter realer Spielelast tatsächliche Leistungsaufnahmen zu messen statt nur über TDPs und synthetische Benchmarks zu reden und... HUCH! Ja was ist denn da passiert mit den bösen bösen ach so ineffizienten intels...?

 
Das wissen wir nicht. AMD erhöht den Takt ordentlich und gerade hier bleibt die Effizienz idR. auf der Strecke,
Du solltest den Sinn hinter der Spekulation von Leaks mal hinterfragen! Hier geht es die ganze Zeit um "Nichtwissen" und reine Spekulation.
Vermuten kann man viel, aber faktisch liegt die TDP bei 253W.
Yes, siehe oben, es geht um Spekulationen. Hier geht es um eine auf 6Ghz OCed Spekulation, offiziell sind es ja nur 5,8Ghz (wobei da ja mittlerweile auch rund ein Dutzend verschiedene Boostmodi durcheinander laufen)


Naja, doch. Die Kerne bekommen mehr Cache.
Was bringt AMD denn? Mehr Cache und mehr Takt. Wo ist da jetzt der Unterschied und wieso erwartet man bei Intel jedes Jahr eine komplett neue Architektur?!
L2 Cache! Bringt in aller Regel nicht wirklich was, vor allem da die Dosierung ja sehr gering ist!

AMD bringt bspw. 5nm Fertigung

Niemand erwartet eine "komplett" neue Architektur, aber wenn sich ein Intel Boss hinstellt und ankündigt, dass man eigentlich bis auf eine kleine Änderung (vermutlich L2) nichts geändert hat, aber dennoch höhere Preise haben will, dann darf man wohl fragen was da los ist. In der Vergangenheit haben sie zumindest Tick-Tock gemacht, eine große Änderung gefolgt von einem Shrink, gefolgt große Änderung, Shrink usw. Aktuell machen Sie seit Skylake eigentlich nix-nix-nix-nix-große Änderung & Shrink -nix!
 
AMD reizt das PowerLimit auch aus, was ich ganz sicher nicht gut finde! Allerdings mit dem Unterschied, dass wohl deutlich was an Effizienz kommt! Hier geht es um eine 6Ghz Kotzgrenzencpu, die (so vermutet) bei 350W betrieben wird! Damit erreicht man dann 15% Mehrleistung bei 15% Mehrverbrauch (schön gerechnet), was wie auch schon beim KS, oder bei diversen Bulldozerinkarnationen
Was du schreibst, ist absoluter Unsinn, denn selbst wenn 6 GHz erreicht werden, wird dieses nur auf einzelne Kerne anliegen und nicht auf alle Kerne. Auf alle Kerne würde man dieses mit bestimmten Anwendungen wie Benchmark oder Stresstest nicht mehr kühlen können.

Das Schlimmste an User wie dir ist, dass sie solche Meinungen irgendwo abgeschaut haben und selbst keinerlei Erfahrungen mit solch einem System haben. Sonst würden sie eines Besseren belehrt sein und solch ein Blödsinn mit 350 Watt nicht schreiben. Denn in der Regel lässt niemand im Hintergrund ständig Prime95 oder Benchmark laufen und dann fällt die Leistungsaufnahme auch nicht so hoch aus.

Komisch, dass ich mit einem 9900K + 2080 Super Grafikkarte dieselbe Leistungsaufnahme von 420 Watt (komplettes System) wie mit dem Rechner meines Sohnes, mit einem 3900X + 2080 Super im selben Game hatten. :D

Mein 12900K kommt auch nur auf 55-100 Watt und im GPU-Limit sind es immer unter 100 Watt. Da sollte ich mir eher Sorgen machen, weil meine RTX 3080 bis zu 350 Watt zieht (maximal sind sogar bis 370 Watt möglich).
 
Und dann fängt man an unter realer Spielelast tatsächliche Leistungsaufnahmen zu messen statt nur über TDPs und synthetische Benchmarks zu reden und... HUCH! Ja was ist denn da passiert mit den bösen bösen ach so ineffizienten intels...?
Dann schau mal was der 5800X3D mit Alder Lake macht! Huch, vernichtend schlagen tut er den!

Im Ernst, lasst doch einfach mal gut sein. Es geht mir gehörig auf den Strich, dass hier ständig von irgendwelchen Fannis Kommentare abgestraft werden, die hochspekulatives behandeln. Ich habe an tausend Stellen hier immer und immer wieder betont, dass ich Alder Lake extrem gelungen finde (und das obwohl ich nachwievor nichts, aber auch gar nix von bigLITTLE im Desktop halte) und vielen vielen Usern und Mitmenschen zu genau so einer CPU geraten. Allerdings und nur darauf bezog sich hier alles (6Ghz RL), halte ich nichts von einem KS Modell oder einer auf 6Ghz Kotzgrenze getakteten CPU! Weder bei AMD (wo es die, aktuell nur eben nicht gibt) noch bei Intel!
 
Dann schau mal was der 5800X3D mit Alder Lake macht! Huch, vernichtend schlagen tut er den!
Dann schau dir mal an, was daraus wird, sobald die Auflösung in Richtung 1440 und höher geht. ;)

Mit solchen Tests wird immer im CPU-Limit alla 720p getestet, was auch seine Daseinsberechtigung hat, sonst würde ja die Grafikkarte und nicht der Prozessor getestet. Aber dasselbe wäre, wenn man Stresstests als Vergleich nimmt. Denn am Ende bei sich zu Hause stehen, mit einer Auflösung ab 1080p und höher, fallen die Unterschiede gar nicht mehr so groß aus.

Schau dir mal solche Vergleichstests auf YouTube an, dann fallen die Unterschiede gar nicht mehr so groß aus. Mein 12900K ist auch schneller als mein vorheriger 9900K, aber nur im CPU-Limit. Im GPU-Limit macht es gar kein Unterschied. Das liegt einfach daran, das im GPU-Limit, wo es auf die Grafikkarte ankommt, der Prozessor gar nicht mehr so viel machen muss.

Mit nur 720p, wäre auch mein 12900K immer schneller als mein 9900K.
Sonst müsste sich keiner von uns High End Grafikkarten kaufen müssen und stattdessen nur den besten Prozessor. ;)
 
Was du schreibst, ist absoluter Unsinn,
Geil!

Das Schlimmste an User wie dir ist, dass sie solche Meinungen irgendwo abgeschaut haben und selbst keinerlei Erfahrungen mit solch einem System haben. Sonst würden sie eines Besseren belehrt sein und solch ein Blödsinn mit 350 Watt nicht schreiben. Denn in der Regel lässt niemand im Hintergrund ständig Prime95 oder Benchmark laufen und dann fällt die Leistungsaufnahme auch nicht so hoch aus.
Ganz sicher habe ich in meinem Leben mehr CPUs gesehen, verbaut und getestet wie du sie je sehen wirst! Eine 24Core, wie eine 16 Core CPU braucht aber niemand, der eben nicht auch abseits vom Gaming mal etwas macht und ich kann die tausend Anwendungen aufzählen, die nicht viel besser als Prime sind und die Kerne effektiv und voll und ganzzeitig auslasten! Fürs Gaming ist immer noch eine 5800X3D die aktuell beste Wahl (auch wenn Intelianer dies nachwievor nicht gerne höhren!)

Komisch, dass ich mit einem 9900K + 2080 Super Grafikkarte dieselbe Leistungsaufnahme von 420 Watt (komplettes System) wie mit dem Rechner meines Sohnes, mit einem 3900X + 2080 Super im selben Game hatten.
9900K = 95W TDP
3900X = 105W TDP

Vergleichbar? Nein! Und damals war Intel gerade in Spielen eben auch noch deutlich effizienter unterwegs, was seltsamerweise immer und immer wieder gebetsmühlenartig betont wurde. Ob da 2% zwischen den CPUs lagen, völlig irrelevant, hauptsache Intel war vorne.

Mein 12900K kommt auch nur auf 55-100 Watt und im GPU-Limit sind es immer unter 100 Watt. Da sollte ich mir eher Sorgen machen, weil meine RTX 3080 bis zu 350 Watt zieht (maximal sind sogar bis 370 Watt möglich).
Auch im Bereich GPUs gibt es diese Sorgen, aber nochmal, nur weil einige es scheinbar völlig vergessen!

Es geht gerade hierum:

Mit 6 GHz bis zu 41 Prozent schneller als Alder Lake​

Intel behauptete auch, dass Raptor Lake eine 15-prozentige Steigerung der Single-Thread-Leistung und eine 41-prozentige Steigerung der Multi-Thread-Leistung im Vergleich zu Alder Lake haben wird,
Falsch, das bringt nicht AMD, sondern TSMC und Intel hat bei ADL bereits eine neue Fertigung gebracht.
Ja nee is klar! Wo lässt Intel gerade noch seine GPUs fertigen?
 
Dann schau mal was der 5800X3D mit Alder Lake macht! Huch, vernichtend schlagen tut er den!
Und das ist die einzige AMD CPU oder wie? Den 5950X oder 5900X gibt es nicht mehr?
Das ist halt das Problem mit Menschen wie dir. Ihr betreibt Cherrypicking um AMD besser dastehen zu lassen.

Ja nee is klar! Wo lässt Intel gerade noch seine GPUs fertigen?
Es ging um CPUs. Du betreibst hier gerade Whataboutism oder springen wir jetzt von Thema zu Thema?
 
Mit solchen Tests wird immer im CPU-Limit alla 720p getestet, was auch seine Daseinsberechtigung hat, sonst würde ja die Grafikkarte und nicht der Prozessor getestet. Aber dasselbe wäre, wenn man Stresstests als Vergleich nimmt. Denn am Ende bei sich zu Hause stehen, mit einer Auflösung ab 1080p und höher, fallen die Unterschiede gar nicht mehr so groß aus.
Dann nehmen wir jetzt alle einen 12400k oder 5600X, weil in höheren Auflösungen die Unterschiede nicht mehr vorhanden sind! Aber halt, gleich kommt Anno um die Ecke als bestes Beispiel, warum man eben doch mehr braucht! Jeder biegt es sich zurecht wie er es braucht! Sorry, aber lächerlich!

Niemand hat behauptet, dass AL schlecht ist, niemand hat behauptet das RL schlecht ist. Nur habe ich und andere vermutet, dass RL vermutlich als KS Variante dumm sein könnte (wie aber auch schon beim aktuellen KS)
 
Es geht mir gehörig auf den Strich, dass hier ständig von irgendwelchen Fannis Kommentare abgestraft werden, die hochspekulatives behandeln
Was mir gegen den Strich geht ist, dass man automatisch ein Fanny von irgendwem ist wenn man eine abweichende Meinung (in dem Falle hier sogar gemessene Fakten) postet.

Wenn ich schreibe AMD ist unter Vollast viel effizienter bin ich ein AMD Fanboy, wenn ich belege dass unter kleineren Teillasten Alderlake deutlich sparsamer ist als Ryzen bin ich auf einmal der Intel Fanny. Es ist so nervig dass egal welche Eigenschaft von irgendeiner Hardware man herausstellt sofort der Fanboy-Bullshit aufgetischt wird. :daumen2:

Als Mod ist das noch blöder weil ich deinen Post eigentlich als personenbezogenen Angriff verwarnen müsste - Glück für mich dass ich direkt angesprochen bin und es daher (um dem Vorwurf der Voreingenommenheit zu entgehen) nicht tun muss... kommt dann ggf. von irgendnem Kollegen ders vielleicht liest.
 
Und das ist die einzige AMD CPU oder wie? Den 5950X oder 5900X gibt es nicht mehr?
Das ist halt das Problem mit Menschen wie dir. Ihr betreibt Cherrypicking um AMD besser dastehen zu lassen.


Es ging um CPUs. Du betreibst hier gerade Whataboutism.
Ich roll mich weg, Cherrypicking??? Willst du mich vera****? Ihr beide versucht gerade alles so zurecht zu biegen, dass Intel geil da steht, "huch im Gaming ist es gar nicht mehr soviel" und so weiter. Dabei entfernt ihr euch immer mehr vom eigentlichen Inhalt des Postes, weil ihr das Gefühl habt euren Lieblingshersteller (nutzt ihr eigentlich auch Intel Bettwäsche?) verteidigen zu müssen, was ja an sich schon Schwachsinn hoch zehn ist, denn ihc und andere haben hier an dieser Stelle niemals eine faktische Aussage getroffen, nur euer (ja, ihr nicht ich) Cherrypicking mit Gegenbeispielen gefüttert.
 
Wenn ich schreibe AMD ist unter Vollast viel effizienter bin ich ein AMD Fanboy, wenn ich belege dass unter kleineren Teillasten Alderlake deutlich sparsamer ist als Ryzen bin ich auf einmal der Intel Fanny. Es ist so nervig dass egal welche Eigenschaft von irgendeiner Hardware man herausstellt sofort der Fanboy-Bullshit aufgetischt wird. :daumen2:
Sorry Alk, aber es nervt hier einfach von vielen Seiten. Es geht hier einzig um das Gerücht 41% bei 6Ghz und der Spekulation, dass ala KS Variante die Effizienz mit an Sicherheit grenzender Wahrshceinlichkeit darunter leiden wird (was im übrigen auch bei Teillast und KS schon so ist, der wesentlich schlechter als der non S abschneidet. Ich habe hier an keiner Stelle AL schlecht geredet, ich habe es sogar noch einmal beton, dass ich Alder Lake sehr sehr gelungen finde und selber schon welche verbaut hatte (meinen 5900X hatte ich da aber schon, sonst wäre evtl. auch ein AL bei mir zu Hause)

P.S.
Wo habe ich hier jemanden persönlich angegriffen? Wenn das so rübergekommen ist, sorry, nicht meine Absicht.
 
Ihr beide versucht gerade alles so zurecht zu biegen, dass Intel geil da steht, "huch im Gaming ist es gar nicht mehr soviel" und so weiter.
Ist es auch, weil in Games egal, ob Intel oder AMD gleichauf sind.

Denn beachten müssen wir hier auch die Auflösung, was am Ende dazu genutzt wird und dann hängt es sehr stark von der Grafikkarte ab und nicht mehr so sehr auf den Prozessor. Ein Prozessor, der dann dabei nicht mehr viel machen muss, wird auch weniger Strom ziehen. Das wird man aber jemanden, der von AMD besseren ist, nie klarmachen müssen, denn deine Beiträge fallen immer in diese Richtung aus.

Denn richtiger wäre, dass AMD im CPU-Limit effizienter ist und nicht alle Games laufen im CPU-Limit. Man möchte aber immer gut gewappnet sein, sollte doch mal ein Game im CPU-Limit laufen. Daher wird meist versucht einer der besten Prozessoren zu kaufen, aber dann kommt es immer noch mit auf die Grafikkarte mit an.

Erst letztens meinte jemand sich die fetteste Grafikkarte kaufen zu müssen und wunderte sich das er mit einer 3090 ti und seinem 1080 P Monitor immer im CPU-Limit lief.

Ganz sicher habe ich in meinem Leben mehr CPUs gesehen, verbaut und getestet wie du sie je sehen wirst!
Ach ja, da bis du dir so sicher, ohne mich überhaupt zu kennen. :D
Besonders dieser Standpunkt ist dein Problem, aussagen zu tätigen über Sachwissen was dir fehlt. ;)
 
Leute hier geht's um Hardware , nicht um Obst. Keine Ahnung wie ihr hier Kirschen pflücken wollt, zudem ist nicht mal Saison.
Was ist wenn dir jemand sagt, das die aktuellen Intels sogar effizienter arbeiten ?
Die frage ist halt effizienter als was ? Als die Konkurrenz ? Als die Vorgänger.
Ein 12900ks ist halt einfach schlecht was das angeht. Ein 12400 hingegen ist sehr effizient.
Ähnlich sieht es beim 5600(x) und 5950x aus.
 
Zurück