News Intel Raptor Lake vs. Arrow Lake: Leak zum Stromverbrauch - schon wieder Brechstange?

PCGH-Redaktion

Kommentar-System
Teammitglied
In der Gerüchteküche sind die angeblichen Power-Limits von Intels neuen Arrow-Lake-Prozessoren aufgetaucht. Gegenüber Raptor Lake werden diese zwar teils reduziert, trotzdem könnte die vielzitierte Brechstange ein Comeback feiern.

Was sagt die PCGH-X-Community zu Intel Raptor Lake vs. Arrow Lake: Leak zum Stromverbrauch - schon wieder Brechstange?

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Ich brauche zwar nichts, aber mein Basteldrang will gerne den Core Ultra 285K.
Nur nicht so, wenn es eine ausufernde 14. Gen in Neu ist.
Noch so lange bis zu den Tests :crazy:
 
Erstmal abwarten und Tee trinken.
Das Powerlimit bzw die TDP muss nicht zwangsläufig der reale Verbrauch sein.

Siehe 7800x3D mit 120W TDP (162W PPT).
 
Intel tritt ja nicht nur gegen die 9XXX CPUs an sondern auch gegen die kommenden 9'er X3D CPUs.
Wenn die "normalen" 9'er etwa so schnell wie die 7'er X3D sind, dann ist nicht schwer in etwa auszurechnen, wie schnell die kommenden X3D werden. Vielleicht, durch den 3D-Cache auf beiden CCDs, sogar noch ein Quentchen schneller.
Klar, das Intel bei diesen Prognosen schon mal vorsichthalber die "Brechstabe" rausholt. ;)
 
Man sollte den Kaffee nicht zu heiß trinken. Wie effizient Arrow Lake ausfallen wird, kann noch niemand sagen. Dazu müsste man die CPUs nämlich testen können. Mein 7800X3D hat auch eine PPT von 162 Watt. Beim Spielen bin ich so bei ~30 Watt. :ka:
 
Man sollte den Kaffee nicht zu heiß trinken. Wie effizient Arrow Lake ausfallen wird, kann noch niemand sagen. Dazu müsste man die CPUs nämlich testen können. Mein 7800X3D hat auch eine PPT von 162 Watt. Beim Spielen bin ich so bei ~30 Watt. :ka:
Eben selbst mein (Ram OCed) 7800x3d nuckelt, in den meisten Spielen nur 50 Watt.
Bei Starker belastung wie z.b Battlefield 2042 (128) Spieler, sehe ich im CPU limit teils mal 75 Watt. Laut CapframX über eine Runde gemittelt 68Watt.
Der 13600k eines Kumpels XMP an sonst intel default werte geladen, saugt laut CapframX knapp 120 Watt.
 
Dann erwarte ich aber einen entsprechenden Performancezuwachs, wenn ARL ähnlich viel ziehen darf wie die Raptoren, insbesondere mit neuer Node und Plattform. Sonst wären sie ähnlich unspannend wie der erste 9er Ryzen Aufguss der letzen Woche. Wenn die kommenden X3Ds auf bestehender Architektur in die gleiche Kerbe schlagen, wirds allgemein richtig langweilig. Naja, mal sehen.
 
Genau, das sehe ich auch so. Lieber 5% weniger Leistung und dafür Stabilität aber glaube kaum das Intel sich damit zufrieden geben wird.

Das Problem wird folgendes sein:

Intel ist gezwungen (schon wieder) die Brechstange auszupacken, weil die Dinger sonst langsamer sind als die letzte Generation. Man konnte ja bereits beim Übergang von der 13. zur 14. Gen nahezu keinen Leistungsgewinn verzeichnen bzw. diesen wieder nur durch extremes hochknüppeln der CPUs erzielen.

Das führt natürlich dazu, dass eine Generation mit moderater Lesitungsaufnahme unter Volllast in den 1-Jahres Zyklen von Intel überhaupt nicht umsetzbar ist, da müsste man ja schon den heiligen Gral der CPU-Fertigung gefunden haben.

Man sollte sich eh fragen, wieso auf Biegen und Brechen jedes Jahr eine neue CPU-Generation auf den Markt geworfen werden muss, selbst wenn es nahezu keinen Fortschritt gibt. Das wird bei AMD besser gehandhabt.

Da gehts nur darum die Leute zu melken, die immer den neusten Kram haben müssen.
 
Was hier wieder auf Grundlage von irgendwelchen Twittergerüchten für ein Bullshit abgesondert wird geht echt auf keine Kuhhaut.

Der eine folgert aus irgendwelchen Powerlimitzahlen schon dass Arrowlake langsamer ist als Raptorlake während der andere nen Temperaturartikel rausholt der mit all dem null zu tun hat und selbstverständlich besser weiß (wohl wegen des geheimen Tricks, Spannungsanferderungsfehler und Temperaturlimits einfach gleichzusetzen) wie viel Temperatur eine CPU erträgt als der Hersteller derselben, der Jahrzehnte an Datensammlungen, alle Insiderdetails und Horden von Ingenieuren zur Verfügung hat.
Serlbstverständlich darf auch AMD im Intel-Artikel niemals fehlen (deren APUs übrigens seit Ewigkeiten bis 105°C dürfen - die scheinen genausoweinig Ahnung wie Intel zu haben?), denn wo Intel nahezu kein Fortschritt vorgeworfen wird ist AMD natürlich viiiiel besser und macht gradezu riesige Sprünge (in 20 Minuten erneut nachzulesen wie riesig die sind. Nicht.)

Kannste dir nicht ausdenken. Sorry für den Rant aber manchmal kann ich wirklich nicht mehr einfach oben rechts aufs X klicken. Und ich meine das Windows-X, nicht das Twitter-X.
:ka:
 
Zuletzt bearbeitet:
Das Problem wird folgendes sein:

Intel ist gezwungen (schon wieder) die Brechstange auszupacken, weil die Dinger sonst langsamer sind als die letzte Generation. Man konnte ja bereits beim Übergang von der 13. zur 14. Gen nahezu keinen Leistungsgewinn verzeichnen bzw. diesen wieder nur durch extremes hochknüppeln der CPUs erzielen.

Das führt natürlich dazu, dass eine Generation mit moderater Lesitungsaufnahme unter Volllast in den 1-Jahres Zyklen von Intel überhaupt nicht umsetzbar ist, da müsste man ja schon den heiligen Gral der CPU-Fertigung gefunden haben.

Man sollte sich eh fragen, wieso auf Biegen und Brechen jedes Jahr eine neue CPU-Generation auf den Markt geworfen werden muss, selbst wenn es nahezu keinen Fortschritt gibt. Das wird bei AMD besser gehandhabt.

Da gehts nur darum die Leute zu melken, die immer den neusten Kram haben müssen.
Das lag auch daran das die 13 und die 14 die gleiche Architektur haben bzw die 14 Gen war nur ein Refresh zur 13 Gen mit nur mehr Takt mehr nicht.

Ich habe mich über Arrow-Lake noch nicht wirklich informiert habe, ich gehen davon aus das es diesmal eine neue Architektur ist.

Wie gefühlt alle User sich über die RTX 4090 aufgeregt haben wegen ihre 450 Watt ! Und nach denn ersten Test waren die User die laut Geschrien haben Leise.
 
brechstange heisst dann das die overclocker arbeitslos werden? XD
Nein, die Berufsbezeichnung und das Arbeitsumfeld ändert sich nur.
Wie wärs mit Undervolter oder Stabilisatoren? ^^

Es ist wie bei dem Spiel, wo man die Antwort bekommt und man muss die richtige Frage stellen, um zu Punkten.
Ergo stellt Intel demnächst voll ausgereizte OC Produkte auf den Tisch, und die Profis unter euch versuchen dann diese heißen Dinger stabil zu bekommen, indem sie an allen Ecken und Enden möglichst wenig an den Werten nach unten korrigieren.
Der mit dem wenigsten Leistungsverlust gewinnt die Benchmarkkrone. ^^
 
Man sollte den Kaffee nicht zu heiß trinken. Wie effizient Arrow Lake ausfallen wird, kann noch niemand sagen. Dazu müsste man die CPUs nämlich testen können. Mein 7800X3D hat auch eine PPT von 162 Watt. Beim Spielen bin ich so bei ~30 Watt. :ka:
Da stimme ich dir zu.
Mein 5800X3D läuft auch mal mit 35 Watt, wo der 3700X mit 45 Watt lief.
Bei mehr FPS wohlgemerkt.
Ich denke mal, dass Intel mit den nächsten beiden Schritten sehr viel im Bereich Niedrig- und Teillast auftrumpfen wird, da, wo AMD eher verhältnismäßig schlecht ist.
Man versucht sich zumindets bei Notebooks Richtung Apple durchzuschlagen.
Ist zumindest mein Empfeinden.
Das mag für normale Rechner zu Hause, die als Notebook dann irgendwo rumstehen und kaum mal gefordert werden sicherlich ganz nett sein, doch Spieler und echte Anwender brauchen natürlich etwas, dass halt bei Benutzung nicht beim Verbrauch an die Decke geht.
Das zeigen auch die beiden Ryzen 9000, die jetzt bei Standardeinstellung wesentlich weniger Strom aus der Leitung ziehen, wenn sie richtig arbeiten sollen.
Ein Schritt in die richtige Richtung.
Man kauft sich ja keinen 16 Kerner oder X3D nur aus Spaß, um dann Kochrezepte damit anzuschauen oder PCGH zu lesen, das kann ein Intel N100 auch mit 6Watt supergut, hab ich hier als "Media-Server" rumstehen.
 
Was hier wieder auf Grundlage von irgendwelchen Twittergerüchten für ein Bullshit abgesondert wird geht echt auf keine Kuhhaut.

Der eine folgert aus irgendwelchen Powerlimitzahlen schon dass Arrowlake langsamer ist als Raptorlake während der andere nen Temperaturartikel rausholt der mit all dem null zu tun hat und selbstverständlich besser weiß (wohl wegen des geheimen Tricks, Spannungsanferderungsfehler und Temperaturlimits einfach gleichzusetzen) wie viel Temperatur eine CPU erträgt als der Hersteller derselben, der Jahrzehnte an Datensammlungen, alle Insiderdetails und Horden von Ingenieuren zur Verfügung hat.
Serlbstverständlich darf auch AMD im Intel-Artikel niemals fehlen (deren APUs übrigens seit Ewigkeiten bis 105°C dürfen - die scheinen genausoweinig Ahnung wie Intel zu haben?), denn wo Intel nahezu kein Fortschritt vorgeworfen wird ist AMD natürlich viiiiel besser und macht gradezu riesige Sprünge (in 20 Minuten erneut nachzulesen wie riesig die sind. Nicht.)

Kannste dir nicht ausdenken. Sorry für den Rant aber manchmal kann ich wirklich nicht mehr einfach oben rechts aufs X klicken. Und ich meine das Windows-X, nicht das Twitter-X.
:ka:

Intel hat nunmal mittlerweile einen gewissen Ruf in der Hinsicht weg und das Spielchen läuft ja schon mindestens seit der 9. Core-Generation so. Wir werden sehen, ob sie es schaffen die Leistungsaufnahme drastisch zu senken und gleichzeitig die Leistung auf ein konkurrenzfähiges Niveau zu steigern.
 
Was hier wieder auf Grundlage von irgendwelchen Twittergerüchten für ein Bullshit abgesondert wird geht echt auf keine Kuhhaut.

Der eine folgert aus irgendwelchen Powerlimitzahlen schon dass Arrowlake langsamer ist als Raptorlake während der andere nen Temperaturartikel rausholt der mit all dem null zu tun hat und selbstverständlich besser weiß (wohl wegen des geheimen Tricks, Spannungsanferderungsfehler und Temperaturlimits einfach gleichzusetzen) wie viel Temperatur eine CPU erträgt als der Hersteller derselben, der Jahrzehnte an Datensammlungen, alle Insiderdetails und Horden von Ingenieuren zur Verfügung hat.
Serlbstverständlich darf auch AMD im Intel-Artikel niemals fehlen (deren APUs übrigens seit Ewigkeiten bis 105°C dürfen - die scheinen genausoweinig Ahnung wie Intel zu haben?), denn wo Intel nahezu kein Fortschritt vorgeworfen wird ist AMD natürlich viiiiel besser und macht gradezu riesige Sprünge (in 20 Minuten erneut nachzulesen wie riesig die sind. Nicht.)

Kannste dir nicht ausdenken. Sorry für den Rant aber manchmal kann ich wirklich nicht mehr einfach oben rechts aufs X klicken. Und ich meine das Windows-X, nicht das Twitter-X.
:ka:

Hier geht es im Artikel nicht um AMD!

Ständig wird von den Anhängern des blauen Lagers in den Kommentaren zu kritischen Intel-Artikeln auf AMD verwiesen und erwähnt was AMD doch nicht alles genauso schlecht oder gar schlechter machen würden...

Einfach mal sacken lassen und akzeptieren dass es auch kritische Artikel zu Intel gibt und geben darf.
 
Zurück