News Core Ultra 9 285K gönnt sich ohne Limits bis zu 370 Watt

Ziemlich krummer Voltage Offset auf dem Bild ..
Ansonsten: wann gibts echte Tests von Euch? @PCGH
 
da lächelt der 9950X nur müde mit fast der hälfte des Verbrauchs, wtf Intel..., aber auch dass die i7 und i5 wieder mit 200-250W im PL2 kommen, einfach nur schlecht, selbst nur beim zocken liegen zwischen dem 7800X3D und dem 14700K, 100W Unterschied, wenn man ihn denn nicht manuell im PL1/2 entsprechend beschränkt


mal schauen wie Arrow-Lake diesmal abschneidet und wenigstens unter 100W ggf. landet, aber out of the box kann man Intel eigentlich da nicht wirklich empfehlen
 
Zuletzt bearbeitet:
da lächelt der 9950X nur müde mit fast der hälfte des Verbrauchs, wtf Intel..., aber auch dass die i7 und i5 wieder mit 200-250W im PL2 kommen, einfach nur schlecht, selbst nur beim zocken liegen zwischen dem 7800X3D und dem 14700K, 100W Unterschied, wenn man ihn denn nicht manuell im PL1/2 entsprechend beschränkt


mal schauen wie Arrow-Lake diesmal abschneidet und wenigstens unter 100W ggf. landet, aber out of the box kann man Intel eigentlich da nicht wirklich empfehlen
Ja, einzig spannend wird sein für nicht out of the Box Nutzer, wie Arrowlake performt und das gerade in Kombination mit neuem schnellem CU Dimm. Sollen ja angeblich DDR5 9000 gut gehen. Wenn Intel da performance draus generieren kann, dann bitte.

Aber sehe das wie du, out of the Box kann man bei Intel echt vergessen.


Zusätzlich sehe ich dann auch nicht wirklich die Weiterentwicklung.
Ich meine ein 13700K, 13900K, 14700K, 14900K legt auch schon relativ "deutlich" zu in Spiele Benchmarks wenn man HT deaktiviert. Dazu DDR5 6400 statt 5600 und man kommt auf annährend die selbe, bisher spekulierte Spieleleistung, bzw. je nach Gerücht sogar mehr.
 
Zuletzt bearbeitet:
Morgen 15:00 gibt's wie immer den Test und Händler-Release ist dann am Donnerstag

*edit*
wobei man bei Proshop schon vorbestellen kann, Preise werden aber wohl ähnlich hoch sein beim Rest am Donnerstag
 
Zuletzt bearbeitet:
Ich denke mal Ende des Monats soweit ich weiß Anfang November sollen die Intel CPUs offiecell erscheinen. Dann werden ganz viele benchmarks veröffentlicht werden. Der hohe stromverbrauch mal wieder, naja. zumindest die CPU Temperatur von 77 Grad ist OK. Und rohleistung dürfte dann der hohen p Kern und neuerdings hohen e Kern takt weil der ist ja wie es scheint ebenso gestiegen. Das ist OK. Wenn das stimmt werden die e Kerne 300 mhz mehr takt haben. Die Software die ich so verwende, die mag cpu takt sehr gerne. Also kann man davon ausgehen das es ein leistungsplus geben wird. Der wird nicht ohne sein aber die ht Sache und so dürfte dennoch nicht spurlos an der Software vorbei gehen. Nun ja mal sehen wie die rohleistung so sein wird.
 
Das hat doch weniger mit Intel zu tun, als mit den MB-Herstellern. Wenn man 1000+ Euro OC Boards verkaufen will, muss das Powerlimit offen sein. Dann schön AI-OC-Feature an und alle sind happy.
 
Morgen 15:00 gibt's wie immer den Test

Ich denke mal Ende des Monats soweit ich weiß Anfang November
Ok, die Gerüchteküche scheint hier doch weniger gut informiert zu sein als ich annahm. Beides ist falsch.

Wenn man 1000+ Euro OC Boards verkaufen will, muss das Powerlimit offen sein. Dann schön AI-OC-Feature an und alle sind happy.
So siehts leider aus - immerhin ist seit Raptorlake wohl die offene Einstellung wenigstens nicht mehr ab Werk aktiv so dass man zumindest wenn man gar nichts manuell macht auch bei den supertollen OC-Boards zumindest halbwegs sinnvolle Einstellungen erwarten könnte.^^

Ich bin echt auf die "Sondertests" gespannt die beispielsweise Performance pro eingestelltem Powerlimit zeigen. Ob die CPU jetzt 10% schneller oder alngsamer als AMD ist ist völlig Latte für mich, interessant finde ich technisch eher, was Arroppwlake bei 50, 100, 150W Limit macht als wie viel man mit Gewalt da reinzwiebeln kann ohne Sinn und Verstand.
 
Kann es sein, dass die Temperatur laut Abbildung unter 90°C bleibt. Wenn ich mich also nicht verguckt habe und das mit dem 14900K vergleiche, ist da schon ein Fortschritt erkennbar.
Die andere Frage, die sich mir stellt ist, merke ich diese paar Prozent Unterschied überhaupt? In der Regel benötigen die CPU's bei normalen Gebrauch in Spielen oder Anwendungen eher weniger Leistung. Daher reichen die Default-Einstellungen. Ob nun ein Programm beim Rendern 30 Sekunden schneller ist, interessiert mich nicht. Das Leben ist heute ohnehin hektisch genug. Die CPU an der Kotzgrenze zu betreiben um Cinebench zu spielen ist tatsächlich auch nicht mein Anspruch. Genauso ist es mit 3D-Mark, PC-Mark und wie die Programme sich noch nennen. Anders gesagt, was nutzt mir ein Ferrari mit 500 PS und einem Verbrauch von 20 l/100km, wenn ich diesen überwiegend im Stadtverkehr oder bei überfüllten Autobahnen nutze? Das Motto "Besser haben und nicht brauchen als umgekehrt!" kann bei einer Mehrleistung von unter 5% vernachlässigt werden.
Morgen 15:00 gibt's wie immer den Test und Händler-Release ist dann am Donnerstag

*edit*
wobei man bei Proshop schon vorbestellen kann, Preise werden aber wohl ähnlich hoch sein beim Rest am Donnerstag
Hast Du Dir die Lieferzeiten angeschaut? Anfang/Mitte Dezember ist schon heftig.
 
Zuletzt bearbeitet:
wenn man die Geizhals Links anschaut die ich geteilt habe, steht bei Galaxus auch 24.10. Verkaufsstart
Das stimmt ja auch alles. Der Verkaufsstart ist von Intel offiziell am 24.10. angesagt. Das hat aber nix mit dem NDA-Datum für Produkttests zu tun. Genauso wie Zeiten und Abstände vergangener Produkte nicht automatisch weiterhin für neue Releases gelten müssen.

merke ist diese paar Prozent Unterschied überhaupt?
Außerhalb von Benchmarks? Nie im Leben.
In der realen Spielewelt wo sich die allermeisten Leute im GPU-Limit bewegen ist es meist auch unmöglich blind zu erkennen, ob man auf einem 11900K, 12900K, 13900K, 14900K oder 285K oder auf nem 5800X, 7800X, 9900X oder X3D-Versionen davon spielt. Aber das wollen viele nicht wahrhaben und damit generiert man ja auch keinen Hype/News/Klicks/whatever ;-)

Bis auf wenige Ausnahmen von extrem unoptimierten CPU lastigen Spielen und/oder ganz speziellen Anforderungen ("Ich will aber 500 fps in Counterstrike haben") ist es wenn man ehrlich ist völlig egal welche CPU man benutzt so lange sie in den letzten 5 Jahren gebaut wurde und jetzt nicht grade das unterste Lowend Modell ist - man kann praktisch alles vernünftig spielen was es auf dem Markt gibt.
 
Ganz ohne Limit habe ich als junger Mann auch eine Flasche hochprozentigen und ne Schachtel Zigaretten an einem Abend verbraucht.
Dann kamen sinnvolle Limits wie Frau, Kinder und Alter hinzu und ich trinke und rauche nicht mehr.
Moral von der Geschichte: es hat sehr selten Sinn gemacht oder war besonders nachhaltig Hardware "unlocked" zu betreiben, da der Hersteller die Limits eh schon so setzt dass darüber kein sinnvoller trade-off mehr entsteht.
 
Ich warte nur drauf, dass die CPU am Ende wenn man nur 150W einstellt und sich manuell von den schwachsinnig hohen Betriebspunkten wegbewegt immer noch 35000 Punkte macht.
Würde mich nicht wundern, wenn es gar noch mehr Punkte sind.

Ich mag was ich sehe. Arrow Lake scheint den Abstand etwas zu verkleinern und verringert das Effizienzdefizit auf den Faktor 2.5 zuvor bei Raptor vs Zen4 3D war es fast Faktor 3.
Nicht so ein versteckter Sarkasmus, den könnte man noch falsch verstehen :-)

Meh. Ein 9950X braucht auch 250+ Watt um auf die Leistung zu kommen. Die letzten paar Prozent kosten schon immer unverhältnismäßig viel Abwärme, viel interessanter ist doch, wie die CPU nach unten skaliert, also z.B mit einem Limit von 150W oder so.
Am Ende geht es erstmal um die @Stock Leistung. Die werden in ganz vielen Benchmarkdiagrammen verewigt und erst seit ein paar Jahren interessiert man sich irgendwie entfernt für die echte Effizienz. Vorher wurden zwar auch mal P4 und Bulldozer dafür abgestraft, aber eigentlich ging es da immer eher um Kühlung, denn um Effizienz.
Darf nicht gesagt werden, NDA und so.
Diese Passagen eines NDA finde ich immer noch am witzigsten, wieso darf man nicht einfach sagen, am xx.xx.xxxx kommen die Tests? Verstehe ich nicht!

Kann es sein, dass die Temperatur laut Abbildung unter 90°C bleibt. Wenn ich mich also nicht verguckt habe und das mit dem 14900K vergleiche, ist da schon ein Fortschritt erkennbar.
Naja, welche Kühllösung wird verwendet?

Die andere Frage, die sich mir stellt ist, merke ist diese paar Prozent Unterschied überhaupt? In der Regel benötigen die CPU's bei normalen Gebrauch in Spielen oder Anwendungen eher weniger Leistung.
Nein, merken tut man das nicht. Selbst in ewig langen Rendering Sessions sind 1,5% Unterschied zwar messbar, aber nicht wirklich von Belang.

Daher reichen die Default-Einstellungen.
Da ist ja die Wurzel allen Übels, die Default Einstellungen werden wie leider in den letzten Jahren üblich bereits jenseits von Gut und Böse liegen und 250W in die CPU pumpen. Ist bei AMD alles etwas entspannter, aber leider auch oft weit jenseits vom ideelen Sweet Spot (womit ich noch nichtmal den Effizienzsweetspot meine, denn der dürfte so bei 3Ghz liegen).

Anders gesagt, was nutzt mir ein Ferrari mit 500 PS und einem Verbrauch von 20 l/100km, wenn ich diesen überwiegend im Stadtverkehr oder bei überfüllten Autobahnen nutze?
Am Ende ist es sogar ganz genau wie bei deinem Beispiel; denn einen Ferrari für die Straße kauft man nur, weil man "blenden" und angeben möchte. Ein anderer Grund würde mir nicht einfallen.

Das Motto "Besser haben und nicht brauchen als umgekehrt!" kann bei einer Mehrleistung von unter 5% vernachlässigt werden.
Das Motto verstehe ich gerade bei PC Hardware ohnehin nicht. Denn anders als bei Autos bspw. wird sich der Marktwert einer Komponente immer dem Nullpunkt nähern. High End zu kaufen ist am Ende nur dann sinnvoll, wenn man akut die Leistung braucht. Nur wenig später gibt es die High End Leistung ja zum Schnäppchenpreis, oder eben in der neuen Mittelklasse. Auch wenn wir aktuell mal wieder an einer "Barriere" angekommen sind, wo Leistungsverbesserungen nur marginal und gering ausfallen.
völlig egal welche CPU man benutzt so lange sie in den letzten 5 Jahren gebaut wurde
so einfach ist es auch nicht! Gibt schon Games die durchaus in einem CPU Limit liegen, auch in realistischen Real Word Auflösungen. Anno ist da so ein Klassiker, aber auch Cyberpunk und Co. kommen öfters mal in ein CPU Limit.
 
Zurück