News Intel Core Ultra 200: Neue Desktop-CPUs mit bis zu 38 % IPC-Zuwachs für Oktober erwartet


Anscheinend ist Arrow Lake direkt mit den neuesten Kernen ausgestattet, sowohl P- als auch E-Core waiting

Wird wirklich hochspannend diesen Herbst!
 
Wenn eine CPU sowieso "nur" 100W verbraucht beim spielen spielt es keine Rolle, ob sie theoretisch 180 oder 250 oder 800W dürfte.
Aber ist nicht aktuell (zumindest das was ich so gelesen habe), dass Problem gar nicht unbedingt die Gesamtstromaufnahme ist, denn die hat sich doch groß gar nicht geändert, sondern eher die anderen Parameter? Meines Erachtens nach dürfte sich der Boost dadurch durchaus im Gaming-Teillastbereichen ändern. Aber mal abwarten.

In Spielen 0% Verlust.
Test?

Das ist Ansichtssache. Mit einem größeren Cache, höhere Bandbreite, Cachelatenz oder Prädiktion lastest du den Chip besser aus und du schaffst mehr Instruktionen was wiederum deine "IPC" beeinflusst.
Boah, ja! So gesehen hast du natürlich Recht!
"Einiges"... OK. Wir warten mal auf die Tests.
Ich glaube mich erinnern zu können, dass man derzeit durchaus von 10-15% Leistungsverlust redet. Aber natürlich kann das auch eher synthetische Benchmarks betreffen und der Verlust im Gaming viel geringer sein.
 
Aber ist nicht aktuell (zumindest das was ich so gelesen habe), dass Problem gar nicht unbedingt die Gesamtstromaufnahme ist, denn die hat sich doch groß gar nicht geändert, sondern eher die anderen Parameter? Meines Erachtens nach dürfte sich der Boost dadurch durchaus im Gaming-Teillastbereichen ändern. Aber mal abwarten.
Wird über das Thema gesprochen. Ist allen voran wohl ein Undervolting und damit für Gaming kein Thema, da du nie in den PL Bereich kommst wo das UV relevant Leistung bringt.
 
Aber ist nicht aktuell (zumindest das was ich so gelesen habe), dass Problem gar nicht unbedingt die Gesamtstromaufnahme ist, denn die hat sich doch groß gar nicht geändert, sondern eher die anderen Parameter?
Das Hauptproblem ist, dass die CPUs auf zu vielen Kernen zu hoch boosten und instabil werden (können) bei extremen AVX-Lasten dabei. Das passiert nur dann, wenn die Limits zu hoch gesetzt werden und/oder die Betriebsspannung zu gering ist und gleichzeitig AVX-Last auf vielen Threads kommt. Das passiert in Spielen praktisch niemals - mit einer Ausnahme (weswegen es aufgefallen ist): Die Datendekompression der UE5 mittels oodle beim Spielstand laden.

Wenn irgendwann die normalen Intel Betriebsparameter (wo auch immer die festgelegt werden) wieder greifen und damit die CPUs wieder in Leistungsaufnahme/Stromstärke eingebremst werden und nicht mehr undervoltet werden wird da auch nichts mehr instabil sein - auf Kosten von vielleicht 100, 200 oder 300 MHz beim Spielstand laden in der UE5 Engine und im Cinebench MT etc..

Bedeutet wir werden höchstwahrscheinlich folgendes Ergebnis sehen:
In synthetischen Multithread-Tests werden die neuen Settings minimal langsamer sein als die alten Standardeinstellungen und ein gutes Stück langsamer sein als die alten Unlimited-Einstellungen.
In Spielen (und allen anderen Arten von Teillast) wird der Unterschied praktisch Null sein da hier sowieso kein Limit greift bis auf ganz ganz wenige Ausnahmen wie eben Oodle - sprich es wird wohl ne halbe Sekunde länger dauern als vorher bis ein Spielstand geladen wurde aber die fps danach werden die selben sein. ;-)

Das brauchste nicht mal groß testen, das ist schon bekannt von anderen tests die das Limit noch viel nioedriger gesetzt haben als Intel. Hier ein Beispiel von Alderlake noch:
1718351203747.png

Die fps ändern sich im Bereich der Messungenauigkeit im Mittel beim spielen egal ob das PL2 bei 250 oder 190 oder 125W ist - einfach weil die CPU sowieso nicht so viel braucht.
Ob Intel jetzt 253 oder 181 oder 500W erlaubt ist für die Spieleperformance völlig latte.
 
Zuletzt bearbeitet:
Aber ist nicht aktuell (zumindest das was ich so gelesen habe), dass Problem gar nicht unbedingt die Gesamtstromaufnahme ist, denn die hat sich doch groß gar nicht geändert, sondern eher die anderen Parameter? Meines Erachtens nach dürfte sich der Boost dadurch durchaus im Gaming-Teillastbereichen ändern. Aber mal abwarten.


Test?
Wurde das nicht schon getestet,
Habe nur einen Kurztest von PCGH gefunden, in dem auf einem ASUS Board quasi das neue Intel Baseline Profil mit den ASUS Werksprofilen verglichen wurde.

Die ASUS Profile müssten aber schon eine höhere Leistung bringen, als die regulären PCGH Benchmarks.

Gerade quergelesen.

Wie PCGH die Intel Testet ist auch mit drin.
Aufgeführt werden werte von CP77 als Beispiel.

Hier fallen die Avg Fps tatsächlich von 111 auf 106 Fps.
und die low´s von 71 auf 69 Fps.

Also verliert man rund 4,5% bei den Avg und 2,8% bei den Low´s.

Ist natürlich wirklich ein Thema, das könnte denn hinterher das Zünglein sein, aber Arrow Lake wird auch sicher schneller in Games. Anzunehmen, das gar keine Mehrleistung raus springt ist nicht naheliegend.

Daher werden auch da dann schon ab rund 5% reichen um gegen ZEN5 ohne X3d zu bestehen.
Alleine das HT deaktivieren auf einem 13900, oder 14900er bringt mehr als 5% im Schnitt der Spiele.
Boah, ja! So gesehen hast du natürlich Recht!

Ich glaube mich erinnern zu können, dass man derzeit durchaus von 10-15% Leistungsverlust redet. Aber natürlich kann das auch eher synthetische Benchmarks betreffen und der Verlust im Gaming viel geringer sein.
In Anwendungen kann der Verlust gar noch größer sein, denke ich.
Man wird abwarten müssen, was wirklich auf der Straße bei rum kommt.
 
Zurück