News Z890-Mainboards: Intel Core Ultra 200 ("Arrow Lake") mit neuem Chipsatz und KI-Features

PCGH_Sven

PCGH-Autor
Wie aus Unterlagen eines Distributors hervorgeht, sollen die Mainboards für Intel Core Ultra 200 ("Arrow Lake") nicht nur über neue Chipsätze mit dem Intel Z890 an der Spitze, sondern auch über ein erweitertes KI-Featureset verfügen.

Was sagt die PCGH-X-Community zu Z890-Mainboards: Intel Core Ultra 200 ("Arrow Lake") mit neuem Chipsatz und KI-Features

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Da bin ich extrem gespannt drauf.
Was ein Ultra 285K so an Leistung und Verbrauch hat. Kein HT finde ich sehr gut für den 0815 (Gamer) User Markt.

Nur was ist Unterschied zwischen den Ai und nicht Ai Versionen? Da die Ai in der CPU sitzt. Haben die Mainboards also auch nochmal eine extra NPU? Oder ist es nur Marketing bla bla für ein paar extra Funktionen?
 
Zuletzt bearbeitet:
Ich wäre dann auf den U7 255 gespannt, bei dem U5 wäre ich erstmal zu skeptisch mit ohne HT und dann nur 6 P Kernen.
Denke das könnte schon einen größeren Unterschied machen.

Aber 8P Kerne und dazu ein paar Spar Kerne gerne... Die leistung wird es entscheiden.

Die 35 bis 180W machen einen doch sehr zurückhaltend. Dann muss die Leistung schon enorm steigen.
 
Ich werde die erste Generation des Sockels abwarten und bei Gefallen ab der zweiten zugreifen.

Bei nicht gefallen wird es wohl wieder nach 7 Jahren wieder AMD werden.

Aber spannend wird es auf jedenfall werden.
 
Ja, es sind aber trotzdem ungelegte Eier. Was nützt es, darüber zu reden? Ich pfeife schon lange auf Gerüchte und warte auf offizielle Angaben, da weiß man dann wenigstens, wo man dran ist.
 
Ja, es sind aber trotzdem ungelegte Eier. Was nützt es, darüber zu reden?
Es macht Spaß zu spekulieren was sein könnte, selbst wenns nie eintrifft.
Haste noch nie drüber nachgedacht was du machen würdest wenn du im Lotto gewinnst?

Klar sollte man immer wissen dass solche Gerüchte nie sicher sind. Aber dieses "du darfst niemalsnicht drüber reden nur weil es nicht offiziell ist" halte ich auch für völligen Unsinn.
 
Haste noch nie drüber nachgedacht was du machen würdest wenn du im Lotto gewinnst?
Mein Kopf funktioniert nach Wahrscheinlichkeiten. Da es nicht sehr wahrscheinlich ist, dass ich im Lotto gewinne, denke ich nicht weiter darüber nach. Ich finde es daher auch unwahrscheinlich, dass Intel plötzlich auf HTT verzichtet. Die nutzen das, seit ich denken kann, bei ihren CPUs, warum auf einmal damit aufhören? Warum im Desktop, und nicht im Server-Bereich zuerst, wo man ja nun wirklich ausreichend Kerne für alles hat? Ein möglicher "Core 5 150" oder wie auch immer er heißen mag, mit nur sechs Kernen und ohne HTT würde ohne E-Cores sang- und klanglos untergehen, weil es an Threads fehlt. Ab acht Kernen können wir für Spieler darüber reden, aber denen fehlen dann vielleicht die zusätzlichen acht Threads durch HTT, wenn sie streamen oder was anderes nebenbei machen.

Wegen mir sollen die E-Cores die Rolle der einstigen HTT-"Kerne" einnehmen, aber wie gesagt, ohne etwas Handfestes dazu ist das (für mich) einfach nichts wert. :ka:
 
Ich finde es daher auch unwahrscheinlich, dass Intel plötzlich auf HTT verzichtet. Die nutzen das, seit ich denken kann, bei ihren CPUs, warum auf einmal damit aufhören?
- Diminishing returns bei Vielkern-CPUs
- Komplexeres Scheduling (P, E, logisch, physisch)
- Sicherheitslücken wahrscheinlichzer (Meltdown, Spectre)
- Geringfügig schlechtere Taktbarkeit und höhere nötige vCore (bisher)
- Vergleichsweise hoher Diespace-Verbrauch für doppelt nötige Kernbereiche

...die Gründe warum man heute (!) eher weg von SMT will sind eigentlich ziemlich zahlreich.

Warum im Desktop, und nicht im Server-Bereich zuerst
Weils im Serverbereich Workload für drölfzig Kerne und Threads gibt, im Desktop ists die absolute Ausnahme, dass ein 8P+16E mit 32T besser als mit 24T performen würde. In synthetischen Benchmarks ja aber sonst...

ohne HTT würde ohne E-Cores sang- und klanglos untergehen
Das stimmt. Die E-Cores ersetzen SMT ja gewissermaßen. Wenn man die nicht mehr hat siehts natürlich bei wenig P-Cores düster aus.
 
Der Großteil der von Intel verkauften CPUs dürfte weiterhin 10 oder weniger physische Kerne besitzen und allgemein ist es Marketing-mäßig schlecht, wenn neue Top-Modelle über weniger Threads = "Task-Manager-Kerne" verfügen als ihre Vorgänger. Ich würde den Schritt erst zusammen mit einer E-Kern-Verdoppelung erwarten und dann auch auf einer Plattform, für die man eine ältere HT-Architektur im Einsteigerbereich fortführen kann. Allgemein sind die Desktop- und Server-Architekturen bislang so eng vernetzt, dass eine großartige Einsparung von Siliziumfläche unwahrscheinlich erscheint – und eine Deaktivierung physisch vorhandener HT-Fähigkeiten macht nur in sicherheitskritischen Situationen Sinn.
 
- Diminishing returns bei Vielkern-CPUs
Ich hab wenig Ahnung, aber wenn ich grob überlege hat Intel doch nur 8 P Kerne, die am Wichtigsten sind und vom Scheduler vorgezogen werden.
Stelle ich HT im BIOS ab, kostet das bei Blender oder synthetischen Tools wie Cinebench 15-20%Performance, womit der neue ultra unter Umständen ein Stück langsamer wäre als das alte Flaggschiff.
- Komplexeres Scheduling (P, E, logisch, physisch)
Das könnte ich mir im Vergleich zu den anderen Punkten gerade noch so vorstellen.
Also anstatt der Nutzung der zusätzlichen Register den Umweg über die ECores zu gehen?
- Vergleichsweise hoher Diespace-Verbrauch für doppelt nötige Kernbereiche
Der ist doch nur minimal? 2-3% für SMT/HT?
..die Gründe warum man heute (!) eher weg von SMT will sind eigentlich ziemlich zahlreich.
Für mich spricht eigentlich alles für SMT/HT, außer die Frage nach dem Scheduling.
Aber spannende Sache.
 
Stelle ich HT im BIOS ab, kostet das bei Blender oder synthetischen Tools wie Cinebench 15-20%Performance,
Das meine ich mit synthetisch.
Im "normalen Leben" ist der Performanceverlust nahezu immer Null. Wie gesagt, die realen (!) Anwendungen die mit 8P+16E mit 32T besser als mit 24T performen sind extrem selten. Selbst wenn ich mit Videokompression komme (was ich selber mache daher das Beispiel) was 32 Threads belasten kann ist der Gewinn sehr klein - denn mehr Threads bringen immer weniger Mehrleistung (siehe Amdahlsches Gesetz), aber ohne SMT kann ich im Powerlimit wo man da praktisch immer ist die P-Kerne ohne SMT 200-300 MHz höher takten. Das kommt am Ende rund aufs selbe raus.

Das war früher geil als man nur 4 Kerne hatte - ein 4C/8T war und ist bis heute viel mächtiger als die gleiche 4C/4T CPU. Aber bei 24 physischen Kernen bringen 8 weitere virtuelle Threads hat nur noch in den seltenen Grenzfällen "Cinebench" was, sonst eigentlich nirgends. Super fürs Benchmarkbalkenmarketing aber das wars auch.

Also anstatt der Nutzung der zusätzlichen Register den Umweg über die ECores zu gehen?
Langfristig garantiert. Es gibt ja auch Gerüchte über einen 295K der 8P+32E haben soll - spätestens dann ist SMT sinnlos.

Der ist doch nur minimal? 2-3% für SMT/HT?
Ich kenne die Zahlen nicht genau. Aber was meinst du was bei derartigen Vielkern-CPUs mehr bringt: SMT aktiv zu lassen oder den Platz den man beim weglassen gewinnt beispielsweise in größere Caches zu investieren? AMD hat mit den x3Ds schon gezeigt was Cache so anstellen kann. Arrowlake soll ja mutmaßlich auch 3 statt 2 MiB pro Kern bekommen. Und: Arl soll ja breiter als Raptor werden zwecks nötiger IPC-Steigerung - dafür brauchts auch Platz.

Den einzigen stichhaltigen Grund SMT beizubehalten sehe ich hier:
Allgemein sind die Desktop- und Server-Architekturen bislang so eng vernetzt, dass eine großartige Einsparung von Siliziumfläche unwahrscheinlich erscheint – und eine Deaktivierung physisch vorhandener HT-Fähigkeiten macht nur in sicherheitskritischen Situationen Sinn.
 
Ich bin über die 32T meines i9 sehr froh. Ich benutze sehr intensiv CPU-Pinning von host und vms. Ich kann in einer VM Videos kodieren, in der nächsten wird kompiliert, in einer anderen BluRays entpacken und gleichzeitig in der Zocker VM mit GPU-Passthrough ohne FPS-Einbrüche Cyberpunk spielen.

Das Beispiel ist natürlich extrem und kommt nie vor. Ich will aber damit sagen, dass 32T sehr wichtig sind, wenn eine VM niemals die Performance einer anderen VM beeinflussen soll. 8 Kerne ohne HT sind ein Rückschritt. Und wer weiß schon, was an den E-Kernen noch übrig bleibt wenn die KI-Kerne noch dazu kommen.
 
wenn, dann würd ich aus Neugierde zum Core Ultra 7 255 wechseln und den dann schön leise (hoffentlich) mit nem Luftkühler kühlen.
 
:-X Gigabyte Z890 Aorus Master AI TOP
Macht mal ´nen schickes Brett Gigabyte :daumen:

Ansonsten tendiere ich derzeit auch dazu mal wieder ´nen Asus Build zu bauen.
Das aktuelle Design der ROG Strix Karten aus der 40er Reihe gefällt mir sehr gut.
 
Zurück