News Intel Arrow Lake-S: Leak bringt fehlendes Hyper-Threading wieder ins Spiel [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Arrow Lake-S: Leak bringt fehlendes Hyper-Threading wieder ins Spiel [Gerücht]

Kommt Intel Arrow Lake ohne Hyperthreading? Zumindest die jüngsten Folien deuten darauf hin, dass die neue CPU-Generation auf das Feature verzichten muss. Wie das versprochene Performance-Plus so erreicht werden soll, bleibt abzuwarten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Arrow Lake-S: Leak bringt fehlendes Hyper-Threading wieder ins Spiel [Gerücht]
 
Es ergäbe keinen Sinn, warum HTT (HT ist Hypertransport) fehlen sollte. Das wird auf jeden Fall mit an Bord sein. Es wird nur weiterhin auf P-Cores beschränkt sein, wo es auch am meisten bringt. Bei einem Achtkerner mit acht E-Cores und zwei weiteren kleinen E-Cores hätte man dann 26 Threads, bei 16 E-Cores entsprechend 34 Threads. Ist entsprechend auch Futter fürs Marketing, weil Intel dann ja mehr Threads hat als AMD ^^
 
Zuletzt bearbeitet:
Auf der einen Seite bezieht sich die Folie auf ein pre-Alpha Stepping.

Auf der anderen Seite gab es ja schon Gerüchte auf eine neue Implementierung in der Zukunft in Form dieser Rentable Units. Wie immer das im Detail aussieht.
 
Ich bin mir gar nicht so sicher, ob HT aktuell noch diese Relevanz hat wie früher. Aktuell hat gerade Intel die Option auf 24 echte Kerne, HT schafft es im Wesentlichen (bitte korrigieren wenn ich das was falsch verstanden habe) die Auslastung der einzelnen Kerne zu erhöhen. Bedeutet im Umkehrschluss aber doch, wenn ich genug Kerne habe, kann HT am Ende nur den Scheduler durcheinanderbringen, nutzen tut es mir nix! Bedeutet aber auch, dass wenn die Auslastung der Kerne verbessert wird, der Verbrauch der Kerne steigt und in Zeiten wo der Verbrauch, aber insbesondere die HotSpot Temperatur ein Limit ist, könnte ich mir vorstellen, dass HT zwar die Kerne besser auslastet, diese aber dadurch geringer takten! Nur eine Vermutung, aber ich denke nicht ganz abwegig.

Dazu kommt, dass wir im Desktop mit 16 oder 24 Kernen doch mittlerweile extrem breit aufgestellt sind und die Anzahl der Threads mich nicht weiter bringen, toll ich hab 24 Threads (5900X), aber ausgelastet werden maximal 10 oder 12 davon. Deswegen habe ich SMT schon länger deaktiviert
 
Ich bin mir gar nicht so sicher, ob HT aktuell noch diese Relevanz hat wie früher. Aktuell hat gerade Intel die Option auf 24 echte Kerne, HT schafft es im Wesentlichen (bitte korrigieren wenn ich das was falsch verstanden habe) die Auslastung der einzelnen Kerne zu erhöhen. Bedeutet im Umkehrschluss aber doch, wenn ich genug Kerne habe, kann HT am Ende nur den Scheduler durcheinanderbringen, nutzen tut es mir nix! Bedeutet aber auch, dass wenn die Auslastung der Kerne verbessert wird, der Verbrauch der Kerne steigt und in Zeiten wo der Verbrauch, aber insbesondere die HotSpot Temperatur ein Limit ist, könnte ich mir vorstellen, dass HT zwar die Kerne besser auslastet, diese aber dadurch geringer takten! Nur eine Vermutung, aber ich denke nicht ganz abwegig.

Dazu kommt, dass wir im Desktop mit 16 oder 24 Kernen doch mittlerweile extrem breit aufgestellt sind und die Anzahl der Threads mich nicht weiter bringen, toll ich hab 24 Threads (5900X), aber ausgelastet werden maximal 10 oder 12 davon. Deswegen habe ich SMT schon länger deaktiviert
 
Bedeutet im Umkehrschluss aber doch, wenn ich genug Kerne habe, kann HT am Ende nur den Scheduler durcheinanderbringen, nutzen tut es mir nix!
Ich verstehe deine Sichtweise, aber gerade mit sehr vielen Kernen kann HT entsprechend mehr "boosten", wenn die Anwendung auf diese Art der Parallelisierung ausgelegt ist. Bei 24 Kernen wären es immerhin 24 zusätzliche Threads, die die CPU abarbeiten könnte. Wenn der Scheduler hier nicht rund läuft, wie in der Vergangenheit ja öfter mal vorgekommen, dann muss dieser halt korrigiert/optimiert werden.

Sonst ist eine teure moderne 24-Kern-CPU ja nicht wirklich schneller (in einer entsprechenden Anwendung), als ein älterer 12 Kerner mit HT.

Ich denke eher, dass die Fähigkeiten von Hyperthreading sogar noch ausgebaut werden könnten/sollten. Gerade im Zusammenhang mit K.I. (auch bzgl. Betriebssystem), denke ich, dass die Anzahl an zu berechnenden Threads ja zukünftig durchaus auch noch deutlich steigen könnte. Es gibt zb. eine Mod für GTA, bei der (wenn ich es richtig verstanden habe) quasi jeder NPC über ChatGPT (?) einen eigenen "Charakter" (über jeweils eigene Promts) bekommt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Meinem laienhaften Verständnis nach, ist hier die Synchronisierung solcher zusätzlichen Tasks/Threads auch nicht so kritisch bzgl. Timing, wie zb. die parallelisierte Berechnung der Haupt-Threads (zb. für die Grafik). Ich bin kein Programmierer, kann also nicht mal grob einschätzen, inwiefern solche Features lokalen Rechenaufwand erzeugen, aber ich bin mir sicher, dass das durchaus auch schnell überhandnehmen kann, wenn die Entwickler sich hier mal "austoben".

Echte oder virtuelle Kerne kann man, denke ich, eigentlich nicht genug haben. Und gemessen am Gesamtpreis eines PCs, und über die Laufzeit eines PCs, glaube ich, dass das auch den (winzigen) Aufpreis wert ist - bzw. man eh nicht wirklich Geld spart, wenn die CPU über kein HT mehr verfügt.


Edit:

Keine Ahnung inwiefern umsetzbar/schon umgesetzt, aber stattdessen sollte man sich vielleicht lieber mal dem Thema "Hardware-Scheduler" zuwenden. Also dass die CPU (mehr?) Einheiten spendiert bekommt, die dem Scheduler des OS so viel Arbeit wie möglich schon mal abnehmen. Eventuell kann auch hier das Thema A.I. bzw. K.I. nützlich sein.
 
Ich bin mir gar nicht so sicher, ob HT aktuell noch diese Relevanz hat wie früher. Aktuell hat gerade Intel die Option auf 24 echte Kerne, HT schafft es im Wesentlichen (bitte korrigieren wenn ich das was falsch verstanden habe) die Auslastung der einzelnen Kerne zu erhöhen. Bedeutet im Umkehrschluss aber doch, wenn ich genug Kerne habe, kann HT am Ende nur den Scheduler durcheinanderbringen, nutzen tut es mir nix! Bedeutet aber auch, dass wenn die Auslastung der Kerne verbessert wird, der Verbrauch der Kerne steigt und in Zeiten wo der Verbrauch, aber insbesondere die HotSpot Temperatur ein Limit ist, könnte ich mir vorstellen, dass HT zwar die Kerne besser auslastet, diese aber dadurch geringer takten! Nur eine Vermutung, aber ich denke nicht ganz abwegig.

Dazu kommt, dass wir im Desktop mit 16 oder 24 Kernen doch mittlerweile extrem breit aufgestellt sind und die Anzahl der Threads mich nicht weiter bringen, toll ich hab 24 Threads (5900X), aber ausgelastet werden maximal 10 oder 12 davon. Deswegen habe ich SMT schon länger deaktiviert
Vorher 1x googeln wäre vonnöten.. ich spiele Google jetzt für dich.
1. Intel hat P und E Kerne. Somit hat es momentan (14th gen) höchstens 8 kerne zur verfügung die zu was taugen.
2. Hyperthreading wurde eingeführt um Kerne effizienter zu machen. Sprich wenn der physische Kern stecken bleibt (cpu stalling) kann er auf den anderen thread wechseln und weitermachen.. mehr instructions können so ausgeführt werden. HT zu entfernen wär gleich dämlich wie bei einem Auto viereckige Reifen statt runde einzubauen. HT ist ein Konzept das Intel einführte, aber jeder andere übernommen hat (AMD, Apple, Samsung etc.).
 
Dazu kommt, dass wir im Desktop mit 16 oder 24 Kernen doch mittlerweile extrem breit aufgestellt sind und die Anzahl der Threads mich nicht weiter bringen, toll ich hab 24 Threads (5900X), aber ausgelastet werden maximal 10 oder 12 davon. Deswegen habe ich SMT schon länger deaktiviert
Wenn du deinen 12-Kerner, der zum Arbeiten und nicht zum Spielen konzipiert wurde, für parallelisierte Last nutzen würdest, dann hättest auch etwas von den 24 Threads durch SMT2. Für Spiele reichen hingegen acht einfache Kerne, mehr als acht Threads können Leistung kosten (und bei wenigen Titeln Leistung bringen).
 
Vorher 1x googeln wäre vonnöten.. ich spiele Google jetzt für dich.
1. Intel hat P und E Kerne. Somit hat es momentan (14th gen) höchstens 8 kerne zur verfügung die zu was taugen.
2. Hyperthreading wurde eingeführt um Kerne effizienter zu machen. Sprich wenn der physische Kern stecken bleibt (cpu stalling) kann er auf den anderen thread wechseln und weitermachen.. mehr instructions können so ausgeführt werden. HT zu entfernen wär gleich dämlich wie bei einem Auto viereckige Reifen statt runde einzubauen. HT ist ein Konzept das Intel einführte, aber jeder andere übernommen hat (AMD, Apple, Samsung etc.).
Da muss ich mal eingreifen, denn so trivial ist es nicht.
Im Grunde ist HT so etwas wie Queueing, welches für das OS 'sichtbar' ist und somit gesteuert werden kann. Es wäre also durchaus denkbar, dass es hier einen Arbiter im Frontend gibt, der das autonom übernimmt und nicht dem OS / der Software die Möglichkeit übergibt. Die Breite und Tiefe sind ja ebenfalls unbekannte Größen in der Gleichung.
Dämlich wäre es also erst, wenn die neue Generation langsamer ist und dabei gleich viel oder mehr Energie umwandelt.
 
Wenn du deinen 12-Kerner, der zum Arbeiten und nicht zum Spielen konzipiert wurde, für parallelisierte Last nutzen würdest, dann hättest auch etwas von den 24 Threads durch SMT2. Für Spiele reichen hingegen acht einfache Kerne, mehr als acht Threads können Leistung kosten (und bei wenigen Titeln Leistung bringen).

Ihr habt das doch mal getestet (Spiele und Threads) ; wenn das schon langer her ist gerne ein "Test 2024" :D
 
Es ergäbe keinen Sinn, warum HTT (HT ist Hypertransport) fehlen sollte. Das wird auf jeden Fall mit an Bord sein. Es wird nur weiterhin auf P-Cores beschränkt sein, wo es auch am meisten bringt. Bei einem Achtkerner mit acht E-Cores und zwei weiteren kleinen E-Cores hätte man dann 26 Threads, bei 16 E-Cores entsprechend 34 Threads. Ist entsprechend auch Futter fürs Marketing, weil Intel dann ja mehr Threads hat als AMD ^^
wenn es nicht kommt, müssten sie die MT Performance über mehr E-Cores reinholen (was bei teurer werdender Chipfläche von fragwürdigem Sinn ist). Es also über tatsächliche Cores ausgleichen.
Aber davon gibt es eben auch nicht mehr als vorher
 
wenn die Anwendung auf diese Art der Parallelisierung ausgelegt ist.
Was ich speziell im Desktop selten sehe


Ich denke eher, dass die Fähigkeiten von Hyperthreading sogar noch ausgebaut werden könnten/sollten. Gerade im Zusammenhang mit K.I. (auch bzgl. Betriebssystem), denke ich, dass die Anzahl an zu berechnenden Threads ja zukünftig durchaus auch noch deutlich steigen könnte
Da gehen ja eigentlich alle Hersteller in Eichtung explizite Einheiten.


Echte oder virtuelle Kerne kann man, denke ich, eigentlich nicht genug haben.
Sehe ich anders, denn hier kommt es signifikant auf den Einsatzzweck an, fürs Gaming reichen 8P Cores aus,


Hyperthreading wurde eingeführt um Kerne effizienter zu machen.
Da brauche ich Google nicht für um dir zu sagen, dass dies maximal falsch ist, HT ist dafür da die vorhandenen Ressourcen (Kerne) besser auszulassen.

Beim Rest, danke 6 setzen.


Wenn du deinen 12-Kerner, der zum Arbeiten und nicht zum Spielen konzipiert wurde, für parallelisierte Last nutzen würdest
12 Kerne waren für mich eine Investition in die Zukunft, aber ja, 8 Kerne wären für mich besser gewesen.

Dämlich wäre es also erst, wenn die neue Generation langsamer ist und dabei gleich viel oder mehr Energie umwumwandet
Dämlich wäre es erst, wenn der neue mit HT schneller wäre als ohne. Vergesst nicht dass es eine neue Arch sein wird, ich sehe hier große Probleme auf Intel zukommen. Tiles sind neu für Intel und ich denke nicht
über mehr E-Cores reinholen
Warum?
Die könnten auch (was wohl wenig überraschend wäre) einfach die Leistung jedes Cores erhöhen. Mehr IPC und mehr Takt wären da zwei wesentliche Aspekte.
 
Warum?
Die könnten auch (was wohl wenig überraschend wäre) einfach die Leistung jedes Cores erhöhen. Mehr IPC und mehr Takt wären da zwei wesentliche Aspekte.
Dann bräuchten wir nie mehr als 1 Kern mit hoher IPC.
Tatsächlich ist SMT etwas, das enorm viel bringt beim Multithreading, gemessen am Transistoreinsatz.
Wenn mn jetzt aus Sicherheitsgründen darauf verzichten möchte, muss man die MT Performance woanders reinholen
 
Was ich speziell im Desktop selten sehe
Das macht ja nix. Man kauft einen PC ja nicht nur für Berechnungen/Tasks, die man dauerhaft/ständig/meistens laufen hat. Außerdem kann man vorher auch schlecht wissen, welche Anforderungen das nächste "Lieblingsspiel" an die Hardware stellt, bzw. wovon genau es profitieren wird.

Und wenn jemand 8 oder 12 Kerne im PC stecken hat, kann er ja auch schlecht sehen/erfahren, wo und wann genau 16 oder mehr Kerne bei ihm/für ihn einen Vorteil bringen würden.
Da gehen ja eigentlich alle Hersteller in Eichtung explizite Einheiten.
Das meinte ich gar nicht. Solche K.I. Einheiten/K.I. Beschleuniger sind für spezielle "K.I. Berechnungen" gedacht. Das bedeutet aber nicht, dass dadurch nicht noch andere "klassische" Berechnungen zusätzlich entstehen können. K.I.-Tasks, die zeitlich nicht extrem kritisch sind, könnten ja sogar komplett ohne lokale K.I.-Beschleunigung in der Cloud berechnet werden. Trotzdem müssen die Ergebnisse ja anschließend lokal in weitere klassische Berechnungen einfließen.

Ein NPC beispielsweise, der nur stumm und starr rumsteht, und wie bisher sein Programm abspielt, ggü. einem NPC, der (mittels K.I.) jetzt nicht nur individuell auf den Spieler reagieren kann, sondern sich somit zb. auch entsprechend individuell(er) bewegt (zb. andere/zusätzliche Bewegungsmuster). Sowas wird ja weiterhin von den klassischen Rechenwerken berechnet.
Sehe ich anders, denn hier kommt es signifikant auf den Einsatzzweck an, fürs Gaming reichen 8P Cores aus,
Tja, das sehe ich wiederum anders. Es gab schon vor Jahren Bei-Spiele, die sogar für über 20 CPU-Threads Last erzeugen konnten. Wenn du also bzgl. Spiele eine gewisse Flexibilität haben, oder einfach nur auf Nummer sicher gehen willst, dann kaufst du dir ja keinen "Gaming-PC", der stand heute schon nur ausreichende Leistung bietet.

Die meisten Spiele laufen vermutlich auch immer noch mit 16GB RAM ausreichend flüssig. Trotzdem würde ich für einen Gaming-PC (schon lange) nicht mehr nur 16GB RAM empfehlen. Mal ganz davon abgesehen, ob jemand mit seinem Gaming-PC auch noch andere Dinge als nur Gaming macht. Schon für einen Power-Surfer beispielsweise reichen 16GB RAM (und je nach Surf-Verhalten auch 8 Kerne!) nämlich nicht mehr aus.

Aber gut, die "XY Kerne/RAM/VRAM reichen fürs Gaming" Diskussion ist halt auch schon fast so alt, wie der PC selbst...
 
Ich bin mir gar nicht so sicher, ob HT aktuell noch diese Relevanz hat wie früher.
Tatsächlich hat es heute eine ANDERE Relevanz wie früher.
Früher, bei 1 Kernern, brachte HT auch ohne großes Zutun enorm viel. Das Pentium 4 HT System, auch wenn es in sauber, frisch aufgesetzten OS bei den Benchmarks hinter den Athlon 64 lag, hat sich in der realen Arbeit einfach viel flüssiger angefühlt. Also nicht nur spürbar, sonder ndeutlich spürbar.
2 Kerner mit HT waren auch super, bei manchen Tasks einfach mal 20-40% mehr mitnehmen, bei einigen verlor man ein paar wenige Prozent, dann hat man das halt in Kauf genommen oder halt ausgeschaltet
4 Kerner mit HT waren eine Investition in die Zukunft wenn man so will. Der erste i7 etwa, 4 Kerne, 8 Threads. "Braucht man nicht" hieß es damals.
Tatsächlich gabs zwar damals schon die Szenarien wo man deutlich von der Leistung profitiert hat, aber erst ein paar Jahre später wurde es wirklich deutlich: als Spiele ENDLICH mehr Threads verwendet haben, manchmal eben mehr als 4, ist ein i7 dem i5 doch oft deutlich davongezogen.

Heute ist das nochmal anders. Nicht weniger relevant, sondern anders. Denn inzwischen haben wir eben schnell mal viele Kerne. 16P Kerne bei AMD mit viel Cache kosten gar nicht mehr so die Welt. Und Programme die das Nutzen gibts auch inzwischen viele.
Spiele werden auch immer mehr. Bei Spielen ist der Fortschritt aber ein anderer: wegen der vielen verschiedenen arten von Tasks und die sich daraus ergebenen Threads ist es schwerer bei Spielen auf Multithreading hin zu optimieren. Anno, eine Tabellenkalkulation mit Grafik ,kann das ganz gut. Andere Spieleengines sind da noch deutlich hinterher, sogar die UE5 ist beim Multithreading noch etwas lahm. Aber die Zeit für mehr Threads wird auch dort kommen. Ein gutes Beispiel für eine moderne 3D Engine, die gut nach oben skaliert mit Kernen/Threads ist die ID Tech 7, welche nicht hardcoded diverse Tasks (Physik, Sound, Weltenberechnung... ) auf fixe cores auftielt, sondern einfach alles auf kleine Chunks , sogenannte "Jobs" aufteilt und der CPU zufüttert, egal wie viele Threads. Das ist die Zukunft und zukünftige Spiele profitieren damit auch automatisch mit steigender Core-Anzahl. Limitiert ist man aktuell halt durch den gemeinsamen Standard der 8 Kerne Zen 2 / 16 Threads in den Konsolen, auf die man sich als Dev halt einigt.

Ob wir über ein erweitertes, verbessertes/fähigeres SMT wie @INU.ID andeutet - mal bald sehen werden ist abzuwarten. Es ist davon auszugehen, dass es theoretisch noch einiges an Potential gibt, dass SMT in zukünftiger Form auch andere Aufgaben besser übernimmt. SMT4 wäre nur eine Idee, gibt es ja schon. Aber eben für KI aufgaben und Co. Oder Raytracing-Aufgaben etc. ODER, das ist aber etwas fernere Zukunftsmusik: reverse multithreading. Also das abarbeiten von einzelner, schwer skalierbarer Threads mit mehreren Cores. Daran wird schon ne Weile geforscht. Damit würde (natürlich mit Overhead), durch die Erhöhung der Kernanzahl die "Singlethread"leistung dennoch deutlich steigen können.
 
Zurück