News Mega-APU wird Realität: AMD bestätigt "Strix Halo" mit Zen 5, RDNA 3.5 und XDNA 2

Bin ja mal gespannt ob das Speicherinterface da nicht limitiert. Sieht ja nach quad channel aus aber an dediziertes gddr wird man da immer noch lange nicht ran kommen vorallem nicht weil die cpu ja auch noch was ab will.
Wird auf jeden Fall ein super interessantes Teil.
 
Bin gespannt, wie es sich verkauft, Kaby Lake G war jedenfalls ein Flop. Die Nachteile, gegenüber einer dedizierten GPU, waren einfach zu gravierend.
 
Naja die 40cu sagen aber noch nicht viel aus. Die Frage ist eher wie viel takt geht sich bei dem engen stromkorsett aus. Meine 6700xt hat die selbe config und braucht 230w bei 2500mhz.
Kannst ja mal spaßeshalber im Radeon-Adrenalin etwas rumspielen und einfach mal den max-Takt deiner 6700XT etwas runterregeln und schauen, wie sich deine Karte dabei verhält. Ist ja nur ein Wert und ziemlich simpel.
Hab es mit meiner RDNA2 6900XT gerade mal in RDR2 maxxed out @ UHD getestet.
Mit einem um ~30% verringertem Takt, also manuell von 2800 auf 2000MHz im Adrenalin reduziert, habe ich eine 50% geringere Leistungsaufnahme, 160 anstatt 320W, verliere aber nur 15% FPS, von 66 auf 56.

Takt_vs_Leistungsaufnahme_vs_FPS_RDNA2_N21.jpg


Die Einflüsse von RDNA 3.5 sind natürlich vollkommen Ungewiss, außer das wir wissen, dass 3.5 besonders auf hohen Takt ausgelegt sein soll, aber ich denke es ist schon insgesamt erkennbar, dass Takt nicht alles ist. Und besonders nicht, wenn man auf effiziente FPS aus ist. Da sind die bis zu 40CU viel viel wertvoller.

Würde mich jedenfalls nicht wundern, wenn man mit den vermuteten Rahmenbedingungen und wir haben ja auch noch den 4nm Node on Top, bei Strix Halo Taktraten zwischen 2300 bis 2600MHz erreichen kann.

Alles vollkommene Kaffeesatzleserei, weil mein eigens angestellter Vergleich natürlich in keiner Weise auf den kleineren Fertigungsprozess, die bedeutend überarbeitete Architektur, oder Einflüsse des Speicherinterfaces übertragbar ist, aber mal so als Standortbestimmung sicherlich interessant.
 
Zuletzt bearbeitet:
Hab es mit meiner RDNA2 6900XT gerade mal in RDR2 maxxed out @ UHD getestet.
Mit einem um 29% verringertem Takt, also manuell von 2800 auf 2000MHz im Adrenalin reduziert, habe ich eine 50% geringere Leistungsaufnahme, 160 anstatt 320W, verliere aber nur 15% FPS, von 66 auf 56.

Anhang anzeigen 1449921

Die Einflüsse von RDNA 3.5 sind natürlich vollkommen Ungewiss, außer das wir wissen, dass 3.5 besonders auf hohen Takt ausgelegt sein soll, aber ich denke es ist schon insgesamt erkennbar, dass Takt nicht alles ist. Und besonders nicht, wenn man auf effiziente FPS aus ist. Da sind die bis zu 40CU viel viel wertvoller.
Takt/Verbrauch/PT ist ja nicht alles, GDDR6 vs. DDR5 usw. Also für kleinere Spiele bis FHD und Hobby videoschnitt aber sicherlich ganz interessant. So ein Notebook würde ich auch nehmen...
 
Ja, so ein Mini-NUKie am Vesa hinterm Monitor für die weniger anspruchsvollen games zum Stromsparen...hätte was. Aber dann müsste der Preis schon niedrig sein.
Für "weniger anspruchsvolle Spiele" gibts es das ja schon, und zwar in Form der Ryzen 6000er und 7000er Mobile-Versionen, mit 680M bzw. 780M Grafikeinheit.

Hier wird aber eine RTX4070 Mobile als Konkurrent erwähnt, und auch wenn ich bzgl. deren genauer Specs gerade 0 Plan habe, sollte die doch für etwas mehr als nur "weniger anspruchsvolle Spiele" taugen. Keine Ahnung, vielleicht Cyberpunk in 1080p mit mittleren Grafik-Einstellungen >60FPS? Oder gar höheren Einstellungen?

Auf alle Fälle sollte die erwähnte iGPU deutlich mehr leisten, als die aktuellen 680M/780M.
Als portablen Hosentaschengaming PC, würde ich ihn eher sehen.
Gut, in die Hosentasche muss er vielleicht nicht gerade passen :-D , aber ja, im Prinzip genau sowas mein ich. Wobei ich "Mini" eben weniger auf die Größe/Mobilität beziehe, als vielmehr auf den Verbrauch im "Idle" (Office, Surfen, Filme usw ist ja quasi Idle). Im Gegenteil, lieber bissl größer als die aktuellen NUCs (auch die Tall-NUCs) und Mini-PCs, dafür dann aber auch mit einer durchdachten, und damit leisen, Kühlung.
Denn genau hier schwächeln aktuell ja gefühlt >90% der Minis. Selbst viele Minis mit CPUs <10W, deren Abwärme auch locker passiv gekühlt werden könnte (Beispiele dafür gibts ja genug, zb. auch den Dell Wyse 5070), haben eine schlechte aktive Kühlung. Und nicht nur das, viele (auch meine) Minis bieten nicht mal die Möglichkeit einer Lüftersteuerung, was die verbaute schlechte Kühlung bzgl. Nervigkeit deutlich entschärfen könnte.

Ich kenne gerade mal einen Mini, dessen Kühlung zumindest vom Konzept her "sinnvoll[er]" scheint, und die (laut YouTube-Video) auch unter Last nicht zu laut ist:

Sded0fc8051db4082baa76ac172d21027W.jpg

Quelle: Klick (falls der Link nicht funktioniert: htt*ps://de.aliexpress.com/item/1005006105463632.html)

Auch der Kühler ist meiner Meinung nach nicht optimal, geht aber schon mal in die richtige Richtung = Löcher im Gehäuse direkt über dem Lüfter, wo dieser die Luft ansaugt. Andere Hersteller verbauen Radiallüfter, haben aber direkt über dem Lüfter das Gehäuse geschlossen, und lassen ihn durch winzige Schlitze an den Seiten ansaugen, und nur nach hinten aus dem Case blasen + nutzen nur relativ wenige Kühlrippen, damit der Radiallüfter (der oft auch noch genau über der APU sitzt, wo Kühlrippen am sinnvollsten wären) sein Plätzchen findet.

Im Prinzip so wie bei einem meiner Minis:
1680523880831.jpg


Genau dort, wo auf dem Bild der Lüfter sitzt, sitzt die CPU. Und wenn du unten den "Klebestreifen" siehst, das sind die (oben offenen, daher der Klebestreifen) Kühlrippen. Und genau das Prinzip benutzen quasi alle Mini-PCs. Auch die besseren Minis wie zb. von Minisforum. >60% der Fläche werden nicht mit Kühlrippen besetzt, sondern vom Lüfter belegt. Und statt Kühlrippen über der CPU, setzt man diese an den Rand, und leitet dann die Wärme mit Heatpipes dorthin.


Hier mal die neuste "Revolution" von Minisforum:
i.shgcdn.jpg


Rot = APU (Hitzequelle), blau = Lüfter, grün = auf die Heatpipes "geklebte" Kühlfinnen (hier wird an 2 Stellen warme Luft aus dem Gehäuse geblasen). Und jetzt vergleich das Konzept mal mit der Kühlung des "No-Name" Herstellers da oben auf dem Bild, mit dem 100mm Lüfter, und wo der Kühlkörper (= Heatspreader) samt Kühlrippen quasi über die komplette Fläche des Mini-PCs geht.

Also schon alleine für eine gute Kühlung sollte der Mini-PC nicht allzu klein sein. Besonders dann nicht, wenn unter Last über 100W Abwärme angepeilt werden. Denn wenn der Gerät unter Last nervt, macht es auch keinen Spaß damit zu zocken. Dann hab ich lieber ein noch mal 3cm höheres Gehäuse, was vom Durchmesser dann auch noch einem 120er (oder 140er) Lüfter Platz bietet, und dafür unter Volllast nicht nervig laut wird.
 
Massive Inflexibilität und das gemeinsame TDP Budget, vorallem aber die Inflexibilität.
Inflexibilität?

Sicher ein negativer Punkt für die individuale Endanwendung, aber für die Hersteller bietet es deutlich mehr Vorteile.

Leider ist Flexibilität nicht unbedingt besser, wenn man dann unsinnige Komponenten zusammen Arbeiten läßt und sich wundert, das es so grottig läuft, oder gewisse Komponenten nicht zueinander kompatibel sind.
(Apple's Strategie läßt Grüßen, als Vorreiter dieses Zeitgeistes)

In den Notebooks ist Inflexibilität schon seit mehr als zehn Jahren ganz alltäglich, auch in jedem spielefähigen Smartphone ist dies Programm,
Das setzt sich immer mehr durch, weil es kostentreibende Individualität unterbindet, wo dann auch das gemeinsame TDP-Budget, logischer Weise, deutlich Grenzen setzt, also Kühlung in angemessenem Aufwand und alltagstauglicher Geräuschkulisse, bei möglichst hoher stetiger (Gaming-)Nutzung, zum Kompromis führen.

Also, sollte man so nach und nach, sich an Inflexibilität gewöhnen, denn das ist der in allen Bereichen eingefahrene Weg, den uns die Hard- und Softwareindustrie aufzwingt und nicht nur dort.
Dies bedingt jedoch auch die Kompaktheit der Produkte, wo man einfach nichts austauschbares mehr in immer kleinere Fassungen einbringen kann!

Für den Endkunden ist das trotzdem lästig, denn dem entzieht man dadurch mehr Geld, als eigentlich nötig, da bestimmte Feature die man als nötig betrachtet, immer in der teureren Version der Produkte zu finden sind, gepaart mit nicht erwünschten.

Für die Handvoll Enthustiasten ist das ein NO-GO in ihren großen mit Wakü-Kühlungen versehenen PC-Gehäusen, aber das Groh der Endanwender hat sich schon viel länger damit arrangiert, eben auch gezwungener Maßen.

Flexibilität befriedigen, kann der Endanwender dann im Zubehörkatalog, wo dann Individualität zugleich gefröhnt und man da auch Unsummen dafür ausgeben kann.:D
Selbst da, ist man vor Inflexibilität nicht gefeit.
 
Sehr spannend. Jetzt kommen wir langsam dahin wo APUs wirklich interessant werden.

Für "weniger anspruchsvolle Spiele" gibts es das ja schon, und zwar in Form der Ryzen 6000er und 7000er Mobile-Versionen, mit 680M bzw. 780M Grafikeinheit.

Hier wird aber eine RTX4070 Mobile als Konkurrent erwähnt, und auch wenn ich bzgl. deren genauer Specs gerade 0 Plan habe, sollte die doch für etwas mehr als nur "weniger anspruchsvolle Spiele" taugen. Keine Ahnung, vielleicht Cyberpunk in 1080p mit mittleren Grafik-Einstellungen >60FPS? Oder gar höheren Einstellungen?

Auf alle Fälle sollte die erwähnte iGPU deutlich mehr leisten, als die aktuellen 680M/780M.
Das denke ich auch. Die mobile RTX 4070 kann man die von der Leistung mit der Desktop RTX 4060 Ti ungefähr vergleichen?
 
Massive Inflexibilität und das gemeinsame TDP Budget, vorallem aber die Inflexibilität.
Was genau meinst du mit "Inflexibilität"? Gemeinsame TDP Budget haben Laptops ja im allgemeinen, deswegen gibt es auch mittlerweile die Shiftfunktionen die das Budget aufteilen. Also ich hab einen Kabylake G und bin damit auch recht zufrieden muss ich sagen. Nervig war/ist lediglich der lausige Treibersupport von Intel.
Das denke ich auch. Die mobile RTX 4070 kann man die von der Leistung mit der Desktop RTX 4060 Ti ungefähr vergleichen?
Die Mobilvarianten sind meist die nächst kleineren Chips und entsprechen nicht deren Desktopäquivalent.
 
Weitere Hintergründe zu Strix Point und Strix Halo sind bereits im April dieses Jahres bekannt geworden,
Scheints, die PCGH Redaktion hat mal wieder heimlich die Zeitmaschine angeworfen.
Finde ich gut, welchen Aufwand ihr hier treibt, um uns immer mit den frischesten Infos versorgen zu können! ;)
 
Also der Trend geht tatsächlich dahin, dass die dezidierte GPU langsam aber sich in Bedrängnis kommt durch diese APU-Entwicklungen. Zwar würden dezidierte GPU's im Notebook aber auch durchaus im Desktop natürlich stets stärker sein, was schon alleine an der Leistungsaufnahme und dem dezidierten VRAM liegt, aber wenn man ehrlich ist, dann brauchen wohl 90% der Leute keine hochgezüchtete GPU sondern wären mit so einer starken APU mehr als zufrieden.
Und dann haben wir das Problem, dass Markt für die dezidierte GPU schrittweise wegfällt.

Für das PC-Gaming hingegen ist das eine gute Entwicklung, weil mehr Leute Hardware haben werden, auf denen aktuelle Games ziemlich flüssig laufen. Und es könnte dem Cloud-Gaming einen Riegel vorschieben, weil man auch keine Cloud benötigt, wenn die Durchschnitts-PC-Hardware vor Ort genug Power hat um Games halbwegs gut darstellen zu können.

Den Strix Point APU könnte man durchaus als Nachfolger der bestehenden PC-Handeheld sehen, weil die TDP halbwegs passt.
Strix Halo könnte dezidierte GPU's in billigen Einsteiger-Notebooks ersetzen, da ist dann die TDP auch kein Problem?
 
Zuletzt bearbeitet:
Klingt interessant, aber wozu 16 Kerne im Notebook?
Mit 55 bis 120 Watt TDP ist das eine Desktoplösung.
Wie der Name "Strix Halo" schon sagt, es ist ein Halo Produkt.
Also wird AMD hier von allem das beste, größte, schnellste verbauen wollen, was sie in ein Package bekommen.

Es gibt ja noch Strix Point mit 12C und Kraken Point mit 8C. Wie viel CUs die GPU aber hier haben wird, ist noch nicht klar. Wird aber vermutlich darunter liegen.
 
6700xt hat die selbe config
Hmm, ich glaube kaum, dass es RDNA 3,5 ist, dazu 7nm Fertigung. Ist schon eine komplett andere Geschichte, mehr IPC und mehr Effizienz alleine aus der Fertigung, dazu per se mehr Effizienz durch die Arch.

Das kann schon hinkommen, gerade wenn man sieht wohin die Reise mit einem normalen Takt gehen kann bei RDNA 3 (3,5 soll ja nur die KI Upgrades haben).


Naja Intel braucht ja nur soviel, weil sie das letzte MHz ausquetschen wollen.
Naja, aktuell ist keine CPU wirklich effizient, selbst wenn man die 3Ds außen verlässt. Auch ein 14600k ist eher schlecht unterwegs und keine CPU mehr wo man das letzte bißchen Takt rausquetscht. Da fehlen schon 700Mhz zum 14900k.
 
6700xt hat die selbe config
Hmm, ich glaube kaum, dass es RDNA 3,5 ist, dazu 7nm Fertigung. Ist schon eine komplett andere Geschichte, mehr IPC und mehr Effizienz alleine aus der Fertigung, dazu per se mehr Effizienz durch die Arch.

Das kann schon hinkommen, gerade wenn man sieht wohin die Reise mit einem normalen Takt gehen kann bei RDNA 3 (3,5 soll ja nur die KI Upgrades haben).


Naja Intel braucht ja nur soviel, weil sie das letzte MHz ausquetschen wollen.
Naja, aktuell ist keine CPU wirklich effizient, selbst wenn man die 3Ds außen verlässt. Auch ein 14600k ist eher schlecht unterwegs und keine CPU mehr wo man das letzte bißchen Takt rausquetscht. Da fehlen schon 700Mhz zum 14900k.
 
Bei Apple ist aber der Arbeitsspeicher Teil des SoC. Könnte mir vorstellen, dass bei so einer großen IGP Bandbreite und oder Zugriffszeiten problematisch werden bei herkömmlichen SDRAM.
Ansonsten bin ich gespannt.

Bei Apple ist der Speicher auch ausserhalb dem SoC aber auf einem gemeinsamen Package (System in a package). Strix Halo wird doch sehr wahrscheinlich verlötetes LPDDR5X verwenden. Das kann man höher Takten als DDR5.

Also dass die PS5 Pro APU echt noch Zen2 nutzen wird, will ich persönlich erst glauben, wenn Sie erschienen ist. Auch wenn aktuell alles darauf hindeutet, dass es so kommt :D
Zen2 wird doch verwendet, dass man retourkompatibel zur PS5 ist. Wenn man plötzlich andere Latenzen bei gleichen Befehlen hat, kann das die Game-Engine schön aus dem Tritt bringen, weil das Timing pro Frame nicht mehr stimmt.
 
Zurück