News AMD Strix Halo: Details zur riesigen Mega-APU durchgesickert

Macht sich später, wenn das EoL erreicht ist bestimmt ein Hingucker in der Vitrine mit schöner Beleuchtung...
 
Technisch finde ich das ganze ziemlich interessant.
Ich frage mich ob AMD nicht iwi noch etwas runter gehen kann mit der tdp. Das Ding wäre ein Traum für jeden mobile Gamer. Sowas ins nächste asus rog ally wäre schon was.

Es soll ja mindestens drei Konfigurationen mit einer TDP von 55, 85 und 120 Watt geben, während die konfigurierbare cTDP voraussichtlich zwischen 45 und 175 Watt liegen dürfte.

16x Zen 5
12x Zen 5
8x Zen 5

2.560 Shader-Einheiten
2.048 Shader-Einheiten
1.536 Shader-Einheiten

Ich schiele da bereits auf die kleinste der drei Varianten mit 8 Zen 5 Kernen und
1.536 Shader, die dürfte leistungsmäßig bereits mit etwas höherer konfigurierbaren TDP in etwa auf dem Level meiner RX6600 liegen, bzw. bei der Standard TDP etwas darunter.

Aber die APUs haben mir es angetan, meine 680M reicht schon für das einte oder andere Gelegenheitsspiel, aber die kleinste Strix Halo wäre für meine Zwecke einfach perfekt.

Bzw. habe gerade gemerkt das es die darum geht Strix Hallo auf 35W oder weniger zu drücken, damit
er im nächsten Rog Ally verbaut werden könnte.
Ich glaube dazu wird es nicht kommen, da musst du wohl schon mit den ca. +20% vorlieb nehmen der dir
Strix point bieten kann, oder besser auf den Nachfolger der dann in einer kleineren Strukturgröße gefertigt wird und dann wirklich einen signifikanten Unterschied bringen wird,
 
Zuletzt bearbeitet:
Wie mittlerweile aus mehreren voneinander unabhängigen Quellen hervorgeht, wird AMD für "Strix Halo" das neue FP11-Package ("BGA-2077") nutzen, welches von seinen Ausmaßen, der sogenannten "Package", mit 37,5 × 45 mm alle bisher bekannten APUs in den Schatten stellt.
Auf dem klassischen x86 Markt. Die M1/2/3 Max chips von Apple sind durchaus vergleichbar, wenn nicht bis dahin sogar größer. Der aktuelle M3 Max hat ja schon 90 Mrd (!) Transistoren. Ich denke mal das wird auch die Konkurrenz sein, an der sich Strix Halo messen lassen muss.
Ich frage mich einfach jedes mal wenn ich etwas von den APU´s von AMD lese, warum sich nicht Nvidia auf den Markt traut. Ich denke mal das sie mit den Tegra Prozessoren ein Basis Wissen haben und dieses halt mal modernisiert auf den Markt bringen könnten.
Sie könnten sicher, aber warum? nVidia fährt ja jetzt schon die Fertigung für Consumerprodukte zugunsten von Profihardware zurück, warum also auf einen Markt gehen, in dem die Margen nochmal deutlich niedriger ausfallen werden? Ich würde auch lieber palettenweise GPUs für 10k€ das Stück an Microsoft verkaufen...
Als APU bezweifele ich immer noch den Markt. 120W sind 120W und die sind gerade im Laptop sogar einfacher zu handeln, wenn sie an 2 Stellen anfallen und dezidierter VRAM ist auch bei 256bit DDR5 eben immer noch dezidierter VRAM. Ja, das werden sehr coole High-End Convertibles werden, aber der Markt dafür ist imho überschaubar.
Das mit der Wärme würde ich so nicht unterschreiben, denn die 2 Stellen bringen dir nur was, wenn du dadurch Fläche gewinnst. Da du aber hier ohnehin schon ein riesiges Package hast, glaube ich nicht dass das zum Bottleneck wird. Daher wird es das Thermal design eher vereinfachen, weil du nur an eine Stelle Heatpipes legen musst.
 
Ich erhoffe mir ja so ein bisschen die eierlegende Wollmilchsau.

Halbwegs ordentliche GPU-Performance bei Bedarf im Netzbetrieb z.B. fürs Zocken und das alles in einem dezenten Notebook ohne dedizierte Grafik oder "Gaminglook" und dazu ordentlichem Akku, welches man auch so für normale Arbeit gut verwenden und transportieren kann. Hier kann man dann imho auch mal sinnvoll Upscaling einsetzen um wahlweise die FPS oder die Effizienz hochzudrücken.

Wird natürlich schwer mit den TDPs aber mal sehen, bis '25 dauerts ja noch ein bissl :ka:
 
Nö, es steht keine Leistungsexplosion an, die Leute werden nich scharenweise ne 5000er Karte kaufen und mit ner 4060 mit 8gb wird man noch lange hinkommen bzw. werden noch lange weit verbreitet bleiben. Jetzt kommts nur draf an wie sich Strix Halo Produkte preislich schlagen. Wenn die nich zu teuer sind werden sich Notebooks und Mini Pc's reger Beliebtheit erfreuen.
Wenn AMD sich treu bleibt und alles so macht wie immer mit ihren APU's, dann gibt es die 40CU's nur in Kombi mit den 16 Zen5 Kernen (also als Topmodell). Kann ich dir jetzt schon sagen, dass wird aufs Gaming bezogen preislich unattraktiv, denn wer kauft sich zu seiner Desktop 4060 den neuen Ryzen 9950X? Hier wäre eigentlich nur die Variante mit 8 Kernen interessant, ergo wahrscheinlich mit nur 24CU's, was dann auch wieder gerade mal ein plus von 50% gegenüber dem kürzlich erschienenen Strixpoint wäre. Je nach TDP schlägt die kleinste StrixHalo dann nicht mal die Laptop 4050, zumal RDNA3.5 jetzt noch nicht wirklich überzeugen konnte in den Test mMn.

Ich erhoffe mir ja so ein bisschen die eierlegende Wollmilchsau.

Halbwegs ordentliche GPU-Performance bei Bedarf im Netzbetrieb z.B. fürs Zocken und das alles in einem dezenten Notebook ohne dedizierte Grafik oder "Gaminglook" und dazu ordentlichem Akku, welches man auch so für normale Arbeit gut verwenden und transportieren kann. Hier kann man dann imho auch mal sinnvoll Upscaling einsetzen um wahlweise die FPS oder die Effizienz hochzudrücken.

Wird natürlich schwer mit den TDPs aber mal sehen, bis '25 dauerts ja noch ein bissl :ka:
Ich sehe jetzt nicht, inwiefern es da eine APU sein muss? All das kannst du ja auch jetzt schon mit der 4070M haben, da gibt es auch (wenige) schlichte Designs. Upscaling gibts da ja auch, mit DLSS jetzt auch kein schlechtes und merklich effizienter wird StrixHalo auf der GPU Seite auch nicht sein, wenn überhaupt. Einzig mit den 8GB Vram der 4070M muss man leben können....
Ordentlich GPU-Perf. geht halt nur mit entsprechender TDP, da ändert der Fakt, dass die 40CU's als APU auf dem gleichen Package wie die CPU sitzen ja nichts dran. 120W bzw. bis zu 175W cTDP hat jedenfalls nichts mit klein und dezent oder mit guter Akkuleistung zu tun.
An den TDP's ändert sich auch nichts mehr, dafür sind die schon viel zu lange in der Gerüchteküche bekannt, bzw. gibt es die gesamte Hardware ja schon in Form von StrixPoint, nur eben nicht in der Größe.


Nur weil das ganze als APU aufgebaut ist, wird ja nicht direkt die Technik revolutioniert. Eigentlich ändert sich (bis auf Zen5) kaum was zu den bisherigen Systemen, die Kühllösung kann ggf. etwas weniger kompliziert aufgebaut sein, merklich günstiger wird dadurch aber kein Notebook werden.
Eine wirkliche Zielgruppe will mir immer noch nicht so recht einfallen, der TopChip ist mit 16 Zen5 Kernen einfach extrem, dass will bezahlt werden und entsprechend wird der sich niemals in gleichen Preisregionen wie ne 4070M (ab 1200-1400€) bewegen. Klar ist die CPU bei der 4070 dann merklich schwächer, das interessiert beim Gaming nur eher weniger.
Für meine Auffassung ergibt StrixHalo nur Sinn, wenn man die potentielle CPU-Power produktiv nutzen kann (wo ich schlecht einschätzen kann, wie viele Nutzer wirklich so einen Bedarf haben) oder wenn man die kleinste Variante nimmt. 24Cu's klingen dann gleich wieder deutlich weniger beeindruckend, das ist weniger als die 28CU's der 7600M.
Die größte Neuerung mit StrixHalo dürfte sein, dass endlich mal ein paar Anbieter RDNA als alleinige Grafiklösung verbauen. Die dedizierten Notebook Karten von AMD existieren bisher ja quasi nur auf dem Papier, wirklich Systeme findet man damit nicht.
 
Ich frage mich einfach jedes mal wenn ich etwas von den APU´s von AMD lese, warum sich nicht Nvidia auf den Markt traut. Ich denke mal das sie mit den Tegra Prozessoren ein Basis Wissen haben und dieses halt mal modernisiert auf den Markt bringen könnten.

Aktuell haben wir ja nur AMD und Intel die in dem Bezug Fortschritte machen. Qualcomm nehme ich mal raus da man da doch nicht weiß wie das mit den Treibern weiter geht und man da Verbesserungen sieht.
NVidia + Mediatek ist doch in einer News als Gegenspieler von Snapdragon für Windows on ARM angedeutet worden?
Jedenfalls fehlt NVidia das Sachverständnis für eine eigene CPU, sie haben keine Lizenz für x86/x64 und auf ARM beschränkt, und die sind nicht so blöd das trotzdem ganz alleine gegen die Platzhirsche zu versuchen.
Wer würde sich im Umkehrschluss jetzt noch ohne langfristige finanzielle Hilfen und Stützen gegen NVidia im GPU-Sektor stellen wollen? Außer in China, wo andere Interessen das ermöglichen?
Bestenfalls wäre man nach Jahren da, wo Intel jetzt mit ARC herumgurkt, vorher ne ganze Weile zu wie die Chinaware, die es bereits gibt, aber dann von den Werten bis auf annehmbare Ausnahmen kaum was in Realleistung umzusetzen vermag.
Zudem geht NVidia doch ganz weg von Gaming.
Warum also auch nur einen Cent Forschung und Entwicklung und vor allem kostbare Rohstoffe in diese Sachen stecken, wenn man bereits Stroh zu Gold spinnen kann udn das dicke Geld andersweitig gemacht wird udn nicht mal die Bestellungen schnell genug abgearbeitet werden können?
Nicht umsonst zieht man sogar schon frühzeitig Ressourcen aus dem Grafikkartenmarkt ab, um das rentabler einzuplanen.
Ein prinzipiell spannendes Produkt, aber wenn das dann nächstes Jahr mal rauskommt, was ist der Markt dafür? Oder soll das in PS5/Xbox Pro?
Der Chip ist die Lösung für all jene, die sich schon lange ein ähnliches Produkt wie bei Apple wünschen.
Also ein Chip, wo alles drauf ist.
Aks gesamtpaket ist das auch stromsparender, effizienter und schnelelr als die Addition der Einzelkomponenten.
Kürzere Wege, Latenzen, kompakter etc..
Nachteil ist, man kauft nur einmal für Leben.
Also nichts für Bastler und Aufrüster.
Das Ding ist für Gamer wesentlich interessanter als alle anderen erhältlichen Produkte dieser Art.
 
Zuletzt bearbeitet:
Hier wäre eigentlich nur die Variante mit 8 Kernen interessant, ergo wahrscheinlich mit nur 24CU's, was dann auch wieder gerade mal ein plus von 50% gegenüber dem kürzlich erschienenen Strixpoint wäre. Je nach TDP schlägt die kleinste StrixHalo dann nicht mal die Laptop 4050, zumal RDNA3.5 jetzt noch nicht wirklich überzeugen konnte in den Test mMn.
Wie du schon sagtest hängt es wohl ganz alleine von der ihr zur Verfügung gestellten TDP ab.
Bei der Standard TDP von 55W dürften sogar deine 50% noch relativ optimistisch bemessen sein.
Und falls man sich am Ende, mit der kleinstem StrixHalo nur in etwa auf dem Niveau einer 4050m bewegen
sollte. (leicht darunter oder darüber) so ist dies meiner Meinung nach keine schlechte Leistung. Da die 4050m auf dem gleichen, bei TSMC in 5nm produzierten AD107 Chip basiert, der bereits für die 4060m verwendet wurde, sehr effizient ist und einen extrem hohen Boost Takt von 1755 MHz bei max. 50W. bzw. 2370 MHz bei 115W hat.

Man muss bei dieser geringen TDP von ca. 30 - 50W auch einfach daran denken, dass sich die CPU und die GPU das ihnen zur Verfügung stehende power budget teilen müssen, weshalb auch Strix point mit ihren nominell 33% mehr Shader (768 vs. 1024) dies nicht entsprechend in Leistung umsetzten konnte.
Da ist noch viel Potenzial für eine weitere Verbesserung, bei einer entsprechend höheren TDP vorhanden.
Auch ist bei StrixPoint die ihr zur Verfügung gestellte Speicherbandbreite, eher Bescheiden und könnte in dem einen oder anderen Fall sicherlich limitieren.
All diese Probleme hat StrixHalo nicht, da ist reichlich davon vorhanden.
Und um so höher man mit der TDP geht, um so kleiner wird auch dieser Einfluss des geteilten power budget im Verhältnis.

Strix Point:
128-Bit LPDDR5X
7.500 MT/s
120 GB/s
15 - 53 Watt

Strix Halo:
256-Bit LPDDR5X
8.000 - 8.533 MT/s
256 - 273.1 GB/s
45 - 175W
MALL-Cache 32MB
Bezüglich der Erwartungen an den Mall-Cache:
1722583316848.png

Wie gesagt dürfte die kleinste StrixHalo, wenn man ihr 80, oder gar 100W zur Verfügung stellt, sich am Ende
wohl in etwa auf dem Niveau einer ebenfalls mit 100W konfigurierten RX6600m einpendeln, bzw. dürfte nicht weit hinter einer Desktop RX6600 zurück liegen.

Und was Nvidia betrifft, kocht dieses auch nur mit Wasser.
Zwischen einer 3070m und einer 4070m liegen bei gleicher TDP vielleicht gerade einmal 20%, trotz des gigantischen Fertigungsprung von Samsungs 10 nm++ aka 8 nm auf TSMC 5 nm.

Ich gehe daher mal davon aus, dass Nvidia bei der 5070m vs. 4070m auch nicht mehr zulegen kann.
Lasse mich aber gerne positiv überraschen und eines besseren belehren.
Wie gesagt hat Nvidia mit der 4050m - 4070m wirklich sehr gute und sehr effiziente GPUs auf den Markt gebracht und AMD lag mit RDNA3 zugleich doch eher etwas hinter den Erwartungen zurück.
Ich glaube das AMD mit RDNA 4, oder spätestens mit RDNA 5 wieder kontern kann.
Unabhängig davon ob der einte, oder andere am Ende ein paar Prozentpunkte vorne liegt, stellen für mich die 8GB VRAM ein Totschlagargument dar.
Sollte die 5060 -5070 abermals mit nur 8 GB kommen dann würde ich diese nicht kaufen wollen.
Bereits jetzt sind 8 GB extrem grenzwertig, bzw. bereits darüber hinaus.
 
Zuletzt bearbeitet:
Auf dem klassischen x86 Markt. Die M1/2/3 Max chips von Apple sind durchaus vergleichbar, wenn nicht bis dahin sogar größer. Der aktuelle M3 Max hat ja schon 90 Mrd (!) Transistoren. Ich denke mal das wird auch die Konkurrenz sein, an der sich Strix Halo messen lassen muss.

Sie könnten sicher, aber warum? nVidia fährt ja jetzt schon die Fertigung für Consumerprodukte zugunsten von Profihardware zurück, warum also auf einen Markt gehen, in dem die Margen nochmal deutlich niedriger ausfallen werden? Ich würde auch lieber palettenweise GPUs für 10k€ das Stück an Microsoft verkaufen...

Das mit der Wärme würde ich so nicht unterschreiben, denn die 2 Stellen bringen dir nur was, wenn du dadurch Fläche gewinnst. Da du aber hier ohnehin schon ein riesiges Package hast, glaube ich nicht dass das zum Bottleneck wird. Daher wird es das Thermal design eher vereinfachen, weil du nur an eine Stelle Heatpipes legen musst.

Es ist technisch überhaupt kein Problem, eine Heatpipe über mehrere Orte zu führen. Das macht man in Notebooks ohnehin zwangsweise, weil unmittelbar neben den Chips noch PCB im Weg ist. Einziger Vorteil von Strix Halo und Lösungen mit CPU und GPU auf getrennten Packages ist also eine größere statt zweiter kleinerer Kontaktbereiche. Da man oft einfach mit flachen Heatpipes arbeitet, die direkt auf die Chips gepresst werden, spart das nicht einmal eine Bodenplatte ein. Umgekehrt ist es ohne Bodenplatte auch schwierig, mehr als zwei Heatpipes auf eine konzentrierte Wärmequelle zu führen – bei ultra kompakter Bauweise zählt jeder Millimeter in der Höhe. Bei der Wärmeaufnahme ist Strix Halo also die größere Herausforderung, insgesamt wird er aber weniger Fläche einnehmen und somit mehr Platz für die Wärmeabgabe bei gleicher Geräte- und Akkugröße lassen.

Damit das alles eine Rolle spielt, muss man aber überhaupt erst einmal der Grundverbrauch des Chiplet-Designs in den Griff bekommen. Hohe ein- oder gar zweistellige Werte kann man sich in einem Ultra-Slim einfach nicht erlauben, vollkommen egal wie viel Peak-Leistung man am anderen Ende des Leistungsspektrum bietet, weil sonst die Akkulaufzeit zu niedrig wird. Wenn AMD da nicht deutlich vorlegt, wäre Strix Halo eigentlich nur für große Desktop-Replacements interessant – und denen haben die Platinen wiederum so wenig Anteil am Gesamtvolumen, dass die kompakte Bauweise kein echter Mehrwert mehr ist.
 
Der Chip ist die Lösung für all jene, die sich schon lange ein ähnliches Produkt wie bei Apple wünschen.
Also ein Chip, wo alles drauf ist.
Aks gesamtpaket ist das auch stromsparender, effizienter und schnelelr als die Addition der Einzelkomponenten.
Kürzere Wege, Latenzen, kompakter etc..
das stimmt alles, und dafür war ich auch sehr gespannt für meinen HTPC früher, also als die ersten APUs aufkamen von AMD und Intel.
Aber inzwischen stellt sich hier Ernüchterung ein. Und vor allem wird Halo einfach auch teuer.
Das wird OEMs natürlich gefallen, bzw. sowas wie die NUCs von Intel vielleicht, HTPCs, stärkere Laptops...

Apple wird man damit nicht angreifen können. Die sind bei N3P und deutlich voraus, da hätte Halo schon letztes Jahr kommen müssen um überhaupt sich mal daneben stellen zu können. Realistisch betrachtet hält Apple da höchstens schon einen M4 dagegen, der ja aktuell nur im iPad Pro drin ist.
Nachteil ist, man kauft nur einmal für Leben.
Also nichts für Bastler und Aufrüster.
ja es sind fertige Lösungen von der Stange.
OEMs könnten sich freuen weil man nicht RAM und GPU extra verbauen muss.
Also so Mini-PC Würfel, "Gamer" Laptops (bei dem Verbrauch...).
Allerdings muss man sich auch mal klar werden, dass das Ding GPU Technisch nicht schnell wird, weil an der RAM Geschwindigkeit wird man nichts ändern können

Edit: nochmal nachgerechnet, sorry: RAM Bandbreite ist in Ordnung :)
wieso sinvoller ? gerade die mit den kleinen Gpus alles unterhalb der 4070m ist entweder Speicher Kastriert 2/4/6/8GB mehr ist nicht die beschränkung hat die APU nicht kann sich bis 50% vom vorhandenen Speicher abzwacken wenn benötigt,
schon, aber soweit ich das von Halo gesehen habe - korrigier mich - ist die Speicherbandbreite für CPUs super, für iGPUs auch überragend, aber im Vergleich zu dedizierten GPUs eher schwach.
So haben wir wieder das Problem, dass selbst kleinere GPUs deutlich schneller sind.
und wenn es Nvidia sein muss müssen die eben den Aufpreis zahlen haben dafür aber sicherlich noch einen der schnellsten Gaming CPUs
es gibt sicherlich auch WS anwendungen bei denen AMD nicht von Nachteil ist und mit 128GB an 256Bit LPDDR mehr vorteil haben wie mit einer Nvidia GPU
technisch gesehen wird das schon da wie dort so sein, aber Nvidia hat im WS Segment ja nicht wegen technischer Überlegenheit oder dem Preis, sondern der Software 90% Marktanteil. Das ist aber seit 20 Jahren so.


na dann müsste Luna Lake ebenso ineffizient sein ist auch geklebt, also nur Deine Vermutung
1) anderes Verfahren (EMIB/FOVEROS)
2) andere Zielsetzung: Lunar Lake ist ja ein Chip mit BIS 30W, da geht es bei Halo erst los. Bei AMD kannst du dir das ja selbst anschauen, wie gut die Monolithen eigentlich sind wenn man Idle ansieht, das ist ja genau der Grund warum man im Mobilsegment eher noch auf Monolithen setzt.
auch das nur eine Vermutung, die APU dürfte nahe an die Leistung eines M3PRO Max kommen, bietet mehr Ram und kostet keinen Apple Zuschlag, zumal eben auch viele noch windoof Nutzen
natürlich wird Apple wesentlich teurer.
Der M4 hat aber nunmal einen besseren Prozess und ist auch eher für den mobilen Einsatz optimiert. Das kann natürlich sein, dass man für die Mac Pros einen M4 Ultra auflegt, damit man auch auf die 125W kommt... aber die Effizienz bis dahin wird deutlich besser sein. Wie gesagt die "Business"- Kunden würden wohl eher zum Apple-Gerät greifen- Aber wie DU sagst - eine Vermutung bzw. Beobachtung in der Vergangenheit von der ich auf die Zukunft schließe.
Es gab immer wieder coole Produkte, die ich spannend fand, aber die dann quasi 0 Abnehmer fanden, auch Intels Zusammenarbeit mit AMD (Intel CPU + Vega GPU + HBM)
wenn es die für den Deskop überhaubt geben sollte dann nur verlötet da ein BGA sockel, vielleicht mit LPCAM2 aber günstig wird das sicher nicht kaufen nur ein paar Leute kein Markt
Ja, deshalb wundere ich mich, was genau der Markt ist für einen Chip mit dieser Größe, diesem Verbrauch, wahrscheinlich erhöhtem Verbrauch bei Niedriglast (was für Mobil nunmal nicht ganz optimal ist, aber Desktop-Replacement-Laptops ginge es schon)
Ich vermute mal die APU ist primär für KI Nutzung gedacht. Das wäre dann schon ein ziemlich mächtiger Chip.
hat das Ding überhaupt eine NPU?
Als APU bezweifele ich immer noch den Markt. 120W sind 120W und die sind gerade im Laptop sogar einfacher zu handeln, wenn sie an 2 Stellen anfallen und dezidierter VRAM ist auch bei 256bit DDR5 eben immer noch dezidierter VRAM. Ja, das werden sehr coole High-End Convertibles werden, aber der Markt dafür ist imho überschaubar.
das meine ich: ich sehe eine Nische, aber keinen wirklich großen Markt, außer man bestückt Konsolen damit, dann wär DDR aber die falsche Wahl.
Edit: ich hab die tatsächlich anliegende Bandbreite falsch eingeschätzt. Ging von knapp 200 GB/s aus im Vergleich von 800 bei diskreten GPUs
 
Zuletzt bearbeitet:
Wie gesagt, alleine das man voraussichtlich der GPU, bis zu 64 GB an VRAM zuweisen kann
ist bereits ein fast unbezahlbares, Alleinstellungsmerkmal mit dem Nvidia, Intel und sogar AMD selbst mit ihren separat verbauten GPUs nicht mithalten können.

Auch was die Komplexität und der im Gehäuse beanspruchte Platz anbelangt sind zwei entscheidende
Faktoren die in die Kalkulation miteinbezogen werden müssen.

Den ganzen Bereich in der Mitte, inklusiver der Speicherbausteine und des Kühlers auf der linken Seite kann man sich jetzt einmal wegdenken und danach einen reboot machen und dann nochmals sagen
StrixHalo hätte fast keine Vorteile.

1722593466524.png


Das Argument mit dem Chiplet Design und des erhöhten Idle und niedrig Last Verbrauchs sehe
ich zwar, aber zum einten ist ja nicht gesagt, dass dieser nicht auch verbessert wurde und zum anderen ist
dieser Chip auch nicht für ultra mobile Laptops gedacht, für das gibt es Strixpoint als Monolithen.
Er ist eher gedacht als ein mobiles Ding dazwischen und als Desktop-Ersatz.

Und die kleine Variante mit nur 8 CPU Kernen wird sicherlich wenn es um den mobilen Einsatz geht deutlich
weniger verbrauchen als der 16 Kerner in der max. Variante. Macht ach mehr Sinn.
 
Zuletzt bearbeitet:
sagt man nicht.
Indem man eigene NPUs bringt gibt man ja zu, dass es spezielle Prozessoren braucht
Wie gesagt, alleine das man voraussichtlich der GPU, bis zu 64 GB an VRAM zuweisen kann
ist bereits ein fast unbezahlbares, Alleinstellungsmerkmal mit dem Nvidia, Intel und sogar AMD selbst mit ihren separat verbauten GPUs nicht mithalten können.
Ich bin mir der technischen Daten ja durchaus bewusst, ich finde Halo wirklich spannend. Ich würde nur gerne sehen wie es am Markt tatsächlich einschlägt. Und zwar jetzt nicht so übermotiviert drauflosposaunen "das wird superdoll angenommen werden" sondern ich wäre mal Vorsichtig. Hab das damals bei Kaby Lake G schon gesagt, wo alle es gefeiert haben als den Ultimativen Erfolg für AMD. Lieber vorsichtig realistisch als überoptimistisch.
 
Zuletzt bearbeitet:
Ach ja, auf einer anderen Folie ist auch noch von einer Speicherbandbreite
von equal to 500 GB/s (wohl inkl. der 32MB Mall Cache) die Rede.
Das wäre über den Daumen gepeilt in etwa die doppelte Speicherbandbreite wie bei der
4060m / 4070m also ein weiteres Alleinstellungsmerkmal.
Auch die direkt nebeneinander angeordneten 3 Chips sehen sehr interessant aus.
Ist dies vielleicht bereits ein Wink mit dem Zaunpfahl, dass dank kurzer Signalwege und einem verbesserten TSMC N4P Prozess der Idle und Niedriglast Verbrauch signifikant sinken wird.
Wir werden sehen, ich glaube um so mehr ich sehe das StrixHalo voll einschlägt und danach nichts mehr wie bevor sein wird.

1722596669406.png
 
Zuletzt bearbeitet:
Bin auch mal gespannt auf den Brocken. Generell finde ich den Grundgedanken einer ordentlichen APU ja toll und habe selber einen Mini-Laptop mit einer AMD 6800U APU (also mit 680m als iGPU).

Freut mich immer, wenn AMD beim Prozessordesign innovative Lösungen entwickelt!
Wenn das ganze Teil in Summe dann aber genauso groß und hungrig wird, wie eine getrennte Lösung aus Mibile-CPU und dedizierter GPU, stellt sich auch mir die Frage nach dem Sinn.

In einem Mini-PC/NUC könnte ich mir eine Halo schon gut vorstellen...
 
Ach ja, auf einer anderen Folie ist auch noch von einer Speicherbandbreite
von equal to 500 GB/s (wohl inkl. der 32MB Mall Cache) die Rede.
Equal to irgendwas ist erst dann interessant wenn es getestet so erwiesen ist, nicht weil es auf einer (nicht offiziellen) Folie steht.
Auch hier sollten wir spätestens seit Furys "Equal to 8GB" 4GB HBM Sache gelernt haben (falls sich an das die Leute noch erinnern, ist immerhin schon bald 10 Jahre her)
 
Wie gesagt, alleine das man voraussichtlich der GPU, bis zu 64 GB an VRAM zuweisen kann
ist bereits ein fast unbezahlbares, Alleinstellungsmerkmal mit dem Nvidia, Intel und sogar AMD selbst mit ihren separat verbauten GPUs nicht mithalten können.

Auch was die Komplexität und der im Gehäuse beanspruchte Platz anbelangt sind zwei entscheidende
Faktoren die in die Kalkulation miteinbezogen werden müssen.

Den ganzen Bereich in der Mitte, inklusiver der Speicherbausteine und des Kühlers auf der linken Seite kann man sich jetzt einmal wegdenken und danach einen reboot machen und dann nochmals sagen
StrixHalo hätte fast keine Vorteile.

Wenn ich mir die halbe Kühlung und den VRAM wegdenke, dann sitzt da ein auf 30 W thermal-throttelnder Prozessor mit schnarchlahmen 64 Bit Speicher-Anbindung. (Interessantes Rendering von Nvidia, alle anderen hätten wenigstens einen zweite SO-DIMM eingeplant.)

Passender wäre es, sich die CPU rechts daneben und das einsame Speichermodul rechts davor wegzudenken, aber nicht die Spannungswandler dahinter oder den Kühler rechts daneben. Damit werden, gemessen am Gesamtpaket, vielleicht 20 Prozent der Fläche eingespart. In den frei gewordenen Platz kann man dann ein Preisschild von Apple stellen, gerade wenn man großen Speicher haben möchte. Denn wenn ohne Platz für 2× CAMM (was gegenüber dem Rendering quasi gar keine Platzersparnis übrig lassen würde), muss man den RAM fertig verlötet kaufen und da langen Dell, HP & Co gerne genauso zu wie die mit dem Patent auf runde Ecken.

Ach ja, auf einer anderen Folie ist auch noch von einer Speicherbandbreite
von equal to 500 GB/s (wohl inkl. der 32MB Mall Cache) die Rede.
Das wäre über den Daumen gepeilt in etwa die doppelte Speicherbandbreite wie bei der
4060m / 4070m also ein weiteres Alleinstellungsmerkmal.

Vollmundige Herstellerversprecher sind kein Alleingstellungsmerkmal von AMD, das kann Nvidia genauso. Im Falle von Ada sprechen die von einer effektiven Verdoppelung der Speichertransferrate durch den Cache, was 512 GB/s bedeuten würde – ohne davon etwas an die CPU abgeben zu müssen, die in einem herkömmlichen Setup ihre eigenen 100-150 GB/s hat. Technisch ist es aber natürlich sehr fragwürdig, Cache auf die Speichertransferrate anzurechnen. Gerade im von dir angesprochenen Szenario mit einem dutzende Gigabyte großen Datensatz läuft jeder Cache über und wird so wirkungslos. Das dürfte beim gewählten Beispiel 4070m versus Strix Halo aber zum gleichen Zeitpunkt passieren, schließlich haben beide 32 MiB Cache für die Grafikeinheit. Danach steht es 256 Bit @8,5 GT/s (Strix Halo) versus 128 Bit @16 GT/s (Nvidia) plus 128 Bit @8,5 GT/s (Oberklasse AMD- oder Intel-CPU).

Es bleibt abzuwarten, was genau die Shader leisten, aber von der VRAM-Seite her wird Strix Halo in Spielen eher benachteiligt sein. Es handelt sich halt um das Interface einer Mittelklasse-GPU benachteiligt durch die Kompromisse, die für die Kapazitätsanforderungen einer CPU nötig sind und zusätzlich belastet durch selbige. Die Problemgrößen, in denen anderen Laptop-GPUs inkl. Nvidias Profi-Angeboten schlicht die Speicherkapazität ausgehen, würde in der Qualität heutiger AAA-Spiele weit jenseits dessen liegen, was selbst mit den kühnsten Erwartungen an die Shader-Leistung von Strix Halo zu bewältigen wäre. Nur im CAD-Bereich könnte AMD da vielleicht punkten, aber werden so extreme Modelle auf ultra mobilen Workstations bearbeitet?

Sehr viel spannender ist die Gegenrichtung:
256 Bit @8,5 GT/s für die CPU. Das ist Xeon-W-3400-Niveau, nur mit einer modernen Fertigung, und ganz dicht dran an Threadripper Pro 7000. Aber im Laptop!
Blöd halt für Gamer, dass bei so heftiger CPU-Nutzung des Interfaces keine Renderleistung mehr übrig bleibt.
 
Bin auch mal gespannt auf den Brocken. Generell finde ich den Grundgedanken einer ordentlichen APU ja toll und habe selber einen Mini-Laptop mit einer AMD 6800U APU (also mit 680m als iGPU).

Freut mich immer, wenn AMD beim Prozessordesign innovative Lösungen entwickelt!
Wenn das ganze Teil in Summe dann aber genauso groß und hungrig wird, wie eine getrennte Lösung aus Mibile-CPU und dedizierter GPU, stellt sich auch mir die Frage nach dem Sinn.

In einem Mini-PC/NUC könnte ich mir eine Halo schon gut vorstellen...
So wie Rollora zuvor schon gesagt hat, sollte man denke ich etwas
vorsichtig und realistisch an die Sache heran gehen und die eigenen Erwartungen
etwas herunterschrauben.
Ich war da zuvor vielleicht etwas überoptimistisch.

Es handelt sich dabei um den ersten Versuch in einen von Nvidia kontrollierten Markt vorzudringen bzw. Fuss
zu fassen. Es wird nicht einfach werden und schon gar nicht über Nacht, aber wie heißt es doch so schön: Steter Tropfen höhlt den Stein, dass musste gerade auch Intel schmerzhaft feststellen.

Wie gesagt muss man realistisch bleiben und anerkennen das Nvidia mit der 4000er Serie äußerst stark vorgelegt hat.
Dies dürfte AMD zwar mit StrixHalo wohl egalisieren können,
aber einen großen Vorteil trotz APU Konzept erwarte ich mir erstmal davon nicht.
Und wenn es so kommt, wie ich mir das anhand der vorliegenden Spezifikationen erwarte, dass
der kleinste Halo mit der 4050m, der mittlere mit der 4060m und der big Dog mit der 4070m
bei einem ähnlichen Preisbereich (800 - 1500€?) konkuriert, dann sehe ich durchaus durchschlagende
Gründe wieso man sich für StrixHalo entscheiden soll. Auch dann wenn mal angenommen die Performance, Leistungsaufnahme, Geräuschentwicklung etc. identisch sein sollte.

Das wäre an erster Stelle nämlich der VRAM die 4050m hat gerade mal 6GB und die beiden weiteren Varianten je 8GB.
Bei Strix Halo hingegen wird man wohl bei den 2 höheren Modellen eh gleich das Modell mit 64 GB wählen und der GPU dann 16 / 24 oder gar 32 GB davon zuweisen.
Beim kleinsten Modell wird der Einstieg wohl bei 32 GB erfolgen, aber auch von diesen kann man locker 12 - 16 GB der GPU zuweisen.
Dies sind einfach Welten wer will da noch mit 6GB spielen.
 
Zuletzt bearbeitet:
Das dürfte beim gewählten Beispiel 4070m versus Strix Halo aber zum gleichen Zeitpunkt passieren, schließlich haben beide 32 MiB Cache für die Grafikeinheit. Danach steht es 256 Bit @8,5 GT/s (Strix Halo) versus 128 Bit @16 GT/s (Nvidia) plus 128 Bit @8,5 GT/s (Oberklasse AMD- oder Intel-CPU).
OK für die 4060m und 4070m mag das gelten.
Aber für die 4050m wiederum nicht, die hat nämlich nur 12 MB Cache
Danach steht es für den kleinsten der StrixHalos: 256 Bit @8,5 GT/s 273 GB/s versus 96 Bit @16 GT/s (Nvidia) bzw. 192.0 GB/s.
Da wird die 4050m mit ihren kümmerlichen 6GB so zusagen obsolet machen.
Das wird Nvidia schmerzen, wenn ihre Brot und Butter GPU von einem überlegenen Produkt
so dermaßen deklassiert wird.
 
Zurück