Irgendwo stehen sich die ganzen Kerne dann nur noch im weg rum. Konnte man schon beim ROG Ally mit Z1 Extreme sehen wenn man das auf <15W begrenzt hat, hat z.T. das Deck bei selben Verbrauch überholt.Wäre es bei der APU nicht möglich sie in einem Handheld gedrosselt laufen zu lassen und dann gedockt, mit eventuell zusätzlicher Kühlung, offen?
Irgendwo stehen sich die ganzen Kerne dann nur noch im weg rum. Konnte man schon beim ROG Ally mit Z1 Extreme sehen wenn man das auf <15W begrenzt hat, hat z.T. das Deck bei selben Verbrauch überholt.
Ein Strix Point kann ich mir in der angedachten Konfiguration noch vorstellen, aber Halo ist dann doch zuu breit angelegt für den Handheld- Formfaktor.
Es wäre meiner Meinung nach schon möglich, z.B. nur 4 Kerne der CPU im Handheld-Modus anzuschalten und gedockt dann 4 weitere freizuschalten.Wäre es bei der APU nicht möglich sie in einem Handheld gedrosselt laufen zu lassen und dann gedockt, mit eventuell zusätzlicher Kühlung, offen?
Also am liebsten wäre ja eine 6/8 Kern CPU mit allen CU. Das wäre fürs Gaming der Hammer. Keiner braucht da die 16 Kerne.Irgendwo stehen sich die ganzen Kerne dann nur noch im weg rum. Konnte man schon beim ROG Ally mit Z1 Extreme sehen wenn man das auf <15W begrenzt hat, hat z.T. das Deck bei selben Verbrauch überholt.
Ein Strix Point kann ich mir in der angedachten Konfiguration noch vorstellen, aber Halo ist dann doch zuu breit angelegt für den Handheld- Formfaktor.
Naja, mehr Recheneinheiten heißen auch mehr Effizienz, solange man sie auslasten kann. Das ist bei CPUs deutlich öfter ein Problem als bei GPUs, weil Grafikberechnungen eigentlich immer parallel genug sind. Von daher halte ich eine Beschränkung der GPU generell nicht für sinnvoll, aber auch bei CPUs kann eine pauschale Deaktivierung von Kernen sich negativ auswirken. Da wären ein gutes Powergating und ein Scheduler, der Kerne nicht wegen jedem Furz aus dem Schlaf reißt, vielleicht die besseren Mittel.Es wäre meiner Meinung nach schon möglich, z.B. nur 4 Kerne der CPU im Handheld-Modus anzuschalten und gedockt dann 4 weitere freizuschalten.
Ich weiß nicht, ob bei CUs da etwas dagegen spräche.
Es ist doch offensichtlich, dass die Materialkosten bei der CPU + dGPU viel höher sind, als bei einer APU. Insbesondere, wenn man das mit mehreren Dice löst und diese auf einem CPU-Package nur platzsparender verpackt, statt mehrere PCB zu verwenden.
Alleine schon wegen der ganzen Spannungswandler und dem zusätzlichen Kühler, den man auf einer Steckkarte braucht, und der Zertifizierungen etc. Ob die APU gegenüber einer CPU+dGPU am Ende dann günstiger am Markt zu haben ist, liegt somit einzig und allein in der Hand von AMD und der Nachfrage. Das lässt sich mit einem Stift und einem Blatt Papier festlegen.
Wäre es bei der APU nicht möglich sie in einem Handheld gedrosselt laufen zu lassen und dann gedockt, mit eventuell zusätzlicher Kühlung, offen?
Tendenziell fühlt es sich wie ein ziemlicher Fehler an, wenn die Betriebsspannung aller Dice bei einem solchen Produkt nicht synchronisiert wäre. Es würde mich sehr wundern, wenn AMD die Trägerboards für das SoC unnötig groß machen würde.wenn das Ding bei nicht-Volllast einigermaßen effizient sein soll (wovon ich ausgehe), dann müssen die auch für CPU- und GPU-Teil entsprechend getrennt regelbar ausgeführt werden.
Es müsste ja eigentlich so geregelt sein, weil einzelne Kerne ja verschieden hoch takten und es ziemlich blöd wäre, wenn die trotzdem alle mit der gleichen Spannung wie der am höchsten taktende Kern laufen müssten. Also ich hätte jetzt auch gedacht, dass extern eine Absenkung von 12V auf irgendwas zwischen 1 und 1,5V stattfindet und der Rest intern geregelt wird.Edit: Man sollte auch nicht vergessen, dass man die Spannungswandlung von 1V ausgehend zum Teil bei der relativ geringen Leistung auch noch im SoC oder auf dem Package realisieren könnte, wo man verschiedene Betriebsspannungen braucht.
Es müsste ja eigentlich so geregelt sein, weil einzelne Kerne ja verschieden hoch takten und es ziemlich blöd wäre, wenn die trotzdem alle mit der gleichen Spannung wie der am höchsten taktende Kern laufen müssten. Also ich hätte jetzt auch gedacht, dass extern eine Absenkung von 12V auf irgendwas zwischen 1 und 1,5V stattfindet und der Rest intern geregelt wird.
Ist wohl aber immer noch der beste Kompromiss, um feingranulare Spannungsteuerung zu ermöglichen, ohne die Kosten explodieren zu lassen.Das ist anzunehmen respektive üblich, aber nicht so effizient wie die Versorgungsspannung extern anzupassen.
Naja, nicht aus der VCore, sondern halt aus der gleichen Versorgunsspannung, aus der die VCore auch erzeugt wird.Dass AMD diese internen Lösungen nutzt, um auch die GPU-Spannung aus der Vcore-Versorgung abzuleiten, glaube ich nicht.
Das liest sich hier anders, ist aber auch schon älter: https://www.anandtech.com/show/1196...-apus-for-laptops-with-vega-and-updated-zen/4 Da wird auch gesagt, dass die Wandlungseffizienz bei niedriger Last zwar niedrig, die Gesamtleistungsaufnahme aber halt trotzdem sehr gering ist.Selbst bei den bisherigen, im Vergleich schmächtigen IGPs, bekommen die eine eigene Leitung.
Also gut! Was außer der PCIe-Verbindung, dem PCIe-Slot, dem zusätzlichen Speicherinterface und der zweiten Kühllösung haben die APUs je für uns eingespart?Abgesehen davon, dass man sich die PCI-E-Verbindung zwischen beiden sowie das getrennte Speicherinterface spart, gibt es da keinen Unterschied zu einer dedizierten GPU.
Klar, ist ja keine Hexerei. Aber solange man alles, was man braucht, ins Energie- und Transistorbudget passt, hat das doch schon entscheidende Vorteile. Bei den Konsolen kommt das ja auch nicht von ungefähr.Die Shadereinheiten müssen genauso gefertigt, genauso versorgt und auch gekühlt werden, ohne Vorteile gegenüber konventionellen Bauweisen.
Drei Power-Rails? Was ist der Kleinkram?Okay, hast nach nochmaligem nachlesen Recht: Zen 4 nutzt zwar drei Power-Rails, aber offensichtlich teilen sich CPU-Kerne und GPU eine davon, nur der ganze Kleinkram ist fein eingeteilt.
Das ist schon ein Punkt. Vielleicht orientiert man sich dann bei der CPU-Spannung eher niedrig. Ansonsten könnte man doch auch extern die CPU-Spannung abgreifen und ab da dann noch die restliche Absenkung für die GPU erledigen. Das würde auch dafür sorgen, dass man einen großen Teil der Wandler für beide Parts nutzen könnte.Aber wenn wir stattdessen von High-End-Gaming reden, dann läuft Ryzen 7000 mit 1,3 V unter Vollast, 1,4 bis 1,5 V im Boost, während eine Radeon 7000 laut Raff mit 0,8 bis 0,9 V arbeitet.
Vin muss sich immer an der Spannung des fordernsten Verbrauches orientieren, denn LDOs können nur nach unten regeln. Wenn sie das um 0,5-0,6 V respektive 60 Prozent machen müssen, dann wären mit öffentlich bekannter Technik eher Effizienzen von unter 70 Prozent denn über 90 Prozent zu erwarten. Auf den ganzen Strix Halo bezogen also mal eben 20-30 W (oder mehr) pure Elektroheizung mitten im Chip, die einfach nur Strom in Wärme umwandelt. Bevor irgendwelche Elektrizität rechnende Transistoren erreicht.
Ja, soweit so gut und klingt auch nicht schlecht. Nur... warum bedient AMD an genau dieser Stelle dann nicht mehr den High-End-Markt bei dedizierten Grafikbeschleunigern? Sich ausgerechnet auf den Marktanteil zu konzentrieren, wo man mit dieser APU alles abdecken könnte, ist dann doch Kontraproduktiv.Das hört sich ausgezeichnet an!
Ich denke, dass es spätestens 2025 ein neues Steam Deck geben wird.
Strix Halo wird, falls die Speicherbandbreite reicht, um die Leistung zu fahren, möglicherweise ein neues Zeitalter für GPUs einläuten und dedizierte Grafikkarten wie die 7600 XT oder die 4060 Ti, und alles, was darunter existiert, völlig sinnlos machen.
Im Grunde würde also das Einsteiger-Segment, sowie auch die Mittelklasse komplett durch APUs abgedeckt, sodass nur noch für Oberklasse und HighEnd-Gaming-PCs Steckkarten für die Grafikbeschleunigung nötig sein sollten.
Angeblich hat AMD ja den 8000er HighEnd-Chip eingestellt, um sich auf die 9000er Serie zu konzentrieren, die einschlagen soll.warum bedient AMD an genau dieser Stelle dann nicht mehr den High-End-Markt bei dedizierten Grafikbeschleunigern? Sich ausgerechnet auf den Marktanteil zu konzentrieren, wo man mit dieser APU alles abdecken könnte, ist dann doch Kontraproduktiv.
AMD schafft es aber immer wieder, neue Limitierungen einzubauen, oder noch schlimmer, alte Stärken einfach fallen zu lassen. Selbst GCN war schon richtig stark bei hohen Auflösungen und etliche Jahre später, wo 4K zum guten Ton gehört, bringt man Architekturen, die genau das nicht mehr bieten, statt einfach mal dabei zu bleiben was man kann und nur die Schwachstellen zu stützen?Angeblich hat AMD ja den 8000er HighEnd-Chip eingestellt, um sich auf die 9000er Serie zu konzentrieren, die einschlagen soll.
Aber war DC-DC-Wandlung an sich nicht schon so ein Ding bei moderneren Netzteilen? Aber dann vermutlich parallel und halt nicht gestaffelt, oder? Ich denke mal die 12V nutzt man einfach, weil man so die kleinsten Ströme auf dem Weg hat.DC/DC Staffeln macht in der Effizienz eigentlich nie Sinn. Bei Netzteilen hat man halt nur noch ein mal AC/DC, aber macht z.B. die 3,3V ja auch nicht aus den 5V und die CPU Wandler wiederum laufen auch nicht ohne Grund direkt mit 12V statt der Zwischenstufen.