News AMD Strix Halo: Mega-APU mit 32 und 64 GiB Systemspeicher erstmals gesichtet

Aber war DC-DC-Wandlung an sich nicht schon so ein Ding bei moderneren Netzteilen? Aber dann vermutlich parallel und halt nicht gestaffelt, oder?
Das ist das was ich als Teil meines Posts zum Ausdruck bringen wollte. "DC/DC Technologie" bei einem Netzteil bedeutet 230VAC zu 12VDC ist der einzige AC/DC Traffo. Alle andere Spannungen die Ausgangsseitig noch gebraucht werden, wandelt man direkt aus den 12V. Der Sinn ist da aber multiple AC/DC Übergänge zu vermeiden, nicht dass Stufenweise die Spannung reduzieren eine sinnvolle Topologie innerhalb eines DC Netzes wäre. Zwischenstufen stören da nur.
OEMs bauen sich deshalb mittlerweile auch reine 12V Mainboards.
 
AMD schafft es aber immer wieder, neue Limitierungen einzubauen, oder noch schlimmer, alte Stärken einfach fallen zu lassen. Selbst GCN war schon richtig stark bei hohen Auflösungen und etliche Jahre später, wo 4K zum guten Ton gehört, bringt man Architekturen, die genau das nicht mehr bieten,
GCN hatte öfters eine Auslastungsschwäche bei niedrigen Auflösungen, keine besondere Stärke bei hohen Auflösungen.
 
Selbst GCN war schon richtig stark bei hohen Auflösungen und etliche Jahre später, wo 4K zum guten Ton gehört, bringt man Architekturen, die genau das nicht mehr bieten, statt einfach mal dabei zu bleiben was man kann und nur die Schwachstellen zu stützen?
Eigentlich ist das so, dass jede neue Rasterizing-Architektur die Effizienz und/oder Skalierung pro Shadereinheit auf ein neues Level hebt und man mit den darauffolgenden Iterationen auf der Architektur dann "über die Runden kommt". Bis zu dem Punkt, an dem die Effizienz nicht mehr akzeptabel ist, oder man mit zusätzlichen Shadereinheiten zu wenig Leistung einfährt. Dann ist wieder eine neue Architektur dran. Das hängt natürlich auch von der Konkurrenz ab.
Bitte auch nicht vergessen, dass der CPU-Overhead der GCN-Karten zu hoch war, was mittlerweile gelöst wurde, und worin AMD aktuell sogar vor Nvidia kommen konnte.

Und man muss geschichtlich auch berücksichtigen, dass GCN zu einem Zeitpunkt aktuell war, als Raja Koduri zu Intel gewechselt ist, weil AMD die Investitionen in die GPU-Sparte mehrere Jahre lang extrem niedrig halten musste, um Zen zu entwickeln und weiterzuentwickeln. Wie man sieht ist es noch immer so, dass manche Produkte dann doch eingestellt und nicht vollendet werden, um die Leute auf ein anderes Produkt zu fokussieren.
Es hinzubekommen, dass die GPU-Sparte während dieser Zeit keinen Schaden nimmt, ist also eigentlich für AMD schon als großer Erfolg zu werten, und der liegt vermutlich auch gerade daran, dass AMD in der Shader-Skalierung damals schon vorne dran war und somit diese Reserven überhaupt übrig hatte.

Wenn man sich das also alles in einem Gesamtkontext anschaut, hat AMD vermutlich aus der Situation das beste herausgeholt (denn ohne GPU-Stagnation kein Zen und somit auch nicht diese APUs), auch wenn das heute bedeutet, dass sie bei den GPUs technisch leicht hinter Nvidia gelangt sind, und sie jetzt da wieder aufholen müssen. Aber irgendwo muss man mit dem Aufholen ja anfangen und man sollte es dann auch richtig machen, auch wenn man anderswo sparen muss.

Aber wenn wir stattdessen von High-End-Gaming reden, dann läuft Ryzen 7000 mit 1,3 V unter Vollast, 1,4 bis 1,5 V im Boost, während eine Radeon 7000 laut Raff mit 0,8 bis 0,9 V arbeitet.
Ich denke, wenn die Karte mit 0,8 bis 0,9V arbeitet, ist sie echt nahe dem Sweetspot (was gerade bei GPUs wegen der Parallelisierbarkeit recht sinnvoll ist) und vermutlich in dem Moment auch vom Powertarget begrenzt.
Tatsächlich laufen beide aktuellen AMD-Architekturen, also CPU und GPU meinen Informationen nach mit ca. 600 bis 1.200mV, wenn man bei den CPUs nur die Ryzen Mobile berücksichtigt und die CPUs für Desktoprechner weglässt (wo man ja im Extremfall einen Kern besonders hochprügelt).
Wenn man bereit ist, für das Gesamtpaket Leistung bei einzelnen Komponenten zu opfern, und nur 1V bereitstellt, wäre man in einem sehr effizienten Betriebsbereich, den man meiner Vermutung nach auch kühlen könnte. Je nach Effizienz der Spannungswandlung muss man sich natürlich auch überlegen, ob man nicht vielleicht einfach den überschüssigen Strom direkt in Wärme umwandelt und ableitet statt irgendwie teuer herumzutransformieren - gerade dann, wenn die CPU ohnehin unter 3W läuft.
 
Zuletzt bearbeitet:
Das ist das was ich als Teil meines Posts zum Ausdruck bringen wollte. "DC/DC Technologie" bei einem Netzteil bedeutet 230VAC zu 12VDC ist der einzige AC/DC Traffo. Alle andere Spannungen die Ausgangsseitig noch gebraucht werden, wandelt man direkt aus den 12V. Der Sinn ist da aber multiple AC/DC Übergänge zu vermeiden, nicht dass Stufenweise die Spannung reduzieren eine sinnvolle Topologie innerhalb eines DC Netzes wäre. Zwischenstufen stören da nur.
OEMs bauen sich deshalb mittlerweile auch reine 12V Mainboards.
Ah OK. Aber um ganz genau zu sein: Trafos werden doch eigentlich nicht mehr verwendet, oder? Naja, und 12VO ergibt schon Sinn, weil das Netzteil eh nie die passende Spannung liefert, man mit den drei Spannungen aber alles komplizierter macht. Am besten wäre wohl, wenn einfach niemand mehr irgendwas außer 12V als Eingangsspannung für neue Produkte nutzt, so dass man das irgendwann durchdrücken kann. Im nächsten Schritt könnte man dann auch noch die Stecker vereinfachen. Dafür müsste man aber vermutlich eine ganze Weile Stecker doppelt haben.
 
Ich denke, wenn die Karte mit 0,8 bis 0,9V arbeitet, ist sie echt nahe dem Sweetspot (was gerade bei GPUs wegen der Parallelisierbarkeit recht sinnvoll ist) und vermutlich in dem Moment auch vom Powertarget begrenzt.
Tatsächlich laufen beide aktuellen AMD-Architekturen, also CPU und GPU meinen Informationen nach mit ca. 600 bis 1.200mV, wenn man bei den CPUs nur die Ryzen Mobile berücksichtigt und die CPUs für Desktoprechner weglässt (wo man ja im Extremfall einen Kern besonders hochprügelt).
Wenn man bereit ist, für das Gesamtpaket Leistung bei einzelnen Komponenten zu opfern, und nur 1V bereitstellt, wäre man in einem sehr effizienten Betriebsbereich, den man meiner Vermutung nach auch kühlen könnte. Je nach Effizienz der Spannungswandlung muss man sich natürlich auch überlegen, ob man nicht vielleicht einfach den überschüssigen Strom direkt in Wärme umwandelt und ableitet statt irgendwie teuer herumzutransformieren - gerade dann, wenn die CPU ohnehin unter 3W läuft.

Denkbar. Aber mit welchen Taktraten sind die dann @1,0 V unterwegs? 4 GHz? 3,5?
Das wäre gegenüber 5,5er-Boosts für einen High-End-Gaming-Chip möglicherweise keine so gute Idee, nur um einige Euro bei der Stromversorgung sparen zu können.
 
Ah OK. Aber um ganz genau zu sein: Trafos werden doch eigentlich nicht mehr verwendet, oder?
Doch. Schaltnetzteile brauchen intern auch Trafos. Außer es wäre Kondensatorbasiert (macht man da aber aus Effizienzgründen nie).

Denkbar. Aber mit welchen Taktraten sind die dann @1,0 V unterwegs? 4 GHz? 3,5?
Das wäre ungefähr im Bereich von 5.0 GHz bei der CPU, vorausgesetzt Zen 5 legt durch den 3nm-Prozess beim Takt zu. Aktuell eher in Richtung von knapp 4,5.

Das wäre gegenüber 5,5er-Boosts für einen High-End-Gaming-Chip möglicherweise keine so gute Idee, nur um einige Euro bei der Stromversorgung sparen zu können.
Richtig, wenn das Ding auf ein Desktop-Mainboard käme, würde das so keinen Sinn ergeben (außer man überschreitet sonst die TDP) - völlig berechtigter Einwand.

Mir ging es um den hypothetischen Fall, dass ein neues SteamDeck kommt. Dann würde man natürlich möglichst wenig Raum für Spannungswandlung auf dem Mainboard verbrauchen wollen, da es ja in die Hand passen soll. Für den Fall könnte man eben bei der CPU am Maximaltakt ein wenig sparen, um eine platzsparendere Spannungsversorgung auf der Platine zu realisieren. Die CPU wäre ja für die Grafikeinheit dann trotzdem noch sehr gut dimensioniert.
 
Zurück