AMD Ryzen 7000: Interne Folien geleakt, Raphael mit Durango-CCD und IGP

Ich fand es überraschend wie akkurat seine Hardwaredaten zu Ampere waren schon über 1 Jahr vor dem Launch.
Aber ja, auf 3Dcenter las ich das ein oder andere Gerücht auch von Kimi über AMD, ist schon ne weile her und hat sich dann als nicht ganz korrekt gezeigt.
Welche waren nicht korrekt von Nvidia?
So oder so, zeigt sich halt, dass man Gerüchten eben nur in Kombination mit Hausverstand (was ist technisch überhaupt möglich wenn man den Prozess berücksichtigt sowie diverse Markttrends) und anderen Gerüchten über die Zeit hinweg glauben sollte
Ich war diese Runde massiv überrascht davon wie früh wir handfeste Daten von RDNA2 und Ampere GPUs bekommen haben.
Also in Bezug auf Architekturänderungen, deren Konfiguration, deren Chipgröße usw.
Ein richtiges Leakfest, was gerade nur weiter geht mit Raphael, Strix Point usw. auf AMD's Seite.

https://docs.google.com/spreadsheets/d/1oLA4RgOVlXa3_GWkFIcgUCnLzdQbADHkaXSOtN1UxRo/edit#gid=0
Unten gibt es drei Kategorien, "Summary of Results", "Data" und "Unverified Claims".
Bei Data kann man dann alle geprüften Behauptungen von den "Leakern" anschauen.

Ein paar Sachen die z.B. nicht korrekt waren, wobei erneut darauf hingewiesen werden muss, dass die Leute auch häufig erwähnt haben, dass sie unsicher sind oder spekulieren:
Er sei sich nicht sicher, aber "jemand" sagte Ampere läuft mit 2.1-2.2GHz Taktfrequenz:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die 3090 würde 24GB GDDR6 mit 21Gbps verwenden, es sind aber "nur" 19.5Gbps.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Er hat die Konfigurationen von der 3090, 3080 und 3070 geteilt, aber die FP32-Units waren falsch, er hat nur mit 64 Cores pro SM gerechnet und nicht 128:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wobei man da auch Äußerungen von ihm im Thread findet, dass 21Gbps nicht erreicht wurden und vielleicht 19-19.5Gbps passender sind.

Bei vielen Behauptungen gab es nachträglich Korrekturen oder die Pläne haben sich geändert, wobei die Behauptungen selber zu dem Zeitpunkt richtig waren, manchmal kann man das verifizieren, in vielen Fällen aber nicht.

Die Liste hat natürlich noch mehr Einträge, also wen es interessiert, einfach durchscrollen. :)
 
Ich war diese Runde massiv überrascht davon wie früh wir handfeste Daten von RDNA2 und Ampere GPUs bekommen haben.
Also in Bezug auf Architekturänderungen, deren Konfiguration, deren Chipgröße usw.
Ein richtiges Leakfest, was gerade nur weiter geht mit Raphael, Strix Point usw. auf AMD's Seite.
Danke, hab mir jetzt die Liste ein wenig durchgeschaut. Ja: ich war auch überrascht. Mai 2019 schon ganz konkrete Chipdaten zu wissen über ein Produkt, dass über 1 Jahr später erst kam war schon verblüffend.
Im Prinzip ist 1,5 bis 2 Jahre vor Release klar, wie der Chip ca aussehen würde - und damit auch ungefähr klar, wie er performen würde (zumindest Nvidia intern ist dies wohl relativ klar, wenngleich natürlich gewisse Abweichungen auftreten wie eben durch Chip und Speichertakt)
Ein paar Sachen die z.B. nicht korrekt waren, wobei erneut darauf hingewiesen werden muss, dass die Leute auch häufig erwähnt haben, dass sie unsicher sind oder spekulieren:
Er sei sich nicht sicher, aber "jemand" sagte Ampere läuft mit 2.1-2.2GHz Taktfrequenz:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die 3090 würde 24GB GDDR6 mit 21Gbps verwenden, es sind aber "nur" 19.5Gbps.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Das kann man wohl komplett vernachlässigen. Taktraten werden wohl bis zum Ende hin angepasst, auch aufgrund des Verbrauchs und der Effizienz, der Chipgüte bzw. des Yields etc. Viel Spannender waren da halt die Anzahl der Shader, Tensor Cores und Co. Sowie des Prozesses, da war Kimi der einzige der immer wieder betont hat es sei der 8nm Samsung bei den Konsumerchips, nicht TSMC. Egal wie oft andere was anderes behauptet haben.
Er hat die Konfigurationen von der 3090, 3080 und 3070 geteilt, aber die FP32-Units waren falsch, er hat nur mit 64 Cores pro SM gerechnet und nicht 128:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Das ist einer der wenigen gröberen Fehler den ich in der Liste beim grob drüber schauen gefunden habe.
Wobei man da auch Äußerungen von ihm im Thread findet, dass 21Gbps nicht erreicht wurden und vielleicht 19-19.5Gbps passender sind.
Soweit habe ich das auch mitgekommen, dass er da immer recht "ehrlich" war, wenn sich etwas geändert hat.
Bei vielen Behauptungen gab es nachträglich Korrekturen oder die Pläne haben sich geändert, wobei die Behauptungen selber zu dem Zeitpunkt richtig waren, manchmal kann man das verifizieren, in vielen Fällen aber nicht.

Die Liste hat natürlich noch mehr Einträge, also wen es interessiert, einfach durchscrollen. :)
Hab ich vorhin bei einigen Beiträgen gemacht, danke für den Hinweis.
 
Mein 5800x + 6900xt wird mir fürs erste völlig ausreichen. Selbst wenn ich in ferner Zukunft auf 4k gehe und mir eine neue Grafikkarte hole, wird der 5800x mit Sicherheit ausreichen.
 
Natürlich ist das eine Milchmädchenrechnung. Zu sagen: aha eine 5nm APU mit 40 CU wird die TDP 170 haben ist nunmal keine Faktenlage.
Folgende Unbekannten hast du einfach dabei:
Welche Architektur?
Wieviele Kerne?
Wieviel Takt?

Kannst auch eine APU mit 40 CUs mit 65 Watt realisieren...

Wir haben da weitaus weniger unbekannte Variablen als du meinst.
Die PS5 hat eine Zen2 CPU 8 Kerne, 16 Threads, 2,2 GHZ Base, 3,5 GHz Boost und dazu RDNA2 Cores in der Anzahl 40. Das kann AMD heute schon fertigen mit einer TDP von 180W.

Wenn AMD für den nächsten Sockel also 170W TDP als Spezifikation erlaubt, dann ist das die Hausnummer an APU die man in diesem thermischen Budget abbilden kann. Heute mit 7nm wohlgemerkt.

AMD muss bei so einem Chip also nicht die Leistung in unbekannte Regionen pushen, es geht eher darum den Chip im Bereich Speicherarchitektur (PCIe Lanes, L2+L3 Cache, DDR5 Controller zusätzlich zum GDDR6 Controller) auf die PC Architektur anzupassen.

Warum du frägst, ob man den Chip in 65W TDP abbilden kann ist mir unklar. Für solch ein Design gibt es keine Referenz, keinen bereits existierenden Chip der das umsetzt. Machen kann man soetwas schon, aber man bezahlt es halt mit einer sehr niedrigen Taktrate. Das ist eher der TDP in dem eine einfache Office APU leben wird und nicht eine Gaming-APU für den Kauf von der OEM Stange.
 
Naja gesichert ist das ja nicht so wirklich, oder habe ich etwas fehlinterpretiert?
ob warhole kommt geschweige denn doppelten cache hat bezweifel ich. hab mir vorgenommen den "refresh" von zen 3 zu kaufen, nun überlege ich mir doch nen 5900x zu holen.
AMD hat gegenüber Ian Cutress bestätigt, dass es Zen3 + X3D für die Ryzen Platform geben wird


Die 3090 würde 24GB GDDR6 mit 21Gbps verwenden, es sind aber "nur" 19.5Gbps.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Die 3090 nutz die 21Gbps GDDR6X Chips

Die sind aber auf 19,5 Gps gedrosselt.

Wahrscheinlich wegen Hitzeproblemen.
 
Zuletzt bearbeitet:
Wobei man da auch Äußerungen von ihm im Thread findet, dass 21Gbps nicht erreicht wurden und vielleicht 19-19.5Gbps passender sind.

Bei vielen Behauptungen gab es nachträglich Korrekturen oder die Pläne haben sich geändert, wobei die Behauptungen selber zu dem Zeitpunkt richtig waren, manchmal kann man das verifizieren, in vielen Fällen aber nicht.

Die Liste hat natürlich noch mehr Einträge, also wen es interessiert, einfach durchscrollen. :)
Naja, aber vielleicht wollte NV jat 21 GBps, aber hat es nicht hinbekommen. Da kann man jetzt schlecht sagen, dass sein Leak falsch war. Bei der Hardware können die Specs teilweise kurz vor der Veröffentlichung noch variieren.

Hier mal ein Gedankenspiel: AMD peilt mit Ryzen 7000 die 5,2 GHz im Boost an, Kimi bekommt diese Info von seiner Quelle und teilt sie mit uns. Jetzt stellt sich hinterher aber für AMD heraus, dass die 5,2 GHz zu hoch angesetzt waren und sie es doch nicht hinbekommen. Letztenendes kommt die CPU dann mit 5 GHz auf den Markt.
War der Leak von Kimi nun falsch?
 
Wir haben da weitaus weniger unbekannte Variablen als du meinst.
Die PS5 hat eine Zen2 CPU 8 Kerne, 16 Threads, 2,2 GHZ Base, 3,5 GHz Boost und dazu RDNA2 Cores in der Anzahl 40. Das kann AMD heute schon fertigen mit einer TDP von 180W.

Wenn AMD für den nächsten Sockel also 170W TDP als Spezifikation erlaubt, dann ist das die Hausnummer an APU die man in diesem thermischen Budget abbilden kann. Heute mit 7nm wohlgemerkt.

AMD muss bei so einem Chip also nicht die Leistung in unbekannte Regionen pushen, es geht eher darum den Chip im Bereich Speicherarchitektur (PCIe Lanes, L2+L3 Cache, DDR5 Controller zusätzlich zum GDDR6 Controller) auf die PC Architektur anzupassen.

Warum du frägst, ob man den Chip in 65W TDP abbilden kann ist mir unklar. Für solch ein Design gibt es keine Referenz, keinen bereits existierenden Chip der das umsetzt. Machen kann man soetwas schon, aber man bezahlt es halt mit einer sehr niedrigen Taktrate. Das ist eher der TDP in dem eine einfache Office APU leben wird und nicht eine Gaming-APU für den Kauf von der OEM Stange.
Vielleicht habe ichs falsch verstanden: dein Ziel ist die Leistung der PS5 in APU Form? Auch das geht deutlich unter 180 Watt bei 5nm:
Zen 3 hat in Spielen schon knappe 20% höhere IPC.
Zen 4 wird nochmal was drauf legen, sagen wir 15%?
3D Cache auch nochmal 10.
RDNA3- hat wahrscheinloch IPC und Effizienzverbesserungen sowie Infinity cache. Also erreicht man mehr bei geringerem Takt.
Fertig ist eine APU im besseren Prozess, die mit gleichen Taktraten schon deutlich effizienter sein könnte als die PS5 APU, aber man ksnn natürlich eben deutlich mit dem Takt runter. Ok, IO Anpassungen weil PC.
Letztlich ist bei einem simplen full node Shrink schon viel möglich, erst recht, wenn die Architektur auch weiterentwickelt wurde.

Kann man aber eben nur raten, wie das ganze skaliert und welche Taktraten anliegen müssten. Reichen 90% der PS 5 Leistung oder sollens 110% sein. Das bisschen Mehr Takt kann reicven um genau neben den Sweet Spot zu liegen und msn kommt bei der 90% Variante bei 65 Watt raus, bei der 110% Variante bei über 100 Watt.
Deshaöb ja auch mein Beispiel mit der 1060 weiter oben: man kann sie overclocken und du hast kaum merkbar mehr Leistung bei 150W. Oder undervolten und Clocken. Du hast immer noch 90% der Leistung, aber 75 W Verbrauch
 
Das is ne geile Nummer :-D

Gehen wir mal davon aus, dass man mindestens >20 Aussagen treffen/verifizieren muss um eine belastbare statistische Grundgesamtheit zu haben.
Und sagen wir mal (ohne jetzt den großen Matheweg zu gehen) statistisch signifikant abweichend von "einfach raten" wäre eine Trefferquote von 3 von 4 Aussagen (=75%).
Dann wären von den aufgeführten 22 Leakern 9 Stück besser informiert als der Normalsterbliche.

Nun müsste man noch die Qualität der Aussagen berücksichtigen - denn eine korrekte Vorhersage könnte ja auch etwas sein, was ohnehin mehr oder weniger unstrittig auf dem Tisch liegt ("die RX7800XT wird schneller als die RX6900XT sein!" beispielsweise). Darüber macht die Auswertung keine Aussage, wenn man aber einfach mal unterstellt dass es vielleicht bei der Hälfte der Aussagen um eben solche geht und die andere Hälfte tatsächlich "gehaltvoll" ist wird die Anzahl der "echten" Leaker nochmal kleiner.

Am Ende steht wohl die nicht allzugroße Überraschung, dass die allermeisten Leaker keinerlei besondere Informationen haben sondern mit irgendwelchen Behauptungen Aufmerksamkeit im Internet suchen. Es dürften tatsächlich nur ne Handvoll Leute sein, die tatsächlich über Insiderwissen verfügen.


Hier mal ein Gedankenspiel: AMD peilt mit Ryzen 7000 die 5,2 GHz im Boost an, Kimi bekommt diese Info von seiner Quelle und teilt sie mit uns. Jetzt stellt sich hinterher aber für AMD heraus, dass die 5,2 GHz zu hoch angesetzt waren und sie es doch nicht hinbekommen. Letztenendes kommt die CPU dann mit 5 GHz auf den Markt.
War der Leak von Kimi nun falsch?
Ja, war er. Denn er hätte auch leaken können "AMD peilt mit Ryzen 7000 die 5,2 GHz im Boost an, ob es erreicht wird steht noch nicht fest." Dann wäre es richtig gewesen. Aber klare Aussagen sind bei Leakern auch die absolute Ausnahme.

Dieses ständige berufen auf "ja da hat sich halt noch was geändert deswegen war die Voraussage falsch" ist einfach nur ne Ausrede - denn jemand der entsprechendes Wissen hat könnte es auch genauso dazuschreiben (etwa dass 5,2 angepeilt sind und nicht gesichert).
 
Zuletzt bearbeitet:
Naja, aber vielleicht wollte NV jat 21 GBps, aber hat es nicht hinbekommen. Da kann man jetzt schlecht sagen, dass sein Leak falsch war. Bei der Hardware können die Specs teilweise kurz vor der Veröffentlichung noch variieren.

Hier mal ein Gedankenspiel: AMD peilt mit Ryzen 7000 die 5,2 GHz im Boost an, Kimi bekommt diese Info von seiner Quelle und teilt sie mit uns. Jetzt stellt sich hinterher aber für AMD heraus, dass die 5,2 GHz zu hoch angesetzt waren und sie es doch nicht hinbekommen. Letztenendes kommt die CPU dann mit 5 GHz auf den Markt.
War der Leak von Kimi nun falsch?
Das ist ja das Problem: laut der Analyse von Reddit ist das dann klar falsch, aber letztlich handelte es sich ja um das interne Entwicklungsziel das ja auch nicht aus der Luft gegriffen ist. Hat man halt dann am Ende für die Yields kompromisse machen müssen und die Taktraten nach unten angepasst. Falsch fände ich, wenn die Anzahl der (Shader)Cores oder so daneben liegt oder das Speicherinterface usw.
 
Vielleicht habe ichs falsch verstanden: dein Ziel ist die Leistung der PS5 in APU Form? Auch das geht deutlich unter 180 Watt bei 5nm:

Ich denke Trend der nächsten 5 Jahre wird sein, dass wir diese APUs sehen die Einsteiger und Mittelklasse 3D Karten komplett überflüssig machen.

Es macht wirklich Sinn sich den Abgang von Apple bei Intel genau anzusehen. Apple hat jahrelang bei Intel CPUs eingekauft. Jetzt hat Apple kein Intel mehr und es ist leicht zu sagen, ja das ist weil Intel auf 14nm festklemmt, oder die CPU zu heiß wird. Aber wenn man sich ansieht was Apple für einen neuen Chip gemacht hat, dann hat 14nm von Intel keine Rolle gespielt. Apple wäre selbst dann von Intel weg, wenn Intel auf 7nm produzieren würde.

Denn Apple hat keinen Klon einer Intel i7 CPU mit 3 Milliarden Transistoren gemacht. Apple hat die Transistoren massiv hochgedreht auf 15 Milliarden Stück. Ja, da ist das Äquivalent einer 3 Milliarden Transistoren CPU mit drin, aber die anderen 12 Milliarden Transistoren sind ein ganz anderes Biest. Das ist in Sachen Funktionsumfang für 3D und KI Beschleunigung am besten mit einer Mittelklasse GPU zu vergleichen. Kurzum Apple hat einen Chip gemacht, wie ihn Intel einfach nicht machen kann. AMD kann so einen Chip machen, wir sehen den in PS5 und Xbox. Und Intel? Die geben plötzlich richtig Gas im GPU Geschäft, weil der Verlust von Apple sie wachgerüttelt hat und vor Augen geführt hat was ihnen fehlt.

Daher glaube ich, dass wenn das Gerücht stimmt, dass AMD die maxTDP für AM5 Boards auf 170W nach oben schraubt, dann nicht weil es AM5 Threadripper oder Ryzen 11 mit 64 Kernen und 128Threads gibt. Ich glaube AMD macht das um sich Platz für Grafikkerne in den APUs einzuräumen. Ryzen 5 bis Ryzen 9 werden sich weiterhin bei 65W-105W tummeln. Wir sehen aber jetzt schon an der PS5 wie weit bei AMD 180W reichen können für eine clever gebaute APU.

Wir sehen auch, dass die Elektronikmärkte in jeden zweiten Rechner eine 1650 oder 1660 stecken. Wie kommt denn Nvdia bei Steam mit diesen Karten auf diese Marktanteile, eben genau so und nicht mit Einzelverkäufen. Wenn dann der Familien PC gekauft wird und die Kinder die Entscheidung mit beeinflussen, kann sich jeder selbst ausrechnen, auf was da mehr geachtet wird, den i5, oder die 1660. Das ist der Markt, den will AMD als nächstes. Den will auch Intel als nächstes, auch wenn die dafür eine extra Karte in den PC stecken müssen.

So passt für mich dieses 170W Gerücht genau ins Gesamtbild. Wie gesagt die 180W APU die jeder haben will hat AMD ja schon erfunden, das ist das beste daran.
 
Ja, war er. Denn er hätte auch leaken können "AMD peilt mit Ryzen 7000 die 5,2 GHz im Boost an, ob es erreicht wird steht noch nicht fest." Dann wäre es richtig gewesen. Aber klare Aussagen sind bei Leakern auch die absolute Ausnahme.
Seh ich anders, denn dafür müsste er persönlich bei solchen Besprechungen von AMD dabei sein, was er logischerweise nicht ist. Seine Quelle wird ihm sagen, dass 5,2GHz geplant sind und er haut das dann dementsprechend raus. Sowas kann sich halt sehr spät noch ändern.
 
Seh ich anders, denn dafür müsste er persönlich bei solchen Besprechungen von AMD dabei sein, was er logischerweise nicht ist.
Wenn er das nicht ist und keine solchen Informationen aus erster Hand hat (egal ob aus Besprechungen oder sonstigen Daten) ist es auch meiner Auffassung nach kein Leaker sondern ein Wichtigtuer. :ka:

Dass Infos die zuerst duch mehrere Hände geflossen sind und ne Runde stille Post mitgemacht haben am Ende mindestens ungenau und meistens falsch sind ist ja kein Wunder (und auch nicht seine Schuld). Ein echter "Leaker" wäre in dem Fall aber seine Quelle wie dus nennst und nicht er selbst.


Da ist ja der Grund warum ich den "Leakern" gegeüber so skeptisch bin. Wenn man in einer großen Firma arbeitet und Zugang zu echten Daten hat die unter KnowHow-Schutz stehen muss man vorher Verträge unterschreiben die sehr, SEHR böse für einen ausgehen wenn man Geheimnisse verrät. Das ist selbst bei mir schon so und mein Arbeitgeber ist nun wirklich viel kleiner als NVidia oder AMD. Ich kenne beispielsweise die genauen Spezifikationen der Panzerungen/Schwachstellen so mancher Bundeswehrgerätschaften oder Dienstwägen von Regierungsschefs - wenn ich sowas "leake" würde mich das völlig ruinieren nur um 5 Minuten im Netz zweifelhafte Berühmtheit zu erlangen. Sowas macht doch niemand der noch bei Verstand ist...
 
Zuletzt bearbeitet:
Ich denke Trend der nächsten 5 Jahre wird sein, dass wir diese APUs sehen die Einsteiger und Mittelklasse 3D Karten komplett überflüssig machen.
Das hat man mit der Einführung der APUs vor 10 Jahren schon gedacht.
Aber da gibts halt ein Problem: die Speicherbandbreite von DDR4 bzw. DDR5: egal wieviele EUs du reinhaust in eine APU, diese GPU verhungert einfach wegen des RAMs. Speziell auch mit Raytracing, das ist ja recht Speicherintensiv.
DLSS bzw FSR könnten aber bei APUs einiges bewegen.
Ob AMD und Intel sich "da unten" aber selbst das Geschäft wegnehmen wollen ist die Frage, auch für wen solch potente APUs sein sollten.
Es macht wirklich Sinn sich den Abgang von Apple bei Intel genau anzusehen. Apple hat jahrelang bei Intel CPUs eingekauft. Jetzt hat Apple kein Intel mehr und es ist leicht zu sagen, ja das ist weil Intel auf 14nm festklemmt, oder die CPU zu heiß wird. Aber wenn man sich ansieht was Apple für einen neuen Chip gemacht hat, dann hat 14nm von Intel keine Rolle gespielt. Apple wäre selbst dann von Intel weg, wenn Intel auf 7nm produzieren würde.
Richtig: 14nm hat hier nur eine kleine Rolle gespielt, Apple plante das ganze schon viel länger. Und wird auch wahrscheinlich eh wieder mit Intel zusammenarbeiten: man wird wohl irgendwann vielleicht bei Intel produzieren, falls diese auf TSMC aufholen bzw. diese wieder überholen. Apple gehts hier um ein geschlossenes Ökosystem und Gewinns.
Denn Apple hat keinen Klon einer Intel i7 CPU mit 3 Milliarden Transistoren gemacht. Apple hat die Transistoren massiv hochgedreht auf 15 Milliarden Stück. Ja, da ist das Äquivalent einer 3 Milliarden Transistoren CPU mit drin, aber die anderen 12 Milliarden Transistoren sind ein ganz anderes Biest. Das ist in Sachen Funktionsumfang für 3D und KI Beschleunigung am besten mit einer Mittelklasse GPU zu vergleichen.
Was ist für dich "Mittelklasse"? Dort ist man nämlich noch lange nicht.
Kurzum Apple hat einen Chip gemacht, wie ihn Intel einfach nicht machen kann. AMD kann so einen Chip machen, wir sehen den in PS5 und Xbox.
Natürlich kann sowohl AMD als auch Intel so einen Chip machen.
Das Problem ist aber ein anderes: Apples Chip läuft wesentlich effizienter, weil Chip und OS perfekt aufeinander abgestimmt sind, auch weil es ein geschlossenes System ist, während Intel/AMD sehr viele zusätzliche Schritte gehen müssen um eine so offene CPU zu designen. Deshalb schafft es AMD eben auch bei geringeren Taktraten bzw. Verbrauch so gut auszusehen. Es ist ein bisschen als wär Apples Ansatz "low level".
Und Intel? Die geben plötzlich richtig Gas im GPU Geschäft, weil der Verlust von Apple sie wachgerüttelt hat und vor Augen geführt hat was ihnen fehlt.
Naja mit Apple hat das wenig zu tun. Das ist einfach die Entwicklung zu AI und Co, zu Datacenter und ihren Anforderungen. Das ist seit Jahren geplant. Man hats mit verschiedenen Ansätzen probiert, Larrabee bzw. Xeon Phi usw.
Daher glaube ich, dass wenn das Gerücht stimmt, dass AMD die maxTDP für AM5 Boards auf 170W nach oben schraubt, dann nicht weil es AM5 Threadripper oder Ryzen 11 mit 64 Kernen und 128Threads gibt. Ich glaube AMD macht das um sich Platz für Grafikkerne in den APUs einzuräumen. Ryzen 5 bis Ryzen 9 werden sich weiterhin bei 65W-105W tummeln. Wir sehen aber jetzt schon an der PS5 wie weit bei AMD 180W reichen können für eine clever gebaute APU.
Intel selbst zeigt für eine flotte APU braucht man nicht zwangsweise eine hohe TDP.
Es gibt Vergleichstest von Intels iGPU die ganz klar zeigen: doppelt so viele EUs bringen kaum was, doppelt so hoher Speichertakt bringt aber massiv was. Die APUs verhungen am Speicher.
Wir sehen auch, dass die Elektronikmärkte in jeden zweiten Rechner eine 1650 oder 1660 stecken. Wie kommt denn Nvdia bei Steam mit diesen Karten auf diese Marktanteile, eben genau so und nicht mit Einzelverkäufen. Wenn dann der Familien PC gekauft wird und die Kinder die Entscheidung mit beeinflussen, kann sich jeder selbst ausrechnen, auf was da mehr geachtet wird, den i5, oder die 1660. Das ist der Markt, den will AMD als nächstes. Den will auch Intel als nächstes, auch wenn die dafür eine extra Karte in den PC stecken müssen.
Das ist halt eine andere Geschichte, klar gibts im OEM Markt immer noch viel zu holen. Der ist halt fest in der Hand von Intel und Nvidia.
So passt für mich dieses 170W Gerücht genau ins Gesamtbild. Wie gesagt die 180W APU die jeder haben will hat AMD ja schon erfunden, das ist das beste daran.
Zur Erinnerung: das gabs auch schon 2013 mit den APUs ;)
 
Das hat man mit der Einführung der APUs vor 10 Jahren schon gedacht.
Aber da gibts halt ein Problem: die Speicherbandbreite von DDR4 bzw. DDR5: egal wieviele EUs du reinhaust in eine APU, diese GPU verhungert einfach wegen des RAMs. Speziell auch mit Raytracing, das ist ja recht Speicherintensiv.
DLSS bzw FSR könnten aber bei APUs einiges bewegen.
Ob AMD und Intel sich "da unten" aber selbst das Geschäft wegnehmen wollen ist die Frage, auch für wen solch potente APUs sein sollten.

Das ist jetzt die echte Milchmädchenrechnung, aber eine 1660 Super kommt so auf die 125W und das könnte man mit einer 35W CPU antreiben. Das ist meiner Meinung nach so die klassische Mittelklasse GPU, etwas das bei ~125W liegt (960 -> 1060 -> 1660). Das Problem ist natürlich auch, dass man gerne mal einen alten Prozess länger nutzt als unbedingt nötig und dann 200€/175W Karten (Polaris) hat.

Die RAM Situation ist natürlich etwas das auf der Jagd nach mehr Leistung gesondert gelöst werden muss. DDR5 hat mit 5 Gigabit pro Sekunde nur ein Drittel dessen was GDDR6 hätte. Ist die Frage, ob das vertretbare Verluste sind, ob an der Stelle andere Cache Strukturen das Problem lösen müssen, oder ob die OEMs GDDR6 auf dem Mainboard verlöten als wäre es ein Laptop.

Das ist jetzt meine Spekulation zum Problem RAM. Was bekomme ich denn jetzt in einem fertig Gaming PC mit 1660 Super? CPU + CPU-RAM (DDR4) + GPU + GPU RAM (GDDR6). Ich habe also vier Kostenstellen. Ich persönlich wäre knallhart und würde das CPU RAM weglassen. 8-16 GB GDDR6 fest verlöten, dazu vielleicht einen DDR5 Erweiterungsslot für die Leute die meinen sie brauchen das und ab damit. Als OEM fährt man da in der Summe bestimmt nicht teurer und der DAU der fragt, ob man den Speicher aufrüsten kann, bekommt ein JA zur Antwort. Man kann nicht einmal sagen, dass so ein Chip der nur mit GDDR läuft und trotzdem Windows 10 bootet etwas neues wäre, denn die Xbox Series S/X macht genau das. Die größte Hürde ist schon genommen.

Ich bin aber Realist genug zu sagen, dass es einen Unterschied gibt zwischen dem was denkbar ist weil eine Hintertür dafür existiert und dem was realistisch ist, weil der PC Markt dann doch überwiegend sehr konservative Entscheidungen trifft. Ob etwas billiger ist hat auch damit zu tun, ob die Maschinen dafür schon existieren, oder ob es neue Bestückungsautomaten für etwas braucht. Es ist ja kein Zufall, dass die Mainboards und die GPU Boards seit 10 Jahren sich alle so verdammt ähnlich aussehen. Das ist ein Layout-Rad das niemand neu erfinden will und auch wenn Sony und Microsoft Referenzdesigns für Einzelplatinencomputer jenseits des Laptops haben (sprich Konsolenmainboards), so behalten sie die schön für sich und jemand anders will erstmal kein PC-OEM Referenzdesign entwerfen.
 
Ryzen 4xxx gab es nur als APUs für Laptops und Co AFAIR
Ach sie an, hatte mich schon gewundert warum auf 3000 dann 5000 folgte, CPUs für Notebooks sind unter meinem Radar. Die 2000er hatte ich aber auch irgendwie verdrängt, weswegen ich dachte, dass es nur 1000, 3000, 5000, ect. gab Und da jetzt schon von 7000 gesprochen wurde, wunderte ich mich, dass die geraden Tausender übersprungen werden. Besten Dank für die Erklärung!
 
Das ist jetzt die echte Milchmädchenrechnung, aber eine 1660 Super kommt so auf die 125W und das könnte man mit einer 35W CPU antreiben. Das ist meiner Meinung nach so die klassische Mittelklasse GPU, etwas das bei ~125W liegt (960 -> 1060 -> 1660). Das Problem ist natürlich auch, dass man gerne mal einen alten Prozess länger nutzt als unbedingt nötig und dann 200€/175W Karten (Polaris) hat.

Die RAM Situation ist natürlich etwas das auf der Jagd nach mehr Leistung gesondert gelöst werden muss. DDR5 hat mit 5 Gigabit pro Sekunde nur ein Drittel dessen was GDDR6 hätte. Ist die Frage, ob das vertretbare Verluste sind, ob an der Stelle andere Cache Strukturen das Problem lösen müssen, oder ob die OEMs GDDR6 auf dem Mainboard verlöten als wäre es ein Laptop.

Das ist jetzt meine Spekulation zum Problem RAM. Was bekomme ich denn jetzt in einem fertig Gaming PC mit 1660 Super? CPU + CPU-RAM (DDR4) + GPU + GPU RAM (GDDR6). Ich habe also vier Kostenstellen. Ich persönlich wäre knallhart und würde das CPU RAM weglassen. 8-16 GB GDDR6 fest verlöten, dazu vielleicht einen DDR5 Erweiterungsslot für die Leute die meinen sie brauchen das und ab damit. Als OEM fährt man da in der Summe bestimmt nicht teurer und der DAU der fragt, ob man den Speicher aufrüsten kann, bekommt ein JA zur Antwort. Man kann nicht einmal sagen, dass so ein Chip der nur mit GDDR läuft und trotzdem Windows 10 bootet etwas neues wäre, denn die Xbox Series S/X macht genau das. Die größte Hürde ist schon genommen.

Ich bin aber Realist genug zu sagen, dass es einen Unterschied gibt zwischen dem was denkbar ist weil eine Hintertür dafür existiert und dem was realistisch ist, weil der PC Markt dann doch überwiegend sehr konservative Entscheidungen trifft. Ob etwas billiger ist hat auch damit zu tun, ob die Maschinen dafür schon existieren, oder ob es neue Bestückungsautomaten für etwas braucht. Es ist ja kein Zufall, dass die Mainboards und die GPU Boards seit 10 Jahren sich alle so verdammt ähnlich aussehen. Das ist ein Layout-Rad das niemand neu erfinden will und auch wenn Sony und Microsoft Referenzdesigns für Einzelplatinencomputer jenseits des Laptops haben (sprich Konsolenmainboards), so behalten sie die schön für sich und jemand anders will erstmal kein PC-OEM Referenzdesign entwerfen.
Wie gesagt: machbar ist vieles, auch eine 65 Watt PS5 APU, ob sie das auch so machen ist eine ganz andere Frage die der Markt bestimmt
 
Zurück