AMD 4700S DIY-Kit: AMD macht DIY-Kit für den Desktop mit Konsolen-CPU und GDD6 offiziell

Wir sind zwar bei PC Games Hardware, dennoch würde mich mal brennend interessieren, wie sich GDDR6-Speicher im Alltagsaufgaben schlägt, bsp. Zip-Komprimierung. Das ist dann aber auch schon wieder alles, was bei diesem System spannend ist. 4 2.0 Lanes sind selbst für SSDs heute nicht mehr wirklich schnell. Oder wie andere es bereits geschrieben haben: Gibt uns das Ding mit 16-24CUs und vertickt es als teildefekt und die Dinger würden gut weg gehen. So wird das hierzulande mehr "Abfall" als alles andere sein.
 
Je mehr du in die CPU packst (CPU, Speichercontroller, GPU, RAM) umsomehr hast du halt ein Hitzeproblem. Ja, mit HBM wäre es noch kompakter, aber dann würde TDP opfern die man in CPU/GPU stecken könnte. Gerade wenn du auf wenig Platz so viel GPU wie möglich und nur so viel CPU wie nötig packen willst, dann darf der RAM ruhig in einiger Entfernung gesteckt oder verlötet sein.
Alles unter einen Heatspreader zu packen macht die Kühlung leichter als heute möglich. Man schaue sich nur an, wie große Probleme Speicherkühlung bei Grakas manchmal hervorruft, obwohl der gar nicht so viel Abwärme produziert. Direkt unterm Heatspreader braucht man dann einfach nur eine fette Coldplate und alles ist Villa Palleti.
 
Willkommen auf "Next-Gen"-Resterampe!
Wenn diese Boards weggehen sollen, dann muss wirklich ein attraktiver Preis her.
 
Die Zukunft sehe ich so:
Ein Chip auf dem Mainbaord, GDDR6/7 fest verlötet, 1-2 RAM Slots für optional mehr DDR5/6 RAM, 1-2 Slots für M.2. Dazu vielleicht ein PCIe 16x und 1PCIe 1x. Das Design als Konkurrent zu allen Karten im Leistungsbereich den wir als 3050 - 3070 bezeichnen würden. Keine 500€ PCs mit 100€ CPU und 250€ GPU mehr, das wird in der Stückzahl stark zurückgehen. Im preisbereich ab 1500€, da wird man vielleicht seine PC noch so bauen wie heute. Mit großem CPU Kühler, großem GPU Kühler, viel GPU RAM, viel CPU RAM und vielen Anschlüssen die am Ende keiner je benutzt.
Du machst mir Angst.

Genau die Bastelei mit günstigen Komponenten finde ich grade toll. Man kann (wenn es der Markt wieder zulässt) für wenig Geld ein tolles System bauen. Nach den eigenen Anforderungen. Hoffentlich kommt es nicht so wie du beschrieben hast.
 
Wirklich interessant wäre die Resteverwertung eines SoCs gewesen mit bspw. nur 20 oder 30 CUs. Vermutlich scheinen die Verträge mit Sony/Microsoft so etwas aber nicht herzugeben, und so muss die iGPU anscheinend komplett deaktiviert werden.

Zudem fast noch interessanter wäre gewesen, wenn das SoC aus der PS5-Fertigung stammen würde, denn dann könnte man sich mal ansehen, wie Sony/AMD hier die FP-Funktionalität beschnitten haben, die man im Die Shot des PS5-SoCs erkennen konnte.

GPUs brauchen Treibersupport, CPUs nicht. End of Story.

Zur SoC-Quelle: Ich tippe eher auf Xbox, denn die PS5 hat meinem Wissen nach mindestens zwei PCI-E-×4-Links für die SSDs, während hier offensichtlich schon nach vier Lanes das Ende der Fahnenstange erreicht war, was zur Series X passt. (Respektive: Inkl. SATA vermutlich 6 Ports, was unter Berücksichtigung von LAN und WLAN zu einem 8er Controller passt.)

Merkwürdig ist aber die Beschränkung auf PCI-E 2.0. Alle in Frage kommenden SoCs unterstützen 4.0 und eine derartige Einschränung kann sich weder aus Defekten noch aus Qualitätsschwankungen ergeben. Ein 4.0-fähiges Design sollte auch am unteren Ende der Serienstreuung wenigstens 3.0 schaffen oder ganz ausfallen.


Lustigerweise ist auf der AMD Produkseite, wo der Typ im PC rumfummelt, ein Intel CPU Kühler mit Push Pins zu sehen. Bei AMD waren die Bilder von den eigenen CPUs wohl gerade aus. :haha::stick:

:-D
Vielleicht wollte der Bastler ein System mit IGP? Am I/O-Panel kann man einen Display Port erahnen.


In der Form ist es wirklich irgendwo zwischen Ausschuss und nutzlos. Vor allem der GDDR6 Speicher ist halt total verschwendet ohne iGPU.

Mit aktivierter Konsolen GPU wäre das Ding der Hammer und würde mit einem Schlag die kompletten Ryzen G-Modelle mit ihren Vega 8CU Krüppel GPUs nutzlos machen.

Noch verbaut Intel seine DG1 und DG2 Karten separat im Gehäuse, aber die Konsolen zeigen längst wohin die Reise geht am PC: ein Chip und nur einmal RAM.

Intel ist nicht annähernd in der Leistungsklasse der Konsolen unterwegs und diese sind auch kein Vorbild für den PC. Konsolen SoC sind GPUs mit VRAM und ein paar CPU-Kernen, weil man halt nicht ganz drauf verzichten kann, aber nun wirklich keinen extra Chip mit extra Speicher-Interface dafür braucht. Das ist beim typischen PC definitiv anders; da kann man eher auf eine GPU mit eigenem Speicher verzichten. (Und macht das auch seit einer Zeit, alles es noch gar keine GPUs gab.)
 
Du machst mir Angst.

Genau die Bastelei mit günstigen Komponenten finde ich grade toll. Man kann (wenn es der Markt wieder zulässt) für wenig Geld ein tolles System bauen. Nach den eigenen Anforderungen. Hoffentlich kommt es nicht so wie du beschrieben hast.
Jeglicher Kahlschlag des LowEnd tut gerade dem, was du magst, besonders gut. Der Druck sorgt dafür, dass mehr am Rande des technisch machbaren gebaut wird, was dann lange im Gebrauchtmarkt verbleibt und langfristig im Preis fällt.

Insbesondere eine Verlagerung des HighPerformanceRAM nahe an die APU ran würde dafür sorgen, dass die DIMMs stark in ihrer Durchschnittskapazität wachsen würden. Wenn man z.B. schon 16GiB OnPackage hat, werden 8GiB-DIMMs kaum mehr Sinn ergeben. Leute werden sich gar keine DIMMs kaufen --- oder HochkapazitätsDIMMs.

Dadurch, dass AMD die Boxedkühler ein wenig* gepushed hat, wurde der CPU-Kühlermarkt ja jetzt auch nicht weniger, sondern stärker selbstbaufreundlich.

*sollten sie und Intel übrigens bei LGA1700 und AM5 fortsetzen.
 
Nach aktuellem Stand nein; es sei denn, du würdest einen 3600 auch als Elektromüll bezeichnen.
Ja, die fehlende iGPU und die schwache sonstige Ausstattung schränken den Nutzen ein. Aber sie schränken ihn eben bloß ein und sorgen nicht etwa dafür, dass er vollkommen verschwindet.

Kein rundes Paket, das kann hingegen als sinnvolle Bezeichnung durchgehen. :daumen:
Ich würde das nicht mit einem 3600 vergleichen, denn soweit ich den Artikel richtig verstanden habe ist man auf das Mainboard limitiert und das Board ist ziemlich schlecht.
 
@CD LABS: Radon Project:

Um das nochmal klarzustellen: Mit "Lowend" meine ich so etwas wie das System in meiner Signatur. Ich rede nicht von gebrauchten Teilen.

Vielleicht reden wir grade aneinander vorbei. :)
 
Das ist beim typischen PC definitiv anders; da kann man eher auf eine GPU mit eigenem Speicher verzichten. (Und macht das auch seit einer Zeit, alles es noch gar keine GPUs gab.)

FPU war mal ein extra Chip bevor er in die CPU gewandert ist.
Memory Controller war mal ein extra Chip bevor er in die CPU gewandert ist.
Low TDP Grafik war mal eine extra Karte bevor es auf das Mainboard und dann in die i-Serie gewandert ist.

Für die Zeit zwischen 1995 und 2015 geb ich dir auch Recht, da ist selbst im Office Bereich der CPU Hunger der Software stark gestiegen. Aber inzwischen ist der Unterschied zwischen Intel 8th Gen und Intel 10th Gen, der Unterschied, ob der Office PC im Schnitt bei 5% oder bei 4,5% Auslastung ist.

Irgendetwas wird sich auch Intel ausdenken müssen, wenn sie weiter große Stückzahlen an Firmen und Elektromärkte pushen wollen. Erst ist die TDP von 100W auf 20W geschrumpft und die PCs immer kleiner geworden, jetzt geht die TDP vielleicht etwas nach oben und die GPU Leistung steht im Marketingfokus. Man wird es nicht Gaming nennen, sondern eher den "AI-Support" in den Vordergrund rücken für Sprachsteuerungen, Urlaubsphotos und anderen fragwürdigen Casualkram.

Die Apple Gerüchte sagen auch vorraus, dass bei den MacPro Varianten die GPU Leistung viel stärker skaliert wird als die CPU Leistung. Wenn AMD und Intel verhindern wollen, dass ihnen Apple auf dem Desktop ähnlich viele Marktanteile abjagt wie im Laptopsegment, dann wird sich da etwas tun müssen. Vorher war das halt auch nicht der Fall, weil Intel hat auch Apple beliefert und es ihnen egal sein konnte was der Endverbraucher kauft. Apple oder Asus, Hauptsache Intel; doch das ist jetzt anders.
 
@CD LABS: Radon Project:

Um das nochmal klarzustellen: Mit "Lowend" meine ich so etwas wie das System in meiner Signatur. Ich rede nicht von gebrauchten Teilen.

Vielleicht reden wir grade aneinander vorbei. :)
Würde ich jetzt eher Midrange nennen, aber das macht ja nichts.
Was jetzt folgt ist nur ein Gedankenspiel mit der ganz unrealistischen Annahme, AMD würde im nächsten Jahr den Sprung zur Chiplet-APU schaffen. Dann gäbe es als Wechselangebot für dich zum Beispiel eine APU mit acht Zen4-Kernen, ein bis zwei Chiplets mit jeweils 40 RadeonDNA-3-CU, ein bis zwei RayDNA-Raytracing-Chiplets und 32 bis 64GiB HBM2X. Das Ding hätte aber gleichzeitig einen DDR5-Server-DIMM-Slot, in den du noch Server-DDR5 reinstopfen könntest. Dann würdest du dir halt kaufen, was du in dem Moment willst und nachdem dann zwei Jahre später RAM-Kapazitäten und RAM-Support in Software ordentlich gewachsen sind, steckst du dir noch einen 128GiB, 256GiB oder 512GiB-Riegel dazu.

Also das ist jetzt natürlich viel (zum Beispiel RayDNA oder HBM2X) aus den Fingern gesogen, aber so etwas ist nun einmal möglich, wenn man ein nachvollziehbares, wenn auch nicht realistisches, Szenario bauen möchte.
 
Da ich geizig bin würde ich eh erst aufrüsten wenn nix mehr gut (60 fps/low bei 1080p) geht. Also in 5 Jahren oder so. :fresse:
Gegen eine APU habe ich nix, sofern es einen PCIe-Slot gibt. Ram habe ich bei meinen alten Systemen auch nachgerüstet, wenn die Preise gefallen sind. Mit einem weiteren Slot wäre das Aufrüsten ja ok.

Aber was ist wenn ein Bauteil den Geist aufgibt? Dann kann die ganze Platine in den Müll. Ich hab gerne die Möglichkeit Teile modular zu tauschen, wenn nötig. SMD löten ist nicht mein Ding.

Das ist es was mir daran nicht gefällt.
 
Insbesondere eine Verlagerung des HighPerformanceRAM nahe an die APU ran würde dafür sorgen, dass die DIMMs stark in ihrer Durchschnittskapazität wachsen würden. Wenn man z.B. schon 16GiB OnPackage hat, werden 8GiB-DIMMs kaum mehr Sinn ergeben. Leute werden sich gar keine DIMMs kaufen --- oder HochkapazitätsDIMMs.

Hat keine Zukunft, das konnte man schon bei Kaby Lake G sehen.

IGPs sind gut, um die Gurkenkarten zu ersetzen. Man kann damit wohl gut 30-40€ einsparen, das ist der Preisvortreil. So wie es etwas anspruchsvoller ist, wird die mangelnde Flexibilität zu Verhängnis.
 
FPU war mal ein extra Chip bevor er in die CPU gewandert ist.
Memory Controller war mal ein extra Chip bevor er in die CPU gewandert ist.
Low TDP Grafik war mal eine extra Karte bevor es auf das Mainboard und dann in die i-Serie gewandert ist.

Für die Zeit zwischen 1995 und 2015 geb ich dir auch Recht, da ist selbst im Office Bereich der CPU Hunger der Software stark gestiegen. Aber inzwischen ist der Unterschied zwischen Intel 8th Gen und Intel 10th Gen, der Unterschied, ob der Office PC im Schnitt bei 5% oder bei 4,5% Auslastung ist.

Irgendetwas wird sich auch Intel ausdenken müssen, wenn sie weiter große Stückzahlen an Firmen und Elektromärkte pushen wollen. Erst ist die TDP von 100W auf 20W geschrumpft und die PCs immer kleiner geworden, jetzt geht die TDP vielleicht etwas nach oben und die GPU Leistung steht im Marketingfokus. Man wird es nicht Gaming nennen, sondern eher den "AI-Support" in den Vordergrund rücken für Sprachsteuerungen, Urlaubsphotos und anderen fragwürdigen Casualkram.

Die Apple Gerüchte sagen auch vorraus, dass bei den MacPro Varianten die GPU Leistung viel stärker skaliert wird als die CPU Leistung. Wenn AMD und Intel verhindern wollen, dass ihnen Apple auf dem Desktop ähnlich viele Marktanteile abjagt wie im Laptopsegment, dann wird sich da etwas tun müssen. Vorher war das halt auch nicht der Fall, weil Intel hat auch Apple beliefert und es ihnen egal sein konnte was der Endverbraucher kauft. Apple oder Asus, Hauptsache Intel; doch das ist jetzt anders.

Die im Laufe der Zeit intergrierten Komponenten hatten alle eins gemeinsam: Sie wurden in praktisch jedem PC genutzt, waren also sowieso immer vorhanden, und das auch überall in ähnlichem Maße respektive in gleichem Verhältnis zu den Kernfunktionen der CPU. Also ohne Bedarf an CPU-unabhängiger Skalierung. Das ist bei GPUs definitiv komplett anders und bei KI-Einsatz sowieso. Ganz abgesehen davon, dass sich Beschleuniger für letzeres sowohl bei Training als auch Interferencing immer weiter von GPUs lösen und spezialisieren.

Beim Duell mit Apple bleibt der Ausgang abzuwarten. Aktuell steht der M1 meinen Wissen nach bei unter 1 Prozent – und das in Geräten, deren Vorgänger bereits sehr wenig Skalierungsmöglichkeiten boten.
 
GPUs brauchen Treibersupport, CPUs nicht. End of Story.

Zur SoC-Quelle: Ich tippe eher auf Xbox, denn die PS5 hat meinem Wissen nach mindestens zwei PCI-E-×4-Links für die SSDs, während hier offensichtlich schon nach vier Lanes das Ende der Fahnenstange erreicht war, was zur Series X passt. (Respektive: Inkl. SATA vermutlich 6 Ports, was unter Berücksichtigung von LAN und WLAN zu einem 8er Controller passt.)

Merkwürdig ist aber die Beschränkung auf PCI-E 2.0. Alle in Frage kommenden SoCs unterstützen 4.0 und eine derartige Einschränung kann sich weder aus Defekten noch aus Qualitätsschwankungen ergeben. Ein 4.0-fähiges Design sollte auch am unteren Ende der Serienstreuung wenigstens 3.0 schaffen oder ganz ausfallen.
Die PS5 verwendet nur 4x PCIe4 Lanes für die SSD und hat auf dem die auch nicht mehr:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Flickr. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

CPU-Z-Einträge verraten das es der PS5-SoC ist:
https://forum.planet3dnow.de/index....omplett-pcs-update.444900/page-2#post-5348935
 
Hat keine Zukunft, das konnte man schon bei Kaby Lake G sehen.
Mir würde sehr wenige Theorien einfallen, für deren Begründung man KabyLake-G heranziehen könnte, außer vielleicht für in der Hardwarebranche sind auch skurrile Projekte möglich...
...das Ding wurde quasi nur für einen Einzug ins Kuriositätenkabinett gelaunched. Die Zahl der ernsthaften Produkte war marginal bis nicht erkennbar, das Marketing mWn. nonexistent und lange ausgeliefert wurden die Systeme auch nicht. Das sorgt in Kombination dafür, dass man mit KabyLake-G argumentativ "gar nichts" anfangen kann.
 
Mir würde sehr wenige Theorien einfallen, für deren Begründung man KabyLake-G heranziehen könnte, außer vielleicht für in der Hardwarebranche sind auch skurrile Projekte möglich...
...das Ding wurde quasi nur für einen Einzug ins Kuriositätenkabinett gelaunched. Die Zahl der ernsthaften Produkte war marginal bis nicht erkennbar, das Marketing mWn. nonexistent und lange ausgeliefert wurden die Systeme auch nicht. Das sorgt in Kombination dafür, dass man mit KabyLake-G argumentativ "gar nichts" anfangen kann.

Der Punkt, den man bei Kaby Lake G das Problem sehr gut zeigt. Man braucht einfach eine Kundschaft, die genau das möchte. Kaby Lake G hatte nur 4GB RAM, das war schon damals nicht üppig. Dann war Kaby Lake G auch nicht ganz so schnell, wie ein i7 7700K. Dann haben sich GPU und CPU dank gemeinsamen TDP Budget auch noch gegenseitig erwürgt.

Man brauchte also eine sehr spezielle Kundschaft. Die einerseits deutlich mehr Leistung wünscht, als es die normalen IGPs bieten, die aber andererseits mit den diversen Nachteilen leben können. Auch darf die Kundschaft nicht zu anspruchsvoll sein und mir dem leben, was man ihr vorsetzt.

Das sind am Ende sehr wenige und deshalb lohnt es sich auch nicht. Oberhalb einer gewissen Marke ist es deutlich besser, auf eine dediziere CPU und GPU zu setzen, da man wesentlich flexibler ist.

Schnelle IGPs werden wohl auch weiterhin im Kuriositätenkabinett bleiben.
 
Der Punkt, den man bei Kaby Lake G das Problem sehr gut zeigt. Man braucht einfach eine Kundschaft, die genau das möchte. Kaby Lake G hatte nur 4GB RAM, das war schon damals nicht üppig. Dann war Kaby Lake G auch nicht ganz so schnell, wie ein i7 7700K. Dann haben sich GPU und CPU dank gemeinsamen TDP Budget auch noch gegenseitig erwürgt.
Bei KabyLake-G hatte die Radeon-dGPU 4GiB VRAM, der Intel-APU-Part nutzte DDR4 und davon übliche Größen. Man sollte nie vergessen, KabyLake-G war kein Startpunkt für eine Chiplet-APU...
...das war eine APU mit einer zusätzlichen dGPU.
Man brauchte also eine sehr spezielle Kundschaft.
Anscheinend brauchte man eher so gut wie gar keine Endkundschaft. Ich weiß nicht wieso, aber Intel wollte dieses Experiment anscheinend auf Grund irgendwelcher internen Abläufe und Kostenrechnungen zur Serienreife bringen. Mehr hatten sie damit anscheinend nie vor. Wieso das ganze, keine Ahnung.

Plausibel erscheint, dass das eigentlich eine Spezialentwicklung für Apple hätte werden sollen, die ja immer Intel-AMD-Kombis eingesetzt haben. Dazu hätte die kompakte Bauweise gepasst.
Vergleiche auch zeitgenössische Abgesänge: https://www.golem.de/news/kaby-lake-g-intels-amd-chip-wird-eingestellt-1910-144324.html

Womöglich wollten sie die Macht des faktischen sprechen lassen, doch da kannten sie Apple wohl schlecht. Womöglich, denn das ist üble Spekulation und hat mit dem eigentlichen Thema wenig zu tun. Auf jeden Fall gelangte KabyLake-G auch quasi nicht in die Hände von Kundschaft gelangte.

Edit: Zu der generellen APU-Frage wird Apple auch noch einiges zu sagen haben --- klar, wie es mit dem MacPro aussehen wird, ist noch unklar; aber der Rest des Portfolios wird sicherlich APUisiert. Da wird die x86-Windowswelt gucken müssen, wo sie bleibt.
 
Zuletzt bearbeitet:
Bei KabyLake-G hatte die Radeon-dGPU 4GiB VRAM, der Intel-APU-Part nutzte DDR4 und davon übliche Größen. Man sollte nie vergessen, KabyLake-G war kein Startpunkt für eine Chiplet-APU...
...das war eine APU mit einer zusätzlichen dGPU.

Das ist mir klar, dennoch waren 4GB VRAM damals nicht gerade üppig.

Anscheinend brauchte man eher so gut wie gar keine Endkundschaft. Ich weiß nicht wieso, aber Intel wollte dieses Experiment anscheinend auf Grund irgendwelcher internen Abläufe und Kostenrechnungen zur Serienreife bringen. Mehr hatten sie damit anscheinend nie vor. Wieso das ganze, keine Ahnung.

Für normale PCs war das ganze einfach viel zu teuer. Man spart sich mit dem Ansatz bestenfalls 30-40€ Das fallt bei den Gurkenkarten unglaublich ins Gewicht. Bei den höheren Leistungsklassen wird das ganze gegenüber den ganzen Nachteilen irrelevant. Man fährt mit einer dedizierten CPU und GPU einfach wesentlich besser, selbst bei einem Laptop.

Toll waren der NUC8i7HVK, das Teil war echt cool, besonders der beleuchtete Schädel und dass es so schön kompakt war. Wenn man allerdings nur die Leistung verglichen hat, dann war ein i7 8700K und eine GTX 1070 um Welten besser und sogar billiger.

Ich verstehe, dass du sowas gerne haben willst, es rechnet sich jedoch aufgrund der Nachteile nicht und wird sich wohl auch niemals rechnen. Es ist einfach kein ökonomisch sinnvolles Konzept. Theoretisch könnte man den Einheitsgaming PC bauen und damit 20-40€ sparen, wenn man davon Millionen absetzen kann. Wird aber nicht geschehen.
 
Zurück