• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD 4700S DIY-Kit: AMD macht DIY-Kit für den Desktop mit Konsolen-CPU und GDD6 offiziell

der_flamur

Software-Overclocker(in)
Wir sind zwar bei PC Games Hardware, dennoch würde mich mal brennend interessieren, wie sich GDDR6-Speicher im Alltagsaufgaben schlägt, bsp. Zip-Komprimierung. Das ist dann aber auch schon wieder alles, was bei diesem System spannend ist. 4 2.0 Lanes sind selbst für SSDs heute nicht mehr wirklich schnell. Oder wie andere es bereits geschrieben haben: Gibt uns das Ding mit 16-24CUs und vertickt es als teildefekt und die Dinger würden gut weg gehen. So wird das hierzulande mehr "Abfall" als alles andere sein.
 

CD LABS: Radon Project

Volt-Modder(in)
Je mehr du in die CPU packst (CPU, Speichercontroller, GPU, RAM) umsomehr hast du halt ein Hitzeproblem. Ja, mit HBM wäre es noch kompakter, aber dann würde TDP opfern die man in CPU/GPU stecken könnte. Gerade wenn du auf wenig Platz so viel GPU wie möglich und nur so viel CPU wie nötig packen willst, dann darf der RAM ruhig in einiger Entfernung gesteckt oder verlötet sein.
Alles unter einen Heatspreader zu packen macht die Kühlung leichter als heute möglich. Man schaue sich nur an, wie große Probleme Speicherkühlung bei Grakas manchmal hervorruft, obwohl der gar nicht so viel Abwärme produziert. Direkt unterm Heatspreader braucht man dann einfach nur eine fette Coldplate und alles ist Villa Palleti.
 

user42

Freizeitschrauber(in)
Willkommen auf "Next-Gen"-Resterampe!
Wenn diese Boards weggehen sollen, dann muss wirklich ein attraktiver Preis her.
 

cx19

PC-Selbstbauer(in)
Die Zukunft sehe ich so:
Ein Chip auf dem Mainbaord, GDDR6/7 fest verlötet, 1-2 RAM Slots für optional mehr DDR5/6 RAM, 1-2 Slots für M.2. Dazu vielleicht ein PCIe 16x und 1PCIe 1x. Das Design als Konkurrent zu allen Karten im Leistungsbereich den wir als 3050 - 3070 bezeichnen würden. Keine 500€ PCs mit 100€ CPU und 250€ GPU mehr, das wird in der Stückzahl stark zurückgehen. Im preisbereich ab 1500€, da wird man vielleicht seine PC noch so bauen wie heute. Mit großem CPU Kühler, großem GPU Kühler, viel GPU RAM, viel CPU RAM und vielen Anschlüssen die am Ende keiner je benutzt.
Du machst mir Angst.

Genau die Bastelei mit günstigen Komponenten finde ich grade toll. Man kann (wenn es der Markt wieder zulässt) für wenig Geld ein tolles System bauen. Nach den eigenen Anforderungen. Hoffentlich kommt es nicht so wie du beschrieben hast.
 

PCGH_Torsten

Redaktion
Teammitglied
Wirklich interessant wäre die Resteverwertung eines SoCs gewesen mit bspw. nur 20 oder 30 CUs. Vermutlich scheinen die Verträge mit Sony/Microsoft so etwas aber nicht herzugeben, und so muss die iGPU anscheinend komplett deaktiviert werden.

Zudem fast noch interessanter wäre gewesen, wenn das SoC aus der PS5-Fertigung stammen würde, denn dann könnte man sich mal ansehen, wie Sony/AMD hier die FP-Funktionalität beschnitten haben, die man im Die Shot des PS5-SoCs erkennen konnte.

GPUs brauchen Treibersupport, CPUs nicht. End of Story.

Zur SoC-Quelle: Ich tippe eher auf Xbox, denn die PS5 hat meinem Wissen nach mindestens zwei PCI-E-×4-Links für die SSDs, während hier offensichtlich schon nach vier Lanes das Ende der Fahnenstange erreicht war, was zur Series X passt. (Respektive: Inkl. SATA vermutlich 6 Ports, was unter Berücksichtigung von LAN und WLAN zu einem 8er Controller passt.)

Merkwürdig ist aber die Beschränkung auf PCI-E 2.0. Alle in Frage kommenden SoCs unterstützen 4.0 und eine derartige Einschränung kann sich weder aus Defekten noch aus Qualitätsschwankungen ergeben. Ein 4.0-fähiges Design sollte auch am unteren Ende der Serienstreuung wenigstens 3.0 schaffen oder ganz ausfallen.


Lustigerweise ist auf der AMD Produkseite, wo der Typ im PC rumfummelt, ein Intel CPU Kühler mit Push Pins zu sehen. Bei AMD waren die Bilder von den eigenen CPUs wohl gerade aus. :haha::stick:

:-D
Vielleicht wollte der Bastler ein System mit IGP? Am I/O-Panel kann man einen Display Port erahnen.


In der Form ist es wirklich irgendwo zwischen Ausschuss und nutzlos. Vor allem der GDDR6 Speicher ist halt total verschwendet ohne iGPU.

Mit aktivierter Konsolen GPU wäre das Ding der Hammer und würde mit einem Schlag die kompletten Ryzen G-Modelle mit ihren Vega 8CU Krüppel GPUs nutzlos machen.

Noch verbaut Intel seine DG1 und DG2 Karten separat im Gehäuse, aber die Konsolen zeigen längst wohin die Reise geht am PC: ein Chip und nur einmal RAM.

Intel ist nicht annähernd in der Leistungsklasse der Konsolen unterwegs und diese sind auch kein Vorbild für den PC. Konsolen SoC sind GPUs mit VRAM und ein paar CPU-Kernen, weil man halt nicht ganz drauf verzichten kann, aber nun wirklich keinen extra Chip mit extra Speicher-Interface dafür braucht. Das ist beim typischen PC definitiv anders; da kann man eher auf eine GPU mit eigenem Speicher verzichten. (Und macht das auch seit einer Zeit, alles es noch gar keine GPUs gab.)
 

CD LABS: Radon Project

Volt-Modder(in)
Du machst mir Angst.

Genau die Bastelei mit günstigen Komponenten finde ich grade toll. Man kann (wenn es der Markt wieder zulässt) für wenig Geld ein tolles System bauen. Nach den eigenen Anforderungen. Hoffentlich kommt es nicht so wie du beschrieben hast.
Jeglicher Kahlschlag des LowEnd tut gerade dem, was du magst, besonders gut. Der Druck sorgt dafür, dass mehr am Rande des technisch machbaren gebaut wird, was dann lange im Gebrauchtmarkt verbleibt und langfristig im Preis fällt.

Insbesondere eine Verlagerung des HighPerformanceRAM nahe an die APU ran würde dafür sorgen, dass die DIMMs stark in ihrer Durchschnittskapazität wachsen würden. Wenn man z.B. schon 16GiB OnPackage hat, werden 8GiB-DIMMs kaum mehr Sinn ergeben. Leute werden sich gar keine DIMMs kaufen --- oder HochkapazitätsDIMMs.

Dadurch, dass AMD die Boxedkühler ein wenig* gepushed hat, wurde der CPU-Kühlermarkt ja jetzt auch nicht weniger, sondern stärker selbstbaufreundlich.

*sollten sie und Intel übrigens bei LGA1700 und AM5 fortsetzen.
 

Silverfalcon

PC-Selbstbauer(in)
Nach aktuellem Stand nein; es sei denn, du würdest einen 3600 auch als Elektromüll bezeichnen.
Ja, die fehlende iGPU und die schwache sonstige Ausstattung schränken den Nutzen ein. Aber sie schränken ihn eben bloß ein und sorgen nicht etwa dafür, dass er vollkommen verschwindet.

Kein rundes Paket, das kann hingegen als sinnvolle Bezeichnung durchgehen. :daumen:
Ich würde das nicht mit einem 3600 vergleichen, denn soweit ich den Artikel richtig verstanden habe ist man auf das Mainboard limitiert und das Board ist ziemlich schlecht.
 

cx19

PC-Selbstbauer(in)
@CD LABS: Radon Project:

Um das nochmal klarzustellen: Mit "Lowend" meine ich so etwas wie das System in meiner Signatur. Ich rede nicht von gebrauchten Teilen.

Vielleicht reden wir grade aneinander vorbei. :)
 

4thVariety

Software-Overclocker(in)
Das ist beim typischen PC definitiv anders; da kann man eher auf eine GPU mit eigenem Speicher verzichten. (Und macht das auch seit einer Zeit, alles es noch gar keine GPUs gab.)

FPU war mal ein extra Chip bevor er in die CPU gewandert ist.
Memory Controller war mal ein extra Chip bevor er in die CPU gewandert ist.
Low TDP Grafik war mal eine extra Karte bevor es auf das Mainboard und dann in die i-Serie gewandert ist.

Für die Zeit zwischen 1995 und 2015 geb ich dir auch Recht, da ist selbst im Office Bereich der CPU Hunger der Software stark gestiegen. Aber inzwischen ist der Unterschied zwischen Intel 8th Gen und Intel 10th Gen, der Unterschied, ob der Office PC im Schnitt bei 5% oder bei 4,5% Auslastung ist.

Irgendetwas wird sich auch Intel ausdenken müssen, wenn sie weiter große Stückzahlen an Firmen und Elektromärkte pushen wollen. Erst ist die TDP von 100W auf 20W geschrumpft und die PCs immer kleiner geworden, jetzt geht die TDP vielleicht etwas nach oben und die GPU Leistung steht im Marketingfokus. Man wird es nicht Gaming nennen, sondern eher den "AI-Support" in den Vordergrund rücken für Sprachsteuerungen, Urlaubsphotos und anderen fragwürdigen Casualkram.

Die Apple Gerüchte sagen auch vorraus, dass bei den MacPro Varianten die GPU Leistung viel stärker skaliert wird als die CPU Leistung. Wenn AMD und Intel verhindern wollen, dass ihnen Apple auf dem Desktop ähnlich viele Marktanteile abjagt wie im Laptopsegment, dann wird sich da etwas tun müssen. Vorher war das halt auch nicht der Fall, weil Intel hat auch Apple beliefert und es ihnen egal sein konnte was der Endverbraucher kauft. Apple oder Asus, Hauptsache Intel; doch das ist jetzt anders.
 

CD LABS: Radon Project

Volt-Modder(in)
@CD LABS: Radon Project:

Um das nochmal klarzustellen: Mit "Lowend" meine ich so etwas wie das System in meiner Signatur. Ich rede nicht von gebrauchten Teilen.

Vielleicht reden wir grade aneinander vorbei. :)
Würde ich jetzt eher Midrange nennen, aber das macht ja nichts.
Was jetzt folgt ist nur ein Gedankenspiel mit der ganz unrealistischen Annahme, AMD würde im nächsten Jahr den Sprung zur Chiplet-APU schaffen. Dann gäbe es als Wechselangebot für dich zum Beispiel eine APU mit acht Zen4-Kernen, ein bis zwei Chiplets mit jeweils 40 RadeonDNA-3-CU, ein bis zwei RayDNA-Raytracing-Chiplets und 32 bis 64GiB HBM2X. Das Ding hätte aber gleichzeitig einen DDR5-Server-DIMM-Slot, in den du noch Server-DDR5 reinstopfen könntest. Dann würdest du dir halt kaufen, was du in dem Moment willst und nachdem dann zwei Jahre später RAM-Kapazitäten und RAM-Support in Software ordentlich gewachsen sind, steckst du dir noch einen 128GiB, 256GiB oder 512GiB-Riegel dazu.

Also das ist jetzt natürlich viel (zum Beispiel RayDNA oder HBM2X) aus den Fingern gesogen, aber so etwas ist nun einmal möglich, wenn man ein nachvollziehbares, wenn auch nicht realistisches, Szenario bauen möchte.
 

cx19

PC-Selbstbauer(in)
Da ich geizig bin würde ich eh erst aufrüsten wenn nix mehr gut (60 fps/low bei 1080p) geht. Also in 5 Jahren oder so. :fresse:
Gegen eine APU habe ich nix, sofern es einen PCIe-Slot gibt. Ram habe ich bei meinen alten Systemen auch nachgerüstet, wenn die Preise gefallen sind. Mit einem weiteren Slot wäre das Aufrüsten ja ok.

Aber was ist wenn ein Bauteil den Geist aufgibt? Dann kann die ganze Platine in den Müll. Ich hab gerne die Möglichkeit Teile modular zu tauschen, wenn nötig. SMD löten ist nicht mein Ding.

Das ist es was mir daran nicht gefällt.
 

Pu244

Lötkolbengott/-göttin
Insbesondere eine Verlagerung des HighPerformanceRAM nahe an die APU ran würde dafür sorgen, dass die DIMMs stark in ihrer Durchschnittskapazität wachsen würden. Wenn man z.B. schon 16GiB OnPackage hat, werden 8GiB-DIMMs kaum mehr Sinn ergeben. Leute werden sich gar keine DIMMs kaufen --- oder HochkapazitätsDIMMs.

Hat keine Zukunft, das konnte man schon bei Kaby Lake G sehen.

IGPs sind gut, um die Gurkenkarten zu ersetzen. Man kann damit wohl gut 30-40€ einsparen, das ist der Preisvortreil. So wie es etwas anspruchsvoller ist, wird die mangelnde Flexibilität zu Verhängnis.
 

PCGH_Torsten

Redaktion
Teammitglied
FPU war mal ein extra Chip bevor er in die CPU gewandert ist.
Memory Controller war mal ein extra Chip bevor er in die CPU gewandert ist.
Low TDP Grafik war mal eine extra Karte bevor es auf das Mainboard und dann in die i-Serie gewandert ist.

Für die Zeit zwischen 1995 und 2015 geb ich dir auch Recht, da ist selbst im Office Bereich der CPU Hunger der Software stark gestiegen. Aber inzwischen ist der Unterschied zwischen Intel 8th Gen und Intel 10th Gen, der Unterschied, ob der Office PC im Schnitt bei 5% oder bei 4,5% Auslastung ist.

Irgendetwas wird sich auch Intel ausdenken müssen, wenn sie weiter große Stückzahlen an Firmen und Elektromärkte pushen wollen. Erst ist die TDP von 100W auf 20W geschrumpft und die PCs immer kleiner geworden, jetzt geht die TDP vielleicht etwas nach oben und die GPU Leistung steht im Marketingfokus. Man wird es nicht Gaming nennen, sondern eher den "AI-Support" in den Vordergrund rücken für Sprachsteuerungen, Urlaubsphotos und anderen fragwürdigen Casualkram.

Die Apple Gerüchte sagen auch vorraus, dass bei den MacPro Varianten die GPU Leistung viel stärker skaliert wird als die CPU Leistung. Wenn AMD und Intel verhindern wollen, dass ihnen Apple auf dem Desktop ähnlich viele Marktanteile abjagt wie im Laptopsegment, dann wird sich da etwas tun müssen. Vorher war das halt auch nicht der Fall, weil Intel hat auch Apple beliefert und es ihnen egal sein konnte was der Endverbraucher kauft. Apple oder Asus, Hauptsache Intel; doch das ist jetzt anders.

Die im Laufe der Zeit intergrierten Komponenten hatten alle eins gemeinsam: Sie wurden in praktisch jedem PC genutzt, waren also sowieso immer vorhanden, und das auch überall in ähnlichem Maße respektive in gleichem Verhältnis zu den Kernfunktionen der CPU. Also ohne Bedarf an CPU-unabhängiger Skalierung. Das ist bei GPUs definitiv komplett anders und bei KI-Einsatz sowieso. Ganz abgesehen davon, dass sich Beschleuniger für letzeres sowohl bei Training als auch Interferencing immer weiter von GPUs lösen und spezialisieren.

Beim Duell mit Apple bleibt der Ausgang abzuwarten. Aktuell steht der M1 meinen Wissen nach bei unter 1 Prozent – und das in Geräten, deren Vorgänger bereits sehr wenig Skalierungsmöglichkeiten boten.
 

Locuza

Lötkolbengott/-göttin
GPUs brauchen Treibersupport, CPUs nicht. End of Story.

Zur SoC-Quelle: Ich tippe eher auf Xbox, denn die PS5 hat meinem Wissen nach mindestens zwei PCI-E-×4-Links für die SSDs, während hier offensichtlich schon nach vier Lanes das Ende der Fahnenstange erreicht war, was zur Series X passt. (Respektive: Inkl. SATA vermutlich 6 Ports, was unter Berücksichtigung von LAN und WLAN zu einem 8er Controller passt.)

Merkwürdig ist aber die Beschränkung auf PCI-E 2.0. Alle in Frage kommenden SoCs unterstützen 4.0 und eine derartige Einschränung kann sich weder aus Defekten noch aus Qualitätsschwankungen ergeben. Ein 4.0-fähiges Design sollte auch am unteren Ende der Serienstreuung wenigstens 3.0 schaffen oder ganz ausfallen.
Die PS5 verwendet nur 4x PCIe4 Lanes für die SSD und hat auf dem die auch nicht mehr:
Recommented content - Flickr An dieser Stelle findest du externe Inhalte von Flickr. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

CPU-Z-Einträge verraten das es der PS5-SoC ist:
https://forum.planet3dnow.de/index....omplett-pcs-update.444900/page-2#post-5348935
 

CD LABS: Radon Project

Volt-Modder(in)
Hat keine Zukunft, das konnte man schon bei Kaby Lake G sehen.
Mir würde sehr wenige Theorien einfallen, für deren Begründung man KabyLake-G heranziehen könnte, außer vielleicht für in der Hardwarebranche sind auch skurrile Projekte möglich...
...das Ding wurde quasi nur für einen Einzug ins Kuriositätenkabinett gelaunched. Die Zahl der ernsthaften Produkte war marginal bis nicht erkennbar, das Marketing mWn. nonexistent und lange ausgeliefert wurden die Systeme auch nicht. Das sorgt in Kombination dafür, dass man mit KabyLake-G argumentativ "gar nichts" anfangen kann.
 

Pu244

Lötkolbengott/-göttin
Mir würde sehr wenige Theorien einfallen, für deren Begründung man KabyLake-G heranziehen könnte, außer vielleicht für in der Hardwarebranche sind auch skurrile Projekte möglich...
...das Ding wurde quasi nur für einen Einzug ins Kuriositätenkabinett gelaunched. Die Zahl der ernsthaften Produkte war marginal bis nicht erkennbar, das Marketing mWn. nonexistent und lange ausgeliefert wurden die Systeme auch nicht. Das sorgt in Kombination dafür, dass man mit KabyLake-G argumentativ "gar nichts" anfangen kann.

Der Punkt, den man bei Kaby Lake G das Problem sehr gut zeigt. Man braucht einfach eine Kundschaft, die genau das möchte. Kaby Lake G hatte nur 4GB RAM, das war schon damals nicht üppig. Dann war Kaby Lake G auch nicht ganz so schnell, wie ein i7 7700K. Dann haben sich GPU und CPU dank gemeinsamen TDP Budget auch noch gegenseitig erwürgt.

Man brauchte also eine sehr spezielle Kundschaft. Die einerseits deutlich mehr Leistung wünscht, als es die normalen IGPs bieten, die aber andererseits mit den diversen Nachteilen leben können. Auch darf die Kundschaft nicht zu anspruchsvoll sein und mir dem leben, was man ihr vorsetzt.

Das sind am Ende sehr wenige und deshalb lohnt es sich auch nicht. Oberhalb einer gewissen Marke ist es deutlich besser, auf eine dediziere CPU und GPU zu setzen, da man wesentlich flexibler ist.

Schnelle IGPs werden wohl auch weiterhin im Kuriositätenkabinett bleiben.
 

CD LABS: Radon Project

Volt-Modder(in)
Der Punkt, den man bei Kaby Lake G das Problem sehr gut zeigt. Man braucht einfach eine Kundschaft, die genau das möchte. Kaby Lake G hatte nur 4GB RAM, das war schon damals nicht üppig. Dann war Kaby Lake G auch nicht ganz so schnell, wie ein i7 7700K. Dann haben sich GPU und CPU dank gemeinsamen TDP Budget auch noch gegenseitig erwürgt.
Bei KabyLake-G hatte die Radeon-dGPU 4GiB VRAM, der Intel-APU-Part nutzte DDR4 und davon übliche Größen. Man sollte nie vergessen, KabyLake-G war kein Startpunkt für eine Chiplet-APU...
...das war eine APU mit einer zusätzlichen dGPU.
Man brauchte also eine sehr spezielle Kundschaft.
Anscheinend brauchte man eher so gut wie gar keine Endkundschaft. Ich weiß nicht wieso, aber Intel wollte dieses Experiment anscheinend auf Grund irgendwelcher internen Abläufe und Kostenrechnungen zur Serienreife bringen. Mehr hatten sie damit anscheinend nie vor. Wieso das ganze, keine Ahnung.

Plausibel erscheint, dass das eigentlich eine Spezialentwicklung für Apple hätte werden sollen, die ja immer Intel-AMD-Kombis eingesetzt haben. Dazu hätte die kompakte Bauweise gepasst.
Vergleiche auch zeitgenössische Abgesänge: https://www.golem.de/news/kaby-lake-g-intels-amd-chip-wird-eingestellt-1910-144324.html

Womöglich wollten sie die Macht des faktischen sprechen lassen, doch da kannten sie Apple wohl schlecht. Womöglich, denn das ist üble Spekulation und hat mit dem eigentlichen Thema wenig zu tun. Auf jeden Fall gelangte KabyLake-G auch quasi nicht in die Hände von Kundschaft gelangte.

Edit: Zu der generellen APU-Frage wird Apple auch noch einiges zu sagen haben --- klar, wie es mit dem MacPro aussehen wird, ist noch unklar; aber der Rest des Portfolios wird sicherlich APUisiert. Da wird die x86-Windowswelt gucken müssen, wo sie bleibt.
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Bei KabyLake-G hatte die Radeon-dGPU 4GiB VRAM, der Intel-APU-Part nutzte DDR4 und davon übliche Größen. Man sollte nie vergessen, KabyLake-G war kein Startpunkt für eine Chiplet-APU...
...das war eine APU mit einer zusätzlichen dGPU.

Das ist mir klar, dennoch waren 4GB VRAM damals nicht gerade üppig.

Anscheinend brauchte man eher so gut wie gar keine Endkundschaft. Ich weiß nicht wieso, aber Intel wollte dieses Experiment anscheinend auf Grund irgendwelcher internen Abläufe und Kostenrechnungen zur Serienreife bringen. Mehr hatten sie damit anscheinend nie vor. Wieso das ganze, keine Ahnung.

Für normale PCs war das ganze einfach viel zu teuer. Man spart sich mit dem Ansatz bestenfalls 30-40€ Das fallt bei den Gurkenkarten unglaublich ins Gewicht. Bei den höheren Leistungsklassen wird das ganze gegenüber den ganzen Nachteilen irrelevant. Man fährt mit einer dedizierten CPU und GPU einfach wesentlich besser, selbst bei einem Laptop.

Toll waren der NUC8i7HVK, das Teil war echt cool, besonders der beleuchtete Schädel und dass es so schön kompakt war. Wenn man allerdings nur die Leistung verglichen hat, dann war ein i7 8700K und eine GTX 1070 um Welten besser und sogar billiger.

Ich verstehe, dass du sowas gerne haben willst, es rechnet sich jedoch aufgrund der Nachteile nicht und wird sich wohl auch niemals rechnen. Es ist einfach kein ökonomisch sinnvolles Konzept. Theoretisch könnte man den Einheitsgaming PC bauen und damit 20-40€ sparen, wenn man davon Millionen absetzen kann. Wird aber nicht geschehen.
 

CD LABS: Radon Project

Volt-Modder(in)
Toll waren der NUC8i7HVK, das Teil war echt cool, besonders der beleuchtete Schädel und dass es so schön kompakt war. Wenn man allerdings nur die Leistung verglichen hat, dann war ein i7 8700K und eine GTX 1070 um Welten besser und sogar billiger.
Er war auch ziemlich ineffizient, als auch abseits der schwachen Performance konnte er nicht überzeugen.
Als toll würde ich Hades Canyon daher höchstens im Wortsinne, also im Sinne von ziemlich durchgeknallt, bezeichnen.
Für normale PCs war das ganze einfach viel zu teuer. Man spart sich mit dem Ansatz bestenfalls 30-40€ Das fallt bei den Gurkenkarten unglaublich ins Gewicht. Bei den höheren Leistungsklassen wird das ganze gegenüber den ganzen Nachteilen irrelevant. Man fährt mit einer dedizierten CPU und GPU einfach wesentlich besser, selbst bei einem Laptop.
Diese Ineffizienz sehe ich auch als die noch stärkere Erklärung an. Und keine Ahnung, ob das 30-40€ Unterschied bei der Konstruktion eines MacBooks gemacht hätte. Danach habe ich hier wieder das Gefühl, dass du das Thema Chiplet-APUs mit KabyLake-G vermischst. Falls mich das Gefühl nicht trügt, frage ich: Wieso? Die beiden Themen sind absolut nicht deckungsgleich.
Ich verstehe, dass du sowas gerne haben willst, es rechnet sich jedoch aufgrund der Nachteile nicht und wird sich wohl auch niemals rechnen. Es ist einfach kein ökonomisch sinnvolles Konzept. Theoretisch könnte man den Einheitsgaming PC bauen und damit 20-40€ sparen, wenn man davon Millionen absetzen kann. Wird aber nicht geschehen.
Ob ich das will, weiß ich nicht. Naja, vielleicht mittelbar, weil ich insbesondere GDDR6X für einen Irrweg halte und ein solches Konzept HBM-Varianten durchaus pushen wird. Vielleicht auch mit Blick auf Gaminglaptops? Ach, vielleicht. Aber relevant ist, dass mir nicht wichtig war, ob ich das will oder nicht, sondern dass es mir etwas anderes ging:

Ich gehe in erster Linie davon aus, dass es auf Dauer so kommen wird und zwar weil es ein ökonomisch sinnvolles Konzept ist.

Der Trick dabei ist ja insbesondere, dass es wegen des Chipletdesigns, anders als früher, nicht mehr auf einen Konsolenverschnitt (in deiner Wortwahl Einheitsgaming-PC) hinauslaufen muss. Ein Konsolenverschnitt lohnt sich wirklich nur mit den entsprechenden Stückzahlen, mit Chiplets kann sich hingegen vieles lohnen.
 

4thVariety

Software-Overclocker(in)
Es lohnt einen Blick auf die geschäftliche Realität der vier Konzerne zu werfen.

Apple:
wäre es Modellbau, würde man sagen Apple waren die Kitbasher der Branche. Mal IBM CPUs, mal Intel CPUs, dazu AMD Grafikakrten und jetzt der Schock für den Rest. Eigene CPU/GPU Lösung mit 15 Milliarden Transistoren und auf 5nm gefertigt. Hier hat nicht weniger als ein Erdbeben stattgefunden. Apple ist vom Kunden zum Produzenten geworden. Die bekommen ihr Produkt schon in den Markt gedrückt und was Apple vormacht, machen meist viele andere nach, ob es nun Sinn macht oder nicht.

Intel:
Intel integrated Graphics galt schon vor 20 Jahren als Spaßbremse und ist es bis heute. Intel hat sich immer stark in den Office Bereich reingelehnt, GPUs komplett an Nvidia und AMD abgeschenkt. Das hat nicht nur potentielle Verträge mit Konsolenherstellern gekostet, sondern vermutlich auch Apple. Ganz zu schweigen vom Supercomputing Markt, bei dem Intel vom Lieferanten der Recheneinheit, zum Lieferanten des Wasserträgers für die eigentliche Recheneinheit GPU abgerutscht ist. Das ist nicht Intels Selbstverständnis.

AMD
War zu Bulldozer Zeit komplett abgeschrieben und hing am Tropf der PS4. Haben sich mit sehr viel Preis Leistung in den Markt zurückgekämpft, aber wenn man an aufregenden neue Produkte denkt, hat man nicht AMD im Sinn. So ein Ryzen mit Vega Cores ist auch eine relativ biedere Veranstaltung. Rechtlich gesehen werden die PS5 und Xbox Chips nicht AMD gehören, sondern Sony und Microsoft. AMD hätte das Knowhow, aber die Frage bleibt was sie draus machen. An Spieler wendet man sich mit CPUs ohne iGPU, sowie klassischen GPU Steckkarten. Das ist stock- konservativ.

Nvidia:
Haben GPUs als Standbein, aber ansonsten bewegen die sich eher weg vom PC Markt. Haben dieses klaffende Loch keine x86 CPU für den aktuellen Office und Spielemarkt zu haben und auch nicht die Softwareabteilung wie Apple das mit einem Äquivalent zu Rosetta auszugleichen. Klar, die bauen immer noch die besten GPUs, aber der PC Markt ist seit jeher erbarmungslos.


Intel und AMD stehen vor der gleichen Herausforderung. Ein Produkt entwickeln, das cool genug aussieht um Apple Paroli zu bieten. Bei allem Hype um AMD 7nm vs. Intel 10nm, darf man nicht vergessen, dass Apple mit 5nm daherkommt und als erstes auf 3nm umsteigen wird. Gleichzeitig brauchen Intel und AMD ein Produkt, das Kosten im Vergleich zu Nvidia spart. Ein Nvidia Gaming PC hat RAM und GPU RAM, ein Mainboard und ein GPU Board. Da ist viel Fett dran im Sinne von Dingen die man zweimal braucht, wie z.B. Kühlkörper mit Lüftern. Damit kann man Nvidia vielleicht nicht im Bereich der 3080 attackieren, aber diese GPUs für die Masse wie die 1060, die 1660 oder die 2060, die kann man Nvidia sehr wohl wegnehmen. Besonders AMD hat daher schon die sog. Chipsatzlosen Mainboards im Programm für OEMs. Jedes Gramm Fett zählt.

Der PC Markt war lange Zeit stabil und hat AMD auch viele Fehler verziehen, aber der Markt ist reif für ein Gemetzel bei dem einer auf der Strecken bleibt. Solange Apple mit dem iPhone nach Belieben Geld druckt, wird das nicht Apple sein. AMD mag mit dem Produkt eine lahme Ente ins Rennen schicken, aber sie scheinen begriffen zu haben, dass etwas passieren muss.
 

PCGH_Torsten

Redaktion
Teammitglied
Die PS5 verwendet nur 4x PCIe4 Lanes für die SSD und hat auf dem die auch nicht mehr:
Recommented content - Flickr An dieser Stelle findest du externe Inhalte von Flickr. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

CPU-Z-Einträge verraten das es der PS5-SoC ist:
https://forum.planet3dnow.de/index....omplett-pcs-update.444900/page-2#post-5348935

Strange, aber dann wohl geklärt. Demnach müssten eigentlich mehr als vier Lanes bereitstehen, denn die PS5 hat eine ×4-SSD und einen ×4-Erweiterungsport für eine zweite.


Mir würde sehr wenige Theorien einfallen, für deren Begründung man KabyLake-G heranziehen könnte, außer vielleicht für in der Hardwarebranche sind auch skurrile Projekte möglich...
...das Ding wurde quasi nur für einen Einzug ins Kuriositätenkabinett gelaunched. Die Zahl der ernsthaften Produkte war marginal bis nicht erkennbar, das Marketing mWn. nonexistent und lange ausgeliefert wurden die Systeme auch nicht. Das sorgt in Kombination dafür, dass man mit KabyLake-G argumentativ "gar nichts" anfangen kann.

Wieso sollte es von einem Produkt, dass kaum skalierbar ist, eine große Zahl sogenannter "ernsthafter" Produkte geben?


Das ist mir klar, dennoch waren 4GB VRAM damals nicht gerade üppig.

Kaby Lakge G erschien ein halbes Jahr, bevor Nvidia der Meinung war, 8 GiB würden für eine 2080 reichen zu einem Zeitpunkt, als AMD überhaupt kein Modell jenseits von 8 GiB im Angebot hatte und selbst die RX580 teilweise mit 4 GiB verkaufte. Für eine IGP mit weitaus geringerer Leistung waren 4 GiB vollkommen angemessen. Das Spitzenmodell integrierte eine 45-W-CPU und hatte 100 W TDP insgesamt, der Grafikteil ließ sich am ehesten mit einer RX560X vergleichen. Die wurde ebenfalls mit maximal 4 GiB, teilweise aber sogar nur mit 2 GiB verkauft.
 

Locuza

Lötkolbengott/-göttin
Strange, aber dann wohl geklärt. Demnach müssten eigentlich mehr als vier Lanes bereitstehen, denn die PS5 hat eine ×4-SSD und einen ×4-Erweiterungsport für eine zweite.
Ja, dass war zu Beginn eine Überraschung.
Die 4-Lanes der externen SSD sind direkt mit dem SSD-Controller der internen SSD verbunden und die Signale werden darüber geleitet.
Da man nicht beide SSDs gleichzeitig voll ansprechen muss, spart man 4-Lanes auf dem PS5-Chip.
 

CD LABS: Radon Project

Volt-Modder(in)
Wieso sollte es von einem Produkt, dass kaum skalierbar ist, eine große Zahl sogenannter "ernsthafter" Produkte geben?
Die Skalierbarkeit ist weniger das Problem gewesen, hätte KabyLake-G in einem der Punkte Performance, Preisleistungs oder Effizienz geglänzt, hätte es sicherlich mehr gegeben und insbesondere Produkte mit hohen Stückzahlen.

Ich glaube aber, dass wir beide die Grundaussage KabyLake-G hat wenig getaugt, daher sollte der Misserfolg nicht überraschen, unterschreiben würden, oder?
Ja, dass war zu Beginn eine Überraschung.
Die 4-Lanes der externen SSD sind direkt mit dem SSD-Controller der internen SSD verbunden und die Signale werden darüber geleitet.
Da man nicht beide SSDs gleichzeitig voll ansprechen muss, spart man 4-Lanes auf dem PS5-Chip.
Danke für diese Info, jetzt halte ich es zumindest für ein wenig nachvollziehbarer, dass Sony ewig und drei Tage braucht, um das Update herauszubringen, dass den M.2-Slot nutzbar macht.
 

PCGH_Torsten

Redaktion
Teammitglied
Ich glaube, du hast schlichtweg abweichende Anforderungen, die überhaupt nicht zum Produkt passen. Kaby Lake G war ein Design, um auf kleinstem Raum maximale Leistung unterzubringen. Für einen Platzbedarf, der ungefähr einer M.2-SSD entsprach, war die Performance auch absolut überlegen. Preis-Leistung ist somit schwer zu beurteilen, denn das Schnellste ist immer exponentiell teurer. Gefühlt würde ich sagen, dass der Premium-Aufschlag aber nicht größer war als andernorts. Effizienz ist der einzig große Kritikpunkt, den ich abseits des eben reichlich zweifelhaften Grundkonzeptes teilen wrüde. Vega und Ultra-Mobile waren nicht gerade eine Traumpartnerschaft. Allerdings gilt auch hier: Wenn es niemand besser macht, kann man sich Fehler erlauben.

Das ändert aber nichts daran, dass es je Markt nur zwei respektive drei Kaby-Lake-G-Ausführungen gab (von denen man sich die Hälfte auch noch hätte sparen können), denen man dann jeweils in ihrer Preis- und Leistungsklasse noch maximal zwei verschiedene RAM-Ausbaustufen zur Seite stellen konnte. Wie soll da eine Produktvielfalt entstehen? Wenn alles durch das SoC vorgegeben wird, gibt es eben nicht mehr hunderte Kombinationen je Hersteller. Wenn man einen saftigen Preisaufschlag für die Kleinheit des SoC auf den Tisch gelegt hat, erübrigen sich selbst Variationen bei der Größe. Für Geräte oberhalb des NUC- respektive 13-Zoll-Formates braucht man keine teure, hochintegrierte Technik und Geräte unterhalb eines NUCs sind bei 100 W Verlustleistung nicht mehr sinnvoll kühlbar, Notebooks unterhalb 13 Zoll werden (leider) nur noch als Billiggerät angeboten. Somit konnte jeder der wenigen Hersteller, die überhaupt im ultramobilen Luxus-Gaming-Markt aktiv ist, maximal ein-zwei sinnvolle Kaby-Lake-G-Produkte ins Sortiment aufnehmen. Aber die haben zu Recht erstmal geguckt, ob überhaupt jemand das erste derartige Produkt haben will und die Antwort war ein entschiedenes Nein.


@Locuza: Danke für die Info. Die war bislang an mir vorbeigegangen und von selbst wäre ich da nie drauf gekommen. Man kauft ein SoC von einem Hersteller, der 16-Lane-Controller fix und fertig bereitliegen hat und Flash von Herstellern, die 4-Lane-Controller fix und fertig bereitliegen haben und dann lässt man erstere einen (mutmaßlich) 8-Lane-Controller und letztere einen Controller mit integriertem 12-Port-Switch bauen, um genau die gleichen Ressourcen auf anderem Wege zu realisieren? move [palm] [face]
 

fotoman

Volt-Modder(in)
Wenn AMD und Intel verhindern wollen, dass ihnen Apple auf dem Desktop ähnlich viele Marktanteile abjagt wie im Laptopsegment, dann wird sich da etwas tun müssen.
Nur das AMD und Intel dazu das passende OS fehlt, das sie mal eben auf die neue HW optimieren können und bei dem sie den Entwicklern vorschreiben, dass sie in 2-3 Jahren nur noch die neuen APIs (welche die neue HW auch unterstützen) zu nutzen haben.

Bisher fehlen ihnen die Anwender, die einfach all ihre SW+HW neu kaufen, wenn sie etwas neues nutzen wollen. Wenn MS aus Win 11.1 alles unterhalb von DX12 rauswerfen sollte (den kompletten 32-Bit Support gleich mit, dann könnten AMD/Intel auch ihre CPUs vereinfachen), dazu noch VfW (damit jegliche Video-SW die neuen Schnittstellen und damit auch die HW-Unterstützung nutzen muss) und am Ende auch noch konsequent per HW-Lock verhindern, dass ein altes OS auf neuerer HW läuft (und zwar nicht so halbherzig wie mit Win 7 sondern richtig, also inkl. dem Verbot der Treiberbereitstellung durch die Mainbaord-Hersteller, sonst bekommen diese halt keine neuen Chips mehr), dann mag das etwas werden.

Intel und AMD stehen vor der gleichen Herausforderung. Ein Produkt entwickeln, das cool genug aussieht um Apple Paroli zu bieten.
Fragt sich für wen? Soll das ein iPad-Ersatz werden, oder ein Ersatz für einen ARM-Macbook Air? Beides lebt vor allem von den Integration von HW+SW, und letzteres ist abseits von Apple halt das Problem.

Solange Apple mit dem iPhone nach Belieben Geld druckt, wird das nicht Apple sein
Das ist eine komplett andere Produktklasse. Egal, ob Apple auf Dauer bei seiner OS-Politik bleibt oder doch irgendwann einknickt (glaube ich nicht dran). Welches OS soll denn auf einem Chipsatzlosen x64 CPU laufen, um so ein Gerät vergleichbar in Laufzeit, Leistung und verfügbaren Apps zu einem iPhone werden zu lassen?

AMD mag mit dem Produkt eine lahme Ente ins Rennen schicken, aber sie scheinen begriffen zu haben, dass etwas passieren muss.
Wobei das Produkt absolut nichts mit einem iPhone oder iPad zu tun hat, es ist eher die Resteverwertung der CPUs mit defekter IGP. Bis auf die 3 USB3.2 Gen 2 Anschlüsse ist auch sonst alles auf minimalste Konfiguration ausgelegt. Als Headless Heimserver/NAS ist das Board leider auch recht ungeeignet.
 

gerX7a

BIOS-Overclocker(in)
Wenn AMD und Intel verhindern wollen, dass ihnen Apple auf dem Desktop ähnlich viele Marktanteile abjagt wie im Laptopsegment, dann wird sich da etwas tun müssen.
Die Entscheidung Apple oder nicht ist vorrangig eine Frage der Plattform und des Ökosystems und weniger der Hardware. Wer mit dem abgeschotteten Apple-System nichts anfangen kann wird auch nicht so ohne weiteres erwägen dahin zu wechseln und wer in den Bereichen, die Apple insbesondere im Productivity-Segment sehr gut bedient, sich bei Apple gut aufgehoben fühlt, wird selbst bei starker x86-Hardware nicht erwägen das Apple-Ökosystem zu verlassen.

Hardwareseitig ist der Druck zweifellos da, aber der kommt ebenso gleichermaßen aus der ARM-Ecke ganz allgemein, was schlicht daran liegt das jeder ein Stück vom großen Kuchen abhaben will und Apple hat mit seinen hochpreisigen Produkten so viele Jahre lang Geld gescheffelt, dass die es sich nun halt auch leisten können, die Entwicklung selbst in die Hand zu nehmen ... und damit absehbar ihre Marge bei der Hardware mittelfristig noch weiter steigern werden.
 

CD LABS: Radon Project

Volt-Modder(in)
Wie soll da eine Produktvielfalt entstehen? Wenn alles durch das SoC vorgegeben wird, gibt es eben nicht mehr hunderte Kombinationen je Hersteller.
Mir ging es nicht um hunderte Kombinationen...
...ein M1 lässt sich noch weniger skalieren und auf dessen Basis hat Apple vier Produkte herausgebracht. Wenn auf dessen Basis auch andere Hersteller Produkte bauen könnten, hätten wir sicherlich zwei, drei dutzend Geräte mit ihm.
Darum ging es mir --- KabyLake-G wurde kaum verwendet, es gab kein typisches 'Hersteller bringen alle ihre 0815-Geräte heraus'...
...dafür ist Skalierbarkeit nicht von Relevanz, sondern Qualitäten sind entscheidend.
 

PCGH_Torsten

Redaktion
Teammitglied
Für vier bis fünf von sechs (!) M1-Produkten ist das Ding eigentlich unnötig klein oder unnötig leistungsstark und somit teurer als nötig beziehungsweise nicht so stark, wie man für den Preis in so einem Gerät eigentlich erwarten würde. Man muss sich nur mal vor Augen halten, dass Apple in einigen Märkten Chips mit einer Fertigung von 2014 gegen ein Silizium mit Technik, die wir im PC nicht vor Ende 2022 sehen werden, ersetzt hat und dass das Ergebnis trotzdem eher als "ganz gut" und nicht "revolutionär total deplatzierend wie der Wechsel von einem K6-III auf einen Core i7" empfunden wurde.

Dass Apple den einen Chip so breit gefächert einsetzt ist lediglich dem Umstand geschuldet, dass es zwischen dem A14 und dem M1 halt kein passenderes Apple-SoC für die iPad Pros gibt und oberhalb des M1 auch kein billigeres, flexibleres oder leistungsfähigeres Multi-Chip-Design für iMac, Mac Mini und Mac Book Pro. Bei Apples Preisen kann man sich diese Ineffektivität erlauben. Zumal eben dieses Preisniveau den deutlichen Fertigungsvorsprung gegenüber allen Mitbewerbern ermöglich und man die Chips selbst zum Herstellungspreis bezieht. Aber als einzelner Chip auf dem freien Markt zu dem Aufwand angemessen Preisen, also so wie Kaby Lake G angeboten wurde, wäre der M1 schwer verkäuflich.
 
Oben Unten