AMD 4700S DIY-Kit: AMD macht DIY-Kit für den Desktop mit Konsolen-CPU und GDD6 offiziell

Toll waren der NUC8i7HVK, das Teil war echt cool, besonders der beleuchtete Schädel und dass es so schön kompakt war. Wenn man allerdings nur die Leistung verglichen hat, dann war ein i7 8700K und eine GTX 1070 um Welten besser und sogar billiger.
Er war auch ziemlich ineffizient, als auch abseits der schwachen Performance konnte er nicht überzeugen.
Als toll würde ich Hades Canyon daher höchstens im Wortsinne, also im Sinne von ziemlich durchgeknallt, bezeichnen.
Für normale PCs war das ganze einfach viel zu teuer. Man spart sich mit dem Ansatz bestenfalls 30-40€ Das fallt bei den Gurkenkarten unglaublich ins Gewicht. Bei den höheren Leistungsklassen wird das ganze gegenüber den ganzen Nachteilen irrelevant. Man fährt mit einer dedizierten CPU und GPU einfach wesentlich besser, selbst bei einem Laptop.
Diese Ineffizienz sehe ich auch als die noch stärkere Erklärung an. Und keine Ahnung, ob das 30-40€ Unterschied bei der Konstruktion eines MacBooks gemacht hätte. Danach habe ich hier wieder das Gefühl, dass du das Thema Chiplet-APUs mit KabyLake-G vermischst. Falls mich das Gefühl nicht trügt, frage ich: Wieso? Die beiden Themen sind absolut nicht deckungsgleich.
Ich verstehe, dass du sowas gerne haben willst, es rechnet sich jedoch aufgrund der Nachteile nicht und wird sich wohl auch niemals rechnen. Es ist einfach kein ökonomisch sinnvolles Konzept. Theoretisch könnte man den Einheitsgaming PC bauen und damit 20-40€ sparen, wenn man davon Millionen absetzen kann. Wird aber nicht geschehen.
Ob ich das will, weiß ich nicht. Naja, vielleicht mittelbar, weil ich insbesondere GDDR6X für einen Irrweg halte und ein solches Konzept HBM-Varianten durchaus pushen wird. Vielleicht auch mit Blick auf Gaminglaptops? Ach, vielleicht. Aber relevant ist, dass mir nicht wichtig war, ob ich das will oder nicht, sondern dass es mir etwas anderes ging:

Ich gehe in erster Linie davon aus, dass es auf Dauer so kommen wird und zwar weil es ein ökonomisch sinnvolles Konzept ist.

Der Trick dabei ist ja insbesondere, dass es wegen des Chipletdesigns, anders als früher, nicht mehr auf einen Konsolenverschnitt (in deiner Wortwahl Einheitsgaming-PC) hinauslaufen muss. Ein Konsolenverschnitt lohnt sich wirklich nur mit den entsprechenden Stückzahlen, mit Chiplets kann sich hingegen vieles lohnen.
 
Es lohnt einen Blick auf die geschäftliche Realität der vier Konzerne zu werfen.

Apple:
wäre es Modellbau, würde man sagen Apple waren die Kitbasher der Branche. Mal IBM CPUs, mal Intel CPUs, dazu AMD Grafikakrten und jetzt der Schock für den Rest. Eigene CPU/GPU Lösung mit 15 Milliarden Transistoren und auf 5nm gefertigt. Hier hat nicht weniger als ein Erdbeben stattgefunden. Apple ist vom Kunden zum Produzenten geworden. Die bekommen ihr Produkt schon in den Markt gedrückt und was Apple vormacht, machen meist viele andere nach, ob es nun Sinn macht oder nicht.

Intel:
Intel integrated Graphics galt schon vor 20 Jahren als Spaßbremse und ist es bis heute. Intel hat sich immer stark in den Office Bereich reingelehnt, GPUs komplett an Nvidia und AMD abgeschenkt. Das hat nicht nur potentielle Verträge mit Konsolenherstellern gekostet, sondern vermutlich auch Apple. Ganz zu schweigen vom Supercomputing Markt, bei dem Intel vom Lieferanten der Recheneinheit, zum Lieferanten des Wasserträgers für die eigentliche Recheneinheit GPU abgerutscht ist. Das ist nicht Intels Selbstverständnis.

AMD
War zu Bulldozer Zeit komplett abgeschrieben und hing am Tropf der PS4. Haben sich mit sehr viel Preis Leistung in den Markt zurückgekämpft, aber wenn man an aufregenden neue Produkte denkt, hat man nicht AMD im Sinn. So ein Ryzen mit Vega Cores ist auch eine relativ biedere Veranstaltung. Rechtlich gesehen werden die PS5 und Xbox Chips nicht AMD gehören, sondern Sony und Microsoft. AMD hätte das Knowhow, aber die Frage bleibt was sie draus machen. An Spieler wendet man sich mit CPUs ohne iGPU, sowie klassischen GPU Steckkarten. Das ist stock- konservativ.

Nvidia:
Haben GPUs als Standbein, aber ansonsten bewegen die sich eher weg vom PC Markt. Haben dieses klaffende Loch keine x86 CPU für den aktuellen Office und Spielemarkt zu haben und auch nicht die Softwareabteilung wie Apple das mit einem Äquivalent zu Rosetta auszugleichen. Klar, die bauen immer noch die besten GPUs, aber der PC Markt ist seit jeher erbarmungslos.


Intel und AMD stehen vor der gleichen Herausforderung. Ein Produkt entwickeln, das cool genug aussieht um Apple Paroli zu bieten. Bei allem Hype um AMD 7nm vs. Intel 10nm, darf man nicht vergessen, dass Apple mit 5nm daherkommt und als erstes auf 3nm umsteigen wird. Gleichzeitig brauchen Intel und AMD ein Produkt, das Kosten im Vergleich zu Nvidia spart. Ein Nvidia Gaming PC hat RAM und GPU RAM, ein Mainboard und ein GPU Board. Da ist viel Fett dran im Sinne von Dingen die man zweimal braucht, wie z.B. Kühlkörper mit Lüftern. Damit kann man Nvidia vielleicht nicht im Bereich der 3080 attackieren, aber diese GPUs für die Masse wie die 1060, die 1660 oder die 2060, die kann man Nvidia sehr wohl wegnehmen. Besonders AMD hat daher schon die sog. Chipsatzlosen Mainboards im Programm für OEMs. Jedes Gramm Fett zählt.

Der PC Markt war lange Zeit stabil und hat AMD auch viele Fehler verziehen, aber der Markt ist reif für ein Gemetzel bei dem einer auf der Strecken bleibt. Solange Apple mit dem iPhone nach Belieben Geld druckt, wird das nicht Apple sein. AMD mag mit dem Produkt eine lahme Ente ins Rennen schicken, aber sie scheinen begriffen zu haben, dass etwas passieren muss.
 
Die PS5 verwendet nur 4x PCIe4 Lanes für die SSD und hat auf dem die auch nicht mehr:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Flickr. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

CPU-Z-Einträge verraten das es der PS5-SoC ist:
https://forum.planet3dnow.de/index....omplett-pcs-update.444900/page-2#post-5348935

Strange, aber dann wohl geklärt. Demnach müssten eigentlich mehr als vier Lanes bereitstehen, denn die PS5 hat eine ×4-SSD und einen ×4-Erweiterungsport für eine zweite.


Mir würde sehr wenige Theorien einfallen, für deren Begründung man KabyLake-G heranziehen könnte, außer vielleicht für in der Hardwarebranche sind auch skurrile Projekte möglich...
...das Ding wurde quasi nur für einen Einzug ins Kuriositätenkabinett gelaunched. Die Zahl der ernsthaften Produkte war marginal bis nicht erkennbar, das Marketing mWn. nonexistent und lange ausgeliefert wurden die Systeme auch nicht. Das sorgt in Kombination dafür, dass man mit KabyLake-G argumentativ "gar nichts" anfangen kann.

Wieso sollte es von einem Produkt, dass kaum skalierbar ist, eine große Zahl sogenannter "ernsthafter" Produkte geben?


Das ist mir klar, dennoch waren 4GB VRAM damals nicht gerade üppig.

Kaby Lakge G erschien ein halbes Jahr, bevor Nvidia der Meinung war, 8 GiB würden für eine 2080 reichen zu einem Zeitpunkt, als AMD überhaupt kein Modell jenseits von 8 GiB im Angebot hatte und selbst die RX580 teilweise mit 4 GiB verkaufte. Für eine IGP mit weitaus geringerer Leistung waren 4 GiB vollkommen angemessen. Das Spitzenmodell integrierte eine 45-W-CPU und hatte 100 W TDP insgesamt, der Grafikteil ließ sich am ehesten mit einer RX560X vergleichen. Die wurde ebenfalls mit maximal 4 GiB, teilweise aber sogar nur mit 2 GiB verkauft.
 
Strange, aber dann wohl geklärt. Demnach müssten eigentlich mehr als vier Lanes bereitstehen, denn die PS5 hat eine ×4-SSD und einen ×4-Erweiterungsport für eine zweite.
Ja, dass war zu Beginn eine Überraschung.
Die 4-Lanes der externen SSD sind direkt mit dem SSD-Controller der internen SSD verbunden und die Signale werden darüber geleitet.
Da man nicht beide SSDs gleichzeitig voll ansprechen muss, spart man 4-Lanes auf dem PS5-Chip.
 
Wieso sollte es von einem Produkt, dass kaum skalierbar ist, eine große Zahl sogenannter "ernsthafter" Produkte geben?
Die Skalierbarkeit ist weniger das Problem gewesen, hätte KabyLake-G in einem der Punkte Performance, Preisleistungs oder Effizienz geglänzt, hätte es sicherlich mehr gegeben und insbesondere Produkte mit hohen Stückzahlen.

Ich glaube aber, dass wir beide die Grundaussage KabyLake-G hat wenig getaugt, daher sollte der Misserfolg nicht überraschen, unterschreiben würden, oder?
Ja, dass war zu Beginn eine Überraschung.
Die 4-Lanes der externen SSD sind direkt mit dem SSD-Controller der internen SSD verbunden und die Signale werden darüber geleitet.
Da man nicht beide SSDs gleichzeitig voll ansprechen muss, spart man 4-Lanes auf dem PS5-Chip.
Danke für diese Info, jetzt halte ich es zumindest für ein wenig nachvollziehbarer, dass Sony ewig und drei Tage braucht, um das Update herauszubringen, dass den M.2-Slot nutzbar macht.
 
Ich glaube, du hast schlichtweg abweichende Anforderungen, die überhaupt nicht zum Produkt passen. Kaby Lake G war ein Design, um auf kleinstem Raum maximale Leistung unterzubringen. Für einen Platzbedarf, der ungefähr einer M.2-SSD entsprach, war die Performance auch absolut überlegen. Preis-Leistung ist somit schwer zu beurteilen, denn das Schnellste ist immer exponentiell teurer. Gefühlt würde ich sagen, dass der Premium-Aufschlag aber nicht größer war als andernorts. Effizienz ist der einzig große Kritikpunkt, den ich abseits des eben reichlich zweifelhaften Grundkonzeptes teilen wrüde. Vega und Ultra-Mobile waren nicht gerade eine Traumpartnerschaft. Allerdings gilt auch hier: Wenn es niemand besser macht, kann man sich Fehler erlauben.

Das ändert aber nichts daran, dass es je Markt nur zwei respektive drei Kaby-Lake-G-Ausführungen gab (von denen man sich die Hälfte auch noch hätte sparen können), denen man dann jeweils in ihrer Preis- und Leistungsklasse noch maximal zwei verschiedene RAM-Ausbaustufen zur Seite stellen konnte. Wie soll da eine Produktvielfalt entstehen? Wenn alles durch das SoC vorgegeben wird, gibt es eben nicht mehr hunderte Kombinationen je Hersteller. Wenn man einen saftigen Preisaufschlag für die Kleinheit des SoC auf den Tisch gelegt hat, erübrigen sich selbst Variationen bei der Größe. Für Geräte oberhalb des NUC- respektive 13-Zoll-Formates braucht man keine teure, hochintegrierte Technik und Geräte unterhalb eines NUCs sind bei 100 W Verlustleistung nicht mehr sinnvoll kühlbar, Notebooks unterhalb 13 Zoll werden (leider) nur noch als Billiggerät angeboten. Somit konnte jeder der wenigen Hersteller, die überhaupt im ultramobilen Luxus-Gaming-Markt aktiv ist, maximal ein-zwei sinnvolle Kaby-Lake-G-Produkte ins Sortiment aufnehmen. Aber die haben zu Recht erstmal geguckt, ob überhaupt jemand das erste derartige Produkt haben will und die Antwort war ein entschiedenes Nein.


@Locuza: Danke für die Info. Die war bislang an mir vorbeigegangen und von selbst wäre ich da nie drauf gekommen. Man kauft ein SoC von einem Hersteller, der 16-Lane-Controller fix und fertig bereitliegen hat und Flash von Herstellern, die 4-Lane-Controller fix und fertig bereitliegen haben und dann lässt man erstere einen (mutmaßlich) 8-Lane-Controller und letztere einen Controller mit integriertem 12-Port-Switch bauen, um genau die gleichen Ressourcen auf anderem Wege zu realisieren? move [palm] [face]
 
Wenn AMD und Intel verhindern wollen, dass ihnen Apple auf dem Desktop ähnlich viele Marktanteile abjagt wie im Laptopsegment, dann wird sich da etwas tun müssen.
Nur das AMD und Intel dazu das passende OS fehlt, das sie mal eben auf die neue HW optimieren können und bei dem sie den Entwicklern vorschreiben, dass sie in 2-3 Jahren nur noch die neuen APIs (welche die neue HW auch unterstützen) zu nutzen haben.

Bisher fehlen ihnen die Anwender, die einfach all ihre SW+HW neu kaufen, wenn sie etwas neues nutzen wollen. Wenn MS aus Win 11.1 alles unterhalb von DX12 rauswerfen sollte (den kompletten 32-Bit Support gleich mit, dann könnten AMD/Intel auch ihre CPUs vereinfachen), dazu noch VfW (damit jegliche Video-SW die neuen Schnittstellen und damit auch die HW-Unterstützung nutzen muss) und am Ende auch noch konsequent per HW-Lock verhindern, dass ein altes OS auf neuerer HW läuft (und zwar nicht so halbherzig wie mit Win 7 sondern richtig, also inkl. dem Verbot der Treiberbereitstellung durch die Mainbaord-Hersteller, sonst bekommen diese halt keine neuen Chips mehr), dann mag das etwas werden.

Intel und AMD stehen vor der gleichen Herausforderung. Ein Produkt entwickeln, das cool genug aussieht um Apple Paroli zu bieten.
Fragt sich für wen? Soll das ein iPad-Ersatz werden, oder ein Ersatz für einen ARM-Macbook Air? Beides lebt vor allem von den Integration von HW+SW, und letzteres ist abseits von Apple halt das Problem.

Solange Apple mit dem iPhone nach Belieben Geld druckt, wird das nicht Apple sein
Das ist eine komplett andere Produktklasse. Egal, ob Apple auf Dauer bei seiner OS-Politik bleibt oder doch irgendwann einknickt (glaube ich nicht dran). Welches OS soll denn auf einem Chipsatzlosen x64 CPU laufen, um so ein Gerät vergleichbar in Laufzeit, Leistung und verfügbaren Apps zu einem iPhone werden zu lassen?

AMD mag mit dem Produkt eine lahme Ente ins Rennen schicken, aber sie scheinen begriffen zu haben, dass etwas passieren muss.
Wobei das Produkt absolut nichts mit einem iPhone oder iPad zu tun hat, es ist eher die Resteverwertung der CPUs mit defekter IGP. Bis auf die 3 USB3.2 Gen 2 Anschlüsse ist auch sonst alles auf minimalste Konfiguration ausgelegt. Als Headless Heimserver/NAS ist das Board leider auch recht ungeeignet.
 
Wenn AMD und Intel verhindern wollen, dass ihnen Apple auf dem Desktop ähnlich viele Marktanteile abjagt wie im Laptopsegment, dann wird sich da etwas tun müssen.
Die Entscheidung Apple oder nicht ist vorrangig eine Frage der Plattform und des Ökosystems und weniger der Hardware. Wer mit dem abgeschotteten Apple-System nichts anfangen kann wird auch nicht so ohne weiteres erwägen dahin zu wechseln und wer in den Bereichen, die Apple insbesondere im Productivity-Segment sehr gut bedient, sich bei Apple gut aufgehoben fühlt, wird selbst bei starker x86-Hardware nicht erwägen das Apple-Ökosystem zu verlassen.

Hardwareseitig ist der Druck zweifellos da, aber der kommt ebenso gleichermaßen aus der ARM-Ecke ganz allgemein, was schlicht daran liegt das jeder ein Stück vom großen Kuchen abhaben will und Apple hat mit seinen hochpreisigen Produkten so viele Jahre lang Geld gescheffelt, dass die es sich nun halt auch leisten können, die Entwicklung selbst in die Hand zu nehmen ... und damit absehbar ihre Marge bei der Hardware mittelfristig noch weiter steigern werden.
 
Wie soll da eine Produktvielfalt entstehen? Wenn alles durch das SoC vorgegeben wird, gibt es eben nicht mehr hunderte Kombinationen je Hersteller.
Mir ging es nicht um hunderte Kombinationen...
...ein M1 lässt sich noch weniger skalieren und auf dessen Basis hat Apple vier Produkte herausgebracht. Wenn auf dessen Basis auch andere Hersteller Produkte bauen könnten, hätten wir sicherlich zwei, drei dutzend Geräte mit ihm.
Darum ging es mir --- KabyLake-G wurde kaum verwendet, es gab kein typisches 'Hersteller bringen alle ihre 0815-Geräte heraus'...
...dafür ist Skalierbarkeit nicht von Relevanz, sondern Qualitäten sind entscheidend.
 
Für vier bis fünf von sechs (!) M1-Produkten ist das Ding eigentlich unnötig klein oder unnötig leistungsstark und somit teurer als nötig beziehungsweise nicht so stark, wie man für den Preis in so einem Gerät eigentlich erwarten würde. Man muss sich nur mal vor Augen halten, dass Apple in einigen Märkten Chips mit einer Fertigung von 2014 gegen ein Silizium mit Technik, die wir im PC nicht vor Ende 2022 sehen werden, ersetzt hat und dass das Ergebnis trotzdem eher als "ganz gut" und nicht "revolutionär total deplatzierend wie der Wechsel von einem K6-III auf einen Core i7" empfunden wurde.

Dass Apple den einen Chip so breit gefächert einsetzt ist lediglich dem Umstand geschuldet, dass es zwischen dem A14 und dem M1 halt kein passenderes Apple-SoC für die iPad Pros gibt und oberhalb des M1 auch kein billigeres, flexibleres oder leistungsfähigeres Multi-Chip-Design für iMac, Mac Mini und Mac Book Pro. Bei Apples Preisen kann man sich diese Ineffektivität erlauben. Zumal eben dieses Preisniveau den deutlichen Fertigungsvorsprung gegenüber allen Mitbewerbern ermöglich und man die Chips selbst zum Herstellungspreis bezieht. Aber als einzelner Chip auf dem freien Markt zu dem Aufwand angemessen Preisen, also so wie Kaby Lake G angeboten wurde, wäre der M1 schwer verkäuflich.
 
Zurück