AMD Ryzen 7 Pro 5xxxG: Cezanne-APU für AM4-Sockel gesichtet

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Ryzen 7 Pro 5xxxG: Cezanne-APU für AM4-Sockel gesichtet

Ein CPU-Z-Screenshot zeigt einen Cezanne-Prozessor mit Zen-3-Technik, der in einem Desktop-Mainboard verbaut wurde. Teile des Namens sind verhüllt, aber es handelt sich bei der APU wohl um einen AMD Ryzen 7 Pro 5750G.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Ryzen 7 Pro 5xxxG: Cezanne-APU für AM4-Sockel gesichtet
 
Die sollen endlich Navi integrieren, Vega ist Technik von gestern. Aber wahrscheinlich wird es vor dem AM5 Sockel nichts mehr, vielleicht zaubert dann AMD eine APU im Chiplet Design.
 
Soooooo schlecht läuft die mobile Version von Vega ja nun auch nicht! Klar ich würde auch lieber Navi in einer APU sehen... aber am liebsten würden ich im Endkundensegment mal überhaupt eine APU sehen!
Ryzen 3200/3400?! Das kann ja wohl nicht so ganz deren Ernst sein... so langsam erwarte ich da mal was für den Endanwender zum basteln... die "grauen" Ryzen 4xxxG/GE mit ohne Garantie (ja, ok, 6 Monate...) sind ja schön und gut, laufen aber auf kaum einem B450 ITX Board...

Zumal die 3200/3400 aktuell ja ähnlich gut verfügbar sind wir Ryzen 9 5900X... :ugly:

Ich würde gerne meinen Athlon 200GE mal ausmustern...
 
Ich hätte eine Frage zu dem ganzen APU-zeug.
Wenn ich mir so eine CPU besorge im Sinne des stromsparens muss ich doch den Monitor über das Mainboard anstecken. Jetzt hab ich aber ne dedizierte graka die ich zum spielen hernehmen möchte. Muss ich dann dauernd umstecken? Lässt sich die dgpu komplett abschalten wenn sie nicht gebraucht wird? Kann ich an der APU den TV hinhängen, an der graka den Monitor und je nach Ausgabe Strom sparen?
Es geht mir darum dass ich meinen PC am Fernseher hab und natürlich auch einen Monitor. Da der Rechner oft nur als streaming Box dient und ich keinen smart TV hab läuft er oft sehr lange und ich möchte irgendwie etwas Strom sparen. Macht dann sowas überhaupt Sinn? Aktuell hab ich nen 2600x und 2x 1070 im SLI (ja ich weiß, SLI ist nicht toll aber ich möchte das so behalten... wegen Gründe ;) )
Vielleicht kann mir da ja jemand Tipps geben.
Mfg Ron
 
RDNA2 bietet erst die nächste APU-Generation mit Zen3+.

Nein die Grafikausgabe kann nur entweder am Board über die APU oder über die GPU erfolgen.
Aber eine 5700XT liegt im Desktopbetrieb auch nur bei 8W.
 
Schade. Danke für die schnelle Info. Dann wird das für mich nix weil ich ja meine graka's behalten möchte.
Hmm... Ich hätte vermutet dass sich sowas irgendwie umsetzen lässt. Tja, dann werde ich einfach drauf schauen weniger digitale Medien zu nutzen, hab eh noch n paar Bücher die ich noch lesen will ;)
 
Wieso gibt's nicht mal Leistungsstarke apus wie in den Konsolen?

Weil sich das nicht lohnt, da man dann auf ein Produkt festgenagelt wird. Ein Beispiel sind die Kabylake G CPUs, die waren zwar unglaublich stark, hatten aber nur 4 Kerne mit SMT und 4GB RAM. Beides war schon damals zwar mehr, als nur ausreichend, aber nicht gerade üppig. Deshalb war es die bessere Wahl, sich z.B. eine GTX 1070 und einen 6 Kern i5 oder R5 zu kaufen. Auch kann man da nach belieben kombinieren, selbst eine GTX 1080Ti in Verbindung mit einem zweikern Celeron oder eine GTX 1050 mit einem 6/8 Kern i7/9 waren möglich.

Die Nische, der IGPs sind die Gurkenkarten (z.B. GT 1030). Gegenüber diesen können sie tatsächlich 30.40€ sparen. So wie es darüber hinausgeht, wird das ganze unrentabel.

Immerhin handelt es sich um eine APU, Gamer würden doch auch mit einen RDNA-iGPU weiterhin eine dGPU nutzen!

Wer eine dedizierte GPU verwendet, der sollte sich keine CPU mit IGP von AMD holen, das sind Perlen vor die Säue. Mehr Tempo kein der IGP nicht schaden, sofern sie nicht wesentlich teurer wird. Wobei wird hier sowieso von einem extrem geringen Leistungsniveau reden, meine GTX 670 macht jede IGP (mit Ausnahme von Kaby Lake G) haushoch fertig und das wird wohl auch noch 2-3 Jahre so bleiben.
 
Weil sich das nicht lohnt, da man dann auf ein Produkt festgenagelt wird. Ein Beispiel sind die Kabylake G CPUs, die waren zwar unglaublich stark, hatten aber nur 4 Kerne mit SMT und 4GB RAM. Beides war schon damals zwar mehr, als nur ausreichend, aber nicht gerade üppig. Deshalb war es die bessere Wahl, sich z.B. eine GTX 1070 und einen 6 Kern i5 oder R5 zu kaufen. Auch kann man da nach belieben kombinieren, selbst eine GTX 1080Ti in Verbindung mit einem zweikern Celeron oder eine GTX 1050 mit einem 6/8 Kern i7/9 waren möglich.

Die Nische, der IGPs sind die Gurkenkarten (z.B. GT 1030). Gegenüber diesen können sie tatsächlich 30.40€ sparen. So wie es darüber hinausgeht, wird das ganze unrentabel.



Wer eine dedizierte GPU verwendet, der sollte sich keine CPU mit IGP von AMD holen, das sind Perlen vor die Säue. Mehr Tempo kein der IGP nicht schaden, sofern sie nicht wesentlich teurer wird. Wobei wird hier sowieso von einem extrem geringen Leistungsniveau reden, meine GTX 670 macht jede IGP (mit Ausnahme von Kaby Lake G) haushoch fertig und das wird wohl auch noch 2-3 Jahre so bleiben.

Man könnte dann damit Leistungsstarke Mini PCs bauen. Ich kann mir schon vorstellen, dass es dafür einen Markt geben würde.
 
Man könnte dann damit Leistungsstarke Mini PCs bauen. Ich kann mir schon vorstellen, dass es dafür einen Markt geben würde.

Da ist es dann besser, man nimmt die Laptop Version der jeweiligen CPUs und GPUs. Es hat sich eben leider gezeigt, dass das nicht sinnvoll ist, auch wenn Kaby Lake G auch heute immer noch ganz ordentlich ist (die 4GB machen ihm allerdings zu schaffen)
 
Weil es dafür keinen Markt gibt!
oder weil Sony und Microsoft nicht erlauben, dass sich dieser Markt entsteht idem sie AMD vertraglich dazu zwingen keine Chips mit dieser Gewichtung von CPU zu GPU zu verkaufen.

Nvidia darf keine x86er bauen. Intel hatte bislang nur 3D-Krüppelchips. So hält man die Konkurrenz teuer. Eine 35W CPU mit 100W GPU von Intel als APU wäre alles andere als ein Chip für den es keinen Markt gibt.
 
Wieso gibt's nicht mal Leistungsstarke apus wie in den Konsolen?
Weil dann kaum noch jemand normale CPU´s kaufen würde und Grafikkarten gleich gar nicht mehr ;). Gegen so ne Octa Core Ryzen APU mit RDNA2 Grafik inkl. vielleicht 24-36 Shadercluster hätte ich aber auch nichts einzuwenden :D
 
Zuletzt bearbeitet:
oder weil Sony und Microsoft nicht erlauben, dass sich dieser Markt entsteht idem sie AMD vertraglich dazu zwingen keine Chips mit dieser Gewichtung von CPU zu GPU zu verkaufen.


Das Problem fängt damit an, dass sich GDDR RAM schlecht für CPUs eignet, wegen den hohen Latenzen und normaler DDR RAM schlecht für GPUs. Also fallen die Konzepte der Konsolenchips schonmal raus. Fpür einen Desktop Chip bräuchte man also getrennten RAM und VRAM. Die einzige Möglichkeit, mit der man das verwirklichen kann, ist HBM direkt auf dem CPU Substrat und das ist teuer.


Nvidia darf keine x86er bauen. Intel hatte bislang nur 3D-Krüppelchips. So hält man die Konkurrenz teuer.

Klar, darf Nvidia keine x86er bauen, so wie VW keine BMWs bauen darf. Intel unternimmt übrigens den Sprung zur großen GPU.

Eine 35W CPU mit 100W GPU von Intel als APU wäre alles andere als ein Chip für den es keinen Markt gibt.

Es fängt schonmal mit dem VRAM an. Da sind eigentlich nur 6 oder 8GB praktikabel. Durch die Diskussion mit der RTX 3070 kann man ahnen, dass das vielen nicht genug ist und das zu recht. Dann müßte man sich noch auf eine CPU einigen. Hat die CPU zu wenig Kerne, beispielsweise nur 4 oder 6, dann ist sie vielen zu schwach, hat sie hingegen 10 oder mehr, dann wird sie zu teuer.

Insgesamt werden sich nur wenige für diesen Kompromiss interessieren, so, wie es schon bei Kaby Lake G geschehen ist.
 
Ein 3400g oder 4650g Reicht für die meisten 08/15 Gamer im F2P-Markt mehr als aus.
Die iGPU kommt mit OC fast an 2,2-2,5 TF FP16 rann das ist schon mehr als eine PS4
oder Xone kann.
 
Zurück