Special Ryzen 7 8700G und Ryzen 5 8600G: Die RDNA-3-IGP im Detail mit Benchmarks - reicht es für Full HD?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ryzen 7 8700G und Ryzen 5 8600G: Die RDNA-3-IGP im Detail mit Benchmarks - reicht es für Full HD?

AMD verspricht nicht weniger als flüssiges Full-HD-Gaming mit der integrierten Grafikeinheit auf RDNA-3-Basis, die in den Ryzen-8000G-Prozessoren verbaut sind. Doch was ist Marketing und was entspricht der Wahrheit? PCGH hat den Test gemacht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Ryzen 7 8700G und Ryzen 5 8600G: Die RDNA-3-IGP im Detail mit Benchmarks - reicht es für Full HD?
 
Ich finde beachtlich, dass die APU teils eine höhere Leistung pro Shader zu erzielen scheint als die RX6600. Das schließt einen Flaschenhals durch die RAM-Bandbreite eher aus und lässt in Zukunft vielleicht auf noch mal etwas stärkere APUs hoffen.

Wie @PCGH_Torsten unten aufzeigt, limitiert der RAM doch. Hätte mich eigentlich auch wundern müssen. Die APU hat deutlich mehr Rechenleistung pro Speicherbandbreite als die RX6600 und nutzt so letztere wohl vollständig aus, wie man auch an der 1:1-Skalierung bei minimalem Chiptaktplus im OC-Benchmark sieht.
 
Zuletzt bearbeitet:
Ich habe für einen Bekannten letztes Jahr einen PC gebaut mit dem 5700G und ich hätte nie gedacht dass man mit einer APU so gut zocken kann. Das hat mich total überrascht. Man kann da im Prinzip alle Spiele die vor 2018/2019 erschienen sind in 1080p sehr gut zocken. Viele Spiele sogar in 1440p. Sogar ein Fortnite mit neuer UE5 läuft da super spielbar. Alte Klassiker wie Max Payne 1-3, diverse Boomer-Shooter und sogar RTS. Für einen Ultra-Budget PC sind die AMD Apus für mich mit Abstand die beste Wahl.
 
Danke für den Test, aber ich weiß nicht, was ich davon halten soll die Grafikeinheit bewegt sich als unter 50 FPS und das bei niedrigen Details.
Das einzig Positive an der Sache ist, dass die APU schneller als der Vorgänger ist, aber ernsthaft spielen damit, kann man vergessen weder Fisch noch Fleisch.
Würden die Teile sich auf dem Level einer PS5 oder Xbox bewegen, dann kann man drüber nachdenken, sich so eine APU zukaufen vorher nicht.
 
Für halbwegs ernstes Gaming finde ich die APU's (wie immer) uninteressant, wie das Fazit korrekt aufzeigt fährt man mit einer Vorgänger-CPU plus RX 6600 deutlich besser. Klar kostet das mehr Strom, bei locker der doppelten Performance im vgl. zum 8700G sollte das aber nicht wirklich ins Gewicht fallen.
Wenn, dann wäre die kleine APU interessant, in ein paar Monaten liegt der 8600G bei ~200€ und ist damit eine gute Wahl für absolutes Budgetgaming. Damit umgeht man den absolut lächerlichen Neuwarenmarkt bei den GPU's unter 200€ (1650 viel zu teuer, A380 nicht zuverlässig) und muss gleichzeitig auch nicht die irrsinnigen Aufschläge zahlen, die AMD für 2 Kerne und 4 CU's beim 8700G haben will.
 
Natürlich ist es schön, dass es hier Fortschritte gibt... Aber mehr sehe ich hier nicht. Es ist so weltfremd zu glauben, dass irgend jemand ein Spiel in low Details spielen möchte/wird. Näher an der Realität wäre 100fps bei low, dann kann man mit 40-60fps bei der Mehrzahl der spielen in med-details rechnen. DANN kann man drüber nachdenken ob eine richtige Grafikkarte sein muss oder nicht.
 
Ich finde beachtlich, dass die APU teils eine höhere Leistung pro Shader zu erzielen scheint als die RX6600. Das schließt einen Flaschenhals durch die RAM-Bandbreite eher aus und lässt in Zukunft vielleicht auf noch mal etwas stärkere APUs hoffen.

Es liegt definitiv eine RAM-Limitierung vor, wie die OC-Messungen zeigen, und bei der Shader-Leistung musst du auch deren Takt berücksichtigen. In Daves OC-Tests hat die APU immerhin 26 Prozent mehr Rechenrohleistung pro Shader.
 
Zuletzt bearbeitet:
keine 20fps in CP77 und mit OC dann die 30frames :ugly:
halb so schnell wie meine alte GTX 1070 aus 2016 :daumen:

man brauch schon n ganz klaren anwendungsfall wo die die n kauf wert sind
 
Natürlich ist es schön, dass es hier Fortschritte gibt... Aber mehr sehe ich hier nicht. Es ist so weltfremd zu glauben, dass irgend jemand ein Spiel in low Details spielen möchte/wird. Näher an der Realität wäre 100fps bei low, dann kann man mit 40-60fps bei der Mehrzahl der spielen in med-details rechnen. DANN kann man drüber nachdenken ob eine richtige Grafikkarte sein muss oder nicht.
Es gibt extrem viele Menschen die nicht neue Spiele für 50-70€ kaufen, sondern voll zufrieden sind mit alten Klassikern und Spiele vor 2018/2019. Davon gibt es tausende, und alle davon kann wohl kaum jemand in seinem gesamten Leben zocken. Mit einem Ryzen 5700G kann man tausende Spiele in High/Ultra settings und 60fps zocken (1080p/1440p). Selbst ein Fortnite mit UE5 geht in 1080p/60fps mit mittleren Details.
 
Natürlich ist es schön, dass es hier Fortschritte gibt... Aber mehr sehe ich hier nicht. Es ist so weltfremd zu glauben, dass irgend jemand ein Spiel in low Details spielen möchte/wird. Näher an der Realität wäre 100fps bei low, dann kann man mit 40-60fps bei der Mehrzahl der spielen in med-details rechnen. DANN kann man drüber nachdenken ob eine richtige Grafikkarte sein muss oder nicht.

In low spielen werden schon einige, wenn ihnen mangels Aufrüst-Budgets nichts anderes übrig bleibt.
Aber genau dann kaufen sie halt auch keine neue 300-Euro-APU (wenn sie zu dem Preis überhaupt mal lieferbar ist). Umgekehrt kauft jemand, der ein neues Gaming-System anschafft, nicht mit dem Ziel "40 Fps oder weniger" – und wer ein nicht-Gaming-System kauft, kümmert sich gar nicht um die IGP, welche 300 Euro rechtfertigen soll. Es gibt natürlich immer die Nische "chinesischer Internet-Cafe-Aufbauer", wo für alte Spiele neue Hardware angeschafft wird und es dann vollkommen ausreicht, wenn diese die Performance alter GPUs erbringt. Aber allen anderen würde ich, bei derart knappen Budget, eher empfehlen, sich nach letztgenanntem umzuschauen: Die von Dave mitgetestete, deutlich schnellere GTX 1650 gibt es für unter 100 Euro, vermutlich ebenfalls noch schnellere GTX 1060 ging diesen Monat mehrfach für unter 60 Euro weg. Integrierte 3D-Beschleunigung ist ein nettes extra für gelegentliches Spielen auf eigentlich-nicht-Gaming-Systemen (vor allem in Laptops), aber in meinen Augen nie ein guter Kaufgrund. Dafür ist brauchbare 3D-Beschleunigung einfach zu aufwendig.


Beeindruckend für eine APU.

Jetzt würd mich mal interessieren, was wohl mit großem 3D-Cache als geteilten Speicherpool für IGP und CPU möglich wäre.
Ehrlich gesagt rechne ich schon länger mit einer solchen APU, für mich war das die nächste logische Evolution. eDRAM anyone?

Broadwell-H. Oder im mobilen auch die späteren Iris Pro auf Sky- und Kaby-Lake-Basis. Da war der Cache zwar nicht "3D", aber das sollte ja nicht das entscheidende Kriterium sein. Dafür war es etwas anders: Teuer. Und genau das sollen APUs nicht sein.
 
Broadwell-H. Oder im mobilen auch die späteren Iris Pro auf Sky- und Kaby-Lake-Basis. Da war der Cache zwar nicht "3D", aber das sollte ja nicht das entscheidende Kriterium sein. Dafür war es etwas anders: Teuer. Und genau das sollen APUs nicht sein.

Das ist ja genau der Punkt, mit dem Hint auf den eDRAM. Das 3D Stacking was AMD auf ihren Prozessoren verwendet sollte mittlerweile, denke ich, soweit ausgereift sein das es vergleichsweise kosteneffizient ist.
Und selbst wenn es das nicht ist, würde ich gern eine APU mit extra großen on-DIE L3 oder extra L4 sehen und wenn es auch nur dafür ist mal zu sehen was möglich wäre.
Boradwell-H seinerseits war, rein als Machbarkeitsstudie schon sehr spannend, wie ich finde.
 
@PCGH_Torsten irgendwas passt für mich mit den Ergebnissen der RX 6400 nicht. Bei Computerbase ist die relativ weit vor den 8000er APUs (auch vor der GTX 1650). Wie lässt sich das erklären, weil euer Testsystem ist ja nicht gerade langsam, dass die 6400er ausbremsen würde bezüglich PCIe Lanes oder so.
Die Benchmarks bezüglich der RX 6400 scheinen mir bei CB etwas plausibler.
Oder hab ich im Text irgendwas überlesen?
 
Die RX 6400 ist dermaßen beschnitten, dass man sehr schnell an Limits gerät. Es hängt vom Spiel ab, und den Einstellungen. Weil die Karte nur 4 GiB Speicher hat und nur mit PCI-E 4.0 4x Lanes (effektiv PCI-E 2.0 16x!) angebunden ist, verpufft sämtliche Leistung. Da sind schon Full HD mit mittleren Details zu viel :ka:
 
Danke für die Antwort und den Test natürlich. Die 6400 hat auch nur 7.13 TFLOPs hab ich eben gesehen Was ja weniger als der 8700G wäre.
Dann ist die RX 6400 vermutlich doch bei ComputerBase übermäßig gut.
Solche komplett unterschiedliche Ergebnisse sind für mich gerade sehr verwirrend...
 
Wie kommen eigentlich diese 8,12TFLOPS für die 8000G zustande? Normalerweise scheint die Rechnung folgendermaßen zu sein: Takt x Shader x 2 (wegen FMA?). Hier werden aber aus 768 Shadern bei 2,9GHz irgendwie keine 4,45TFLOPS, sondern deutlich mehr. Wird hier mit Dual Issue oder Half Precision gerechnet?
Für einen Ultra-Budget PC sind die AMD Apus für mich mit Abstand die beste Wahl.
Kommt eben auf den Preis an. Wie im Artikel steht, wäre eine kleine AM4-CPU zusammen mit einer RX6600 günstiger und zumindest in Spielen schneller.
Würden die Teile sich auf dem Level einer PS5 oder Xbox bewegen, dann kann man drüber nachdenken, sich so eine APU zukaufen vorher nicht.
Kommt immer auf die Anforderungen an. Im Moment ist eher der Preis das Problem.
Es liegt definitiv eine RAM-Limitierung vor, wie die OC-Messungen zeigen, und bei der Shader-Leistung musst du auch deren Takt berücksichtigen. In Daves OC-Tests hat die APU immerhin 26 Prozent mehr Rechenrohleistung pro Shader.
Hast Recht, das hatte ich irgendwie überlesen. Das mit dem Takt war mir bewusst, wäre der RAM-Flaschenhals aber noch ausgeprägter, wäre ja schon ein Gleichstand ja nicht möglich gewesen, weil die Leistung verpufft.
 
Solche komplett unterschiedliche Ergebnisse sind für mich gerade sehr verwirrend...
Die Karte ist ganz dünnes Eis, ich hoffe niemand kauft das Teil aufgrund des Computerbase Test...
Ich habe vor ein paar Tagen als FSR3 incl. FMF für Modern Warfare 3 und den LS22 raus kamen die 6400 mal wieder eingebaut und ein bisschen rum probiert, die Karte ist einfach komplett verwirrend. Im LS22 hat man in mittleren einstellungen das Gefühl die Karte weis gar nicht wohin mit der Leistung, erhöht man auf hohe Einstellungen ist es plötzlich komplett unspielbar. Selbiges in MWIII, allerniedrigste Einstellungen hat man kurze max FPS von 90 aber es ist sowas von unspielbar, ich glaube 4070Ti auf 30fps incl. Frame Generation begrenzt läuft flüssiger.
 
Zurück