News Radeon 890M mit RDNA 3.5 soll Radeon RX 6400 schlagen und Geforce RTX 2050 jagen

PCGH_Sven

PCGH-Autor
Die in den Ryzen AI 9 HX 370 integrierte GPU, die auf die Bezeichnung Radeon 890M hört und auf Basis von RDNA 3.5 insgesamt 16 Compute Units und 1.024 Shader-Einheiten bietet, soll die Radeon RX 6400 schlagen und die Geforce RTX 2050 jagen.

Was sagt die PCGH-X-Community zu Radeon 890M mit RDNA 3.5 soll Radeon RX 6400 schlagen und Geforce RTX 2050 jagen

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Seh ich auch so gab es überhaupt ne 2050 :-)

wobei ne 6400 ist ja nun ja auch nicht grad der Burner, nen Niveau auf 2060 wäre doch mal was.
Es gab die nur als dedizierte RTX 2050 Mobile in Notebooks. Habe einen Vergleich mit dem Vorgänger 680M aufgetrieben, bei der die RTX 2050 "überlegen" ist:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Also ne 6400 dürfte realistisch drin sein. Die 780M liegt - im Desktop (8700G), d.h. beste TDP/RAM Voraussetzungen - so in etwa bei einer 1050(TI); zur 6400 wären das 20-30%.
Die 6400 widerum liegt knapp hinter einer GTX 1650 und ca. 10% hinter einer RX470.
In Anbetracht der 50% mehr Shader & wahrscheinlich etwas (wenn auch nicht sehr viel) höheren Speichergeschwindigkeiten seitens der CPU, kann ich mir das schon vorstellen, dass man so grob 30% Mehrleistung rausholen kann. Dafür darf das Ganze aber nicht TDP/Temperatur limitiert sein (was aber leider des öfteren bei Notebooks der Fall ist). Die vollen 50% werden das ziemlich sicher nicht werden, da einfach zu wenig am Speicherinterface passiert.

Beachtlich ist das natürlich schon. Da kommt man in Bereiche, wo sich auf FullHD immer mehr Spiele gut zocken lassen. Ist halt aber auch hier wieder das Problem, dass das der Top-Chip (bzgl. Strix Point) sein wird und daher wieder nur in den teuren Geräten bzw. im Desktop später dann wahrscheinlich wieder als sehr teure APU.
 
Wenn man sich überlegt das dass grob in den Leistungsbereich der ersten Titan geht, ist das für eine iGPU schon wild, selbst wenn es in totalen Zahlen natürlich eher "nett" ist. Definitiv die richtige Richtung in die sich alles entwickelt!
Ich finde die Vergleiche mit solch alten Karten und IGPU's immer eher unpassend. Technisch ist das klar beeindruckend, aber das ist ne 4080 auch, wenn man die mit besagter Titan und gleichem Preis (beide ca. 1000$, eigentlich bei der Titan aber mehr dank Inflation) vergleicht. Leider reicht die Power der 890M aber kaum für 1080p Gaming, wo sich mir dann schon die Frage stellt, was das ganze soll. Jede neue Gen bringt mehr Performance (bzw. in diesem Fall hauptsächlich mehr Shader), so weit so unspektakulär, aber um wirkliche Entwicklung zu bringen muss man schneller wachsen als die entsprechenden Anforderungen. Das doppelte an Shadern wäre Interessant, jedenfalls für ne IGPU. Als Endanwender wäre mir das aber trotzdem völlig Latte, bei nem Laptop ist es mir egal, ob da ein oder zwei Chips auf dem Board sind, die sehe ich von außen ja sowieso nicht. Was mich interessiert sind Performance und Preis.

Gerade Letzteres wird interessant, schließlich bekomme ich die 16CU's nur beim HX370 und der wird auch entsprechend kosten. Aus Gamingsicht könnte da ne andere Konfiguration mit schwächerer CPU + MobileGPU dank besserem P/L sinnvoller sein. Wie oben schonmal, der Usecase erschließt sich mir einfach nicht so richtig.
 
Ich finde die Vergleiche mit solch alten Karten und IGPU's immer eher unpassend. Technisch ist das klar beeindruckend, aber das ist ne 4080 auch, wenn man die mit besagter Titan und gleichem Preis (beide ca. 1000$, eigentlich bei der Titan aber mehr dank Inflation) vergleicht. Leider reicht die Power der 890M aber kaum für 1080p Gaming, wo sich mir dann schon die Frage stellt, was das ganze soll.
Man muss ja nicht immer die neuesten AAA-Spiele zocken. Manche Indie-Spiele oder AAA-Klassiker machen sogar (teilweise deutlich) mehr Spaß als die Neuerscheinungen.

Beim Steam Deck finde ich es zwar auch beeindruckend, dass es grundsätzlich sogar Spiele wie Cyberpunk oder Ratchet & Clank: Rift Apart schafft... dennoch zocke ich damit viel lieber alte PC-Klassiker, besonders aus der Xbox360- und PS3-Ära mit 60 - 90 fps, teilweise auch Spiele der frühen Xbox-One- und PS4-Ära mit 40 - 45 fps.

Mit der 890M werden dann viele Spiele der Xbox-One- und PS4-Ära mit 60 fps möglich sein, die auf diesen Konsolen ein 30-fps-Lock hatten.
 
Es gab die nur als dedizierte RTX 2050 Mobile in Notebooks. Habe einen Vergleich mit dem Vorgänger 680M aufgetrieben, bei der die RTX 2050 "überlegen" ist:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mein 8700G (DDR5 7200) schafft in CP2077:
1080p Medium mit FSR (Q) min. 45 und Avg: 53
1080p Ultra OHNE FSR min. 21 und Avg: 27

APUs sind schon was feines. :D
 
Ich hoffe noch auf ein Z2 Extreme o.ä. vielleicht sogar auf Basis von Strix Halo, aber eine sinnvollere Kombination aus CPU+GPU mit entsprechend geringerem Preis wäre für Handhelds super. Wobei ich die Vorstellung von einem GPD Win Max 3 mit Strix Halo auch super spannend finde. Hoffentlich mit ×8 PCIE 4 Oculus Link :-X
 
Leider reicht die Power der 890M aber kaum für 1080p Gaming, wo sich mir dann schon die Frage stellt, was das ganze soll.

Wenn du alles wie blöd auf Ultra stellst und dann noch die höchsten Raytracingeinstellungen draufhaust, dann ja. Aber man kann die Details auch runterdrehen und FSR2 gibt es auch noch- Wenn man beide kombiniert, dann kann man sich sogar ein 4K Bild ausgeben lassen, das sind schon tolle Zeiten.

Die IGP ist dafür gedacht, die Spiele zum laufen z bringen z.B. 4K mit FSR2 Performace und mittlere Einstellungen oder wenn man auf Ultra Details abfährt, dann wird es eben der Ultra Performancemodus. So habe ich die Diablo 4 Beta gezockt, mit 45 FPS auf einer GTX 1060 6GB (die damit nach Nvidialogik schneller, als eine RTX 4070 ist).

Wenn du auf 4K Ultra nativ bestehst, dann ist das ganze nichts für dich, aber es gibt einen Haufen Leute, die ihre Spiele einfach nur günstig zum laufen bekommen wollen oder die sich freuen, dass das Zeug auch auf dem Laptop läuft.
 
Wenn man sich überlegt das dass grob in den Leistungsbereich der ersten Titan geht, ist das für eine iGPU schon wild, selbst wenn es in totalen Zahlen natürlich eher "nett" ist. Definitiv die richtige Richtung in die sich alles entwickelt!
Naja, aber Xbox und PS5 haben ja auch alles auf einen Chip. Von daher weiß ich nicht, was an dem 890M beeindruckend sein soll. Eher muss man sich fragen, warum AMD die Chips zurückhält.
 
Das wäre stillstand da aber alle ai pc nen quadchannel haben ist eher davon auszugehen das man sogar die rx580 erreicht effektiv rx6500xt
Den eine rx6400 wird schon mit der 780m (768alu 3,0ghz) erreicht
 
Mein 8700G (DDR5 7200) schafft in CP2077:
1080p Medium mit FSR (Q) min. 45 und Avg: 53
1080p Ultra OHNE FSR min. 21 und Avg: 27

APUs sind schon was feines. :D
Respekt, damit kann gearbeitet werden.

So ein 8700G eignet sich hervorragend für Strategiespiele.

Ich hoffe nur, dass sich AMD nicht wieder solange Zeit lässt bis zur neuen Generation; wie beim 5600G.

Wir bräuchten generell mehr Chips mit der Leistung einer Playstation 5. Ich verstehe einfach nicht, warum die CPU Hersteller so etwas nicht anbieten?
 
Das wäre stillstand da aber alle ai pc nen quadchannel haben ist eher davon auszugehen das man sogar die rx580 erreicht effektiv rx6500xt
Den eine rx6400 wird schon mit der 780m (768alu 3,0ghz) erreicht
Aber nur mit Ram und Igpu OC. Natürlich kommt es noch auf das spiel an bezogen auf den RAM .

Das mit dem Quadchannel ist jetzt schon mit Phoenix im Laptop und Desktop. denn hier ist es 4x32bit(128bit). Die neue APU ist genauso angebunden. Erst 2025 mit Halo apu gibt es mehr(256bit). Die Rx6500 wird mit strix point noch nicht erreicht. Vor allem nicht die 8gb version. Was der igpu fehlt ist der Infinity cache.
Eher muss man sich fragen, warum AMD die Chips zurückhält
welche chips hält amd zurück?
 
Respekt, damit kann gearbeitet werden.

So ein 8700G eignet sich hervorragend für Strategiespiele.

Ich hoffe nur, dass sich AMD nicht wieder solange Zeit lässt bis zur neuen Generation; wie beim 5600G.

Wir bräuchten generell mehr Chips mit der Leistung einer Playstation 5. Ich verstehe einfach nicht, warum die CPU Hersteller so etwas nicht anbieten?
Nicht nur Strategiespiele; diese aber eigendlich ohne großartigen "Probleme".
Far Cry 6, The Division 1, Ghost Recon - Breakpoint sind in 1080p in ~Medium schon gut zockbar (avg. 60FPS +)

In wie weit (bei dieser Gen.) mehr Speicher für die GPU (hatte 4 GB eingestellt) und höherer Geschwindigkeit noch was bringt musss man testen.
Grob gesagt ist der Ryzen 8700g-DDR5-7200 mehr als 100% schneller als der Ryzen 5700g mit DDR4-4200

CP2077 in 1080p - Medium mit FSR in Q
5700g : min. 18,40 avg. 22,06 max. 25,81
8700g: min. 44,89 avg. 52,46 max. 62,07

wenn ich mal Zeit habe wird alles (Benchmarks) in ner Liste mal eingetragen....

PS.
Ja es braucht noch mal ne Verdopplung damit man ohne RT alles 1080p in M bis H sehr gut zocken kann.
alles & sehr gut wie üblich : (TM) :ugly:
 
Aber nur mit Ram und Igpu OC. Natürlich kommt es noch auf das spiel an bezogen auf den RAM .

Das mit dem Quadchannel ist jetzt schon mit Phoenix im Laptop und Desktop. denn hier ist es 4x32bit(128bit). Die neue APU ist genauso angebunden. Erst 2025 mit Halo apu gibt es mehr(256bit). Die Rx6500 wird mit strix point noch nicht erreicht. Vor allem nicht die 8gb version. Was der igpu fehlt ist der Infinity cache.

welche chips hält amd zurück?
Na Chips mit mehr als 30 oder gar 60 CU's in Kombination mit ner CPU.
 
Eher muss man sich fragen, warum AMD die Chips zurückhält.

Weil es zu unflexibel ist, das hat man aus Kabylake G gelernt. Wobei das bei den Konsolenchips noch schlimmer ist, da man da auch beim RAM festgelegt ist. Man benötigt also eine sehr spezielle Klientel. Einerseits brauchen die Leute eine schnellere GPU wollen und andererseits kein Problem damit haben, dass ihr System insgesamt nur 16 RAM (inkl VRAM) hat. Bei Kabylake G konnte man immerhin bis zu 64GB normalen RAM reinstopfen, war dafür auf 4GB begrenzt.

Eine IGP hat (abgesehen vom Platzverbrauch) nur einen Kostenvorteil von etwa 30-50€. Das macht sie im unteren Segment sehr interessant, wo sie die Gurkenkarten quasi ausgerottet haben. Weiter oben sieht es anders aus: K;auf dir eine Graka (RTX 3050, 4060, 4060Ti 16 oder ein AMD Gegenstück) und kombiniere sie mit deiner Wunsch CPU (5600X, 7600X, 7800X3D oder eine Intel CPU), du hast die freie Auswahl. Damit bist du schneller unterwegs und kannst auch noch 32GB+ nehmen, ohne dass dir die Haare vom Kopf gefressen werden.. War bei Kabylake G nicht anders. Die CPU war interessant und ausreichend schnell, aber ein i7 7700K mit GTX 1060 oder RX 480 war besser, da sie mehr VRAM hatten. Von der GTX 1070 garnicht zu sprechen. Da nur sehr geringe Stückzahlen verkauft wurden, war es auch noch sehr teuer, für die 1400€ die Intel verlangt hat, bekam man eine 700€ teure GTX 1080Ti, die doppelt so schnell war und hatte noch 700€ für den Rest des Systems (ach ja: RAM und SSD mußte man sich bei Intel noch separat kaufen).


Bei Konsolen ist das anders. Da verkauft man zig Millionen gleiche CPUs, deshalbfallen die 30-50€, die man sparen kann, auch richtig ins Gewicht. Selbiges gilt für die Handhelds, das Steamdeck verkauft sich auch millionenfach.

So ein 8700G eignet sich hervorragend für Strategiespiele.

Auch für alles andere, es kommt halt eben auf die Ansprüche an.

Wenn man auf 4K60@ Ultra besteht, dann kommt man bei Anno 1800 nicht um eine RTX 4090 mit einem 7950X3D herum. Wobei einem das Spiel, wenn man die Inseln vollpflastert, wohl noch die nächsten 10 Jahre jede CPU in die Knie zwingen wird. Wenn man hingegen einfach nur etwas Anno zocken will, dann wird man mit einem 8700G glücklich. Wenn man auf Mittel stellt, sich mit 40FPS zufrieden gibt und FSR1 Performance nutzt, kann dürfte es sogar für 4K reichen.
 
Naja, aber Xbox und PS5 haben ja auch alles auf einen Chip. Von daher weiß ich nicht, was an dem 890M beeindruckend sein soll. Eher muss man sich fragen, warum AMD die Chips zurückhält.

Schon mal daran gedacht, dass PS5 und Series X mit ihren größeren GPUs zum Teil mehr als 200 Watt aus der Stromleitung ziehen? Nehmen wir mal einen recht großen Laptop-Akku mit 90 Wh als Beispiel, der hält bei 200W Verbrauch nicht mal 30 Min. durch. Ein weiteres Problem würde die Kühlung von 200Watt in einem Laptopgehäuse darstellen. Der Fortschritt der 890M liegt eben darin, eine höhere Leistung durch fortschrittliche Technik/Fertigung mit einer erträglichen Leistungsaufnahme für Laptops zu realisieren. Diese Effizienz dürfte die 890M im Vergleich zum Vorgänger weiter verbessern.
 
Zuletzt bearbeitet:
Das ROG Ally hat seinen Leistungssweetspot mit 12 CUs bei 25 Watt. Warum sollte eine APU mit 36 CUs und modernen Fertigungsverfahren jetzt 200 Watt verbrauchen? Eher würde man bei 75 Watt liegen.
Zudem gibt es Laptops mit RTX4080. Ich denke die ziehen schon auch 150 Watt und mehr.
Da hat @Pu244 bessere Argumente. Nämlich, dass man dann im Grafikkarten segment fischt und es sich nicht lohnt, da man dann mit dedizierte Grafikkarten flexibler ist.

Untermauert aber meine Ansicht, dass der 8700G ein interessanter, aber kein beeindruckender Chip ist.
 
Zuletzt bearbeitet:
Zurück