News AMD Radeon RX 8000 ("RDNA 4"): Navi 44 + Navi 44 = Navi 48?

@Blackfirehawk
Ne, das sehe ich nicht so. Bei FSR gibts halt das Problem, dass Objekte dann noch schneller aufpixeln, was unschön ausschaut. Bei DLSS passiert das nicht, wird aber alles unscharf, ähnlich FXAA. Hier ist allerdings der Vorteil der Bildruhe gegeben, obgleich das für mich nicht als Ausgleich reicht. Beides ist in meinen Augen noch Mist. Unter den qualitysettings würde ich beides nicht betreiben, sondern lieber das Spiel nochmal weglegen.

Edit
Ich geh aber auch von vernünftigen Ausgangsauflösungenaus. Also wer beispielsweise 1080p als native Monitorauflösung nutzt, da stimme ich dann doch zu. Alles darüber würde ich verneinen.
Ich bin mir nicht sicher, ob du genau das meintest.
 
Bei der Topologie eines 5800X3D sollte CPPC gar nichts bringen. Der Weg zum Fabric Cache ist ja immer gleich lang ohne zweites CCX.
Doch weil CPPC nach wie vor versucht soviel Rechenlast wie möglich auf so wenig Cores wie möglich zu legen.. damit diese höher boosten und der rest mehr Ideln kann..
Und das unabhängig wie viele Chiplets verbaut sind
Klar macht das einen Unterschied, lese dir mal den Test des 3300X durch.

Das hat sich mit den 5000er aber schon wesentlich gebessert...weil 8 Core pro Chiplet/Cache und nicht 2x4 mit getrennten Cache

@Cleriker . Das trifft auch bei 1440p schon zu..

Gegen das unscharf musst du den negativen lod Clamp ausschalten im Treiber Menü (negatives lod erlauben)

Und ja.. wer ne Karte im Bereich 300-400€ sucht wird wahrscheinlich im 1080P Bereich sein
 
Zuletzt bearbeitet:
Nicht nur bei den großen Karten.. auch bei den kleinen Karten die bei neuen Games massiv auf upscaling angewiesen sind ist eine AMD Karte deutlich im Nachteil weil man mit DLSS bedeutend tiefer von der Renderauflösung gehen kann bevor es anfängt kacke auszusehen.. was in entsprechend mehr FPS umsetzbar ist

Solange wir DLSS-Q mit FSR Nativ
Und DLSS-P/B mit FSR-Q bei den Spielen im Upscaling fall Vergleichen müssen sind auch die kleinen Karten keine Option
Das ist der aktuelle Stand, sehe ich genau so (nachdem ich ohne Ende Bildvergleiche und Videovergleiche durchforstet habe, zum Beispiel bei Techpowerup).

Aber hier bin ich guter Hoffnung, das es sehr bald durch FSR 3.1 an Relevanz verliert.
Ich meine wenn FSR3.1 einen guten Sprung hinlegt, dann ist der noch verbleibende Vorsprung nicht mehr so unendlich bedeutend. Wenn auch ich von Ray Reconstruction schon recht begeistert bin zum Beispiel.
Wenn wir jetzt noch Sachen wie HDR unterstützung (AMD hat Probleme mit Peak brightness und tonemapping bei den meisten Displays durch freesync Premium pro) und KI- HDR in Video und Gaming dazu in die Waage schmeißen wird es nur trauriger
Was ist tonemapping?
Ich glaube aber das es viele nicht so sehr interessiert (Also HDR)
 
@Blackfirehawk
Ne, das sehe ich nicht so. Bei FSR gibts halt das Problem, dass Objekte dann noch schneller aufpixeln, was unschön ausschaut. Bei DLSS passiert das nicht, wird aber alles unscharf, ähnlich FXAA. Hier ist allerdings der Vorteil der Bildruhe gegeben, obgleich das für mich nicht als Ausgleich reicht. Beides ist in meinen Augen noch Mist. Unter den qualitysettings würde ich beides nicht betreiben, sondern lieber das Spiel nochmal weglegen.

Edit
Ich geh aber auch von vernünftigen Ausgangsauflösungenaus. Also wer beispielsweise 1080p als native Monitorauflösung nutzt, da stimme ich dann doch zu. Alles darüber würde ich verneinen.
Ich bin mir nicht sicher, ob du genau das meintest.

Bin mir nicht sicher, ob ich es richtig verstehe...

Wenn ich jetzt in 4k, DLSS Q, oder B nutze dann wird dort eigentlich nichts unscharf. Nicht wenn man genau hinschaut. (Wobei es bei Balanced natürlich doch schon anfängt unschärfer zu werden)

In 1440p ist das Gefühl, des unschärfer werdens aber ausgeprägter...

Ist das so in die Richtung gemeint.
 
@PCGH_Sven wohl Fakenews

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Bin mir nicht sicher, ob ich es richtig verstehe...

Wenn ich jetzt in 4k, DLSS Q, oder B nutze dann wird dort eigentlich nichts unscharf. Nicht wenn man genau hinschaut. (Wobei es bei Balanced natürlich doch schon anfängt unschärfer zu werden)

In 1440p ist das Gefühl, des unschärfer werdens aber ausgeprägter...

Ist das so in die Richtung gemeint.
Genau. Bei 4k ist alles tutti, bei 1440p merkt man alles unter quality direkt und in 1080p sieht FSR mMn echt finster gegen DLSS aus, egal in welchem Modus.
Jedenfalls nehme ich das so wahr.
 
Je nach Blickwinkel ist das schon so.
Wer halt sich gerne dem neusten Schrei bei Grafik verschreibt zum Beispiel, der bekommt bei Nvidia durch die Bank die besseren Produkte. Aktueller Stand
Finde ich nicht, klar, wer das schnellste und neueste möchte greift zu 4080/4090 vielleicht noch zur 4070ti super. Aber darunter sind sie absolut Konkurrenzfähig. Habe vor dem Super Release noch meine 4080 verkauft und gerade mal 50€ Verlust gemacht, hab mich dann für 7900Xt entschieden für 720€ und bin absolut zufrieden. Natürlich wird Pathtracing etc. wirklich nicht gehen, das geht aber mit den ganzen 4070/4060ti, 4070 super, 4070ti usw. auch nicht smooth.
D.h. für jeden der auch mit mittleren RT Settings leben kann, gute FSR Implementierung vorausgesetzt, ist auch AMD ein heißer Kandidat. Also auf meinem 34 Zoll ist die Karte perfekt und aktuell kommen lauter Spiele bei denen RT iwie nicht zu sehen ist... GoT z.B. zocke es mit FSR Nativ et Ultra und habe zwischen 90-120FPS in UWQHD, genau da liegt auch eine 4070ti super kostet aber 200€ mehr.
DLSS, klar ein ticken besser, aber im Standbild sind die Unterschiede mit der Lupe zu suchen und im Spielgeschehen sowie so nicht wahrzunehmen. Liegt also ganz an der eigenen Präferenz. Ich finde AMD bietet gerade mehr pro Euro, wogegen NVIDIA das Top Notch anbietet , aber sich fürstlich bezahlen lässt...

Also im Bereich 7600-7900xt hat aus meiner Sicht NVidia einfach vom Gesampaket (Preis-Leistung) einfach nix zu bieten, da ich RT wenn überhaupt nie mit einer 4070(ti) genießen könnte... Speicher ist dann auch noch so ein Thema. Letztendlich kommts dann auf die Genre Vorlieben an.


Topic: Ich erhoffe mir das AMD das Chiplet Design für RT Einheiten nutzen kann und hier aufschließen, ebenso FSR... Gute Konkurrenz würde uns einfach gut tun. Nicht nur im Geldbeutel, sondern dann bewegt sich auch bei den Games was...
 
Finde ich nicht, klar, wer das schnellste und neueste möchte greift zu 4080/4090 vielleicht noch zur 4070ti super. Aber darunter sind sie absolut Konkurrenzfähig. Habe vor dem Super Release noch meine 4080 verkauft und gerade mal 50€ Verlust gemacht, hab mich dann für 7900Xt entschieden für 720€ und bin absolut zufrieden. Natürlich wird Pathtracing etc. wirklich nicht gehen, das geht aber mit den ganzen 4070/4060ti, 4070 super, 4070ti usw. auch nicht smooth.
D.h. für jeden der auch mit mittleren RT Settings leben kann, gute FSR Implementierung vorausgesetzt, ist auch AMD ein heißer Kandidat.
1440p mit Path Tracning ging gut in Cyberpunk mit meiner vorherigen 4070ti 12GB.
Das wird auch mit einer 4070 super möglich sein.

Ich würde aktuell unter einer 4070, 7800XT aber sowieso nichts kaufen... Finde die Abstriche sind dort zu groß.

Und ab der 4070 sehe ich bei Ray Tracing schon große Vorteile. Auch die 12GB ändern nichts daran.

Das hat aber natürlich absolut nichts damit zu tun das man mit AMD nicht gut spielen könnte.

Natürlich kann man auch super mit AMD zocken.
Also auf meinem 34 Zoll ist die Karte perfekt und aktuell kommen lauter Spiele bei denen RT iwie nicht zu sehen ist... GoT z.B. zocke es mit FSR Nativ et Ultra und habe zwischen 90-120FPS in UWQHD, genau da liegt auch eine 4070ti super kostet aber 200€ mehr.
Das ist so, ohne RT ist die 7900XT der bessere Deal. Sofern man nicht VR zockt.
DLSS, klar ein ticken besser, aber im Standbild sind die Unterschiede mit der Lupe zu suchen und im Spielgeschehen sowie so nicht wahrzunehmen.
Einen Ticken, respekt wenn du den Unterschied nicht so deutlich siehst ist gut für dich.
Gerade in Bewegung hat FSR öfter Probleme.

Wenn das etwas schlechtere Bild aber kein Problem ist, dann kann man für Nvidia auch DLSS Balanced als Basis nehmen und dann ist die 4070ti Super auch wieder schneller als die Xt und liegt dicht an der XTX. Mit RT sowieso dann noch deutlicher davor.

Nur so als Gedanke!

(Ich selber hoffe ja, das FSR3.1 die Situation deutlich bessert)
Liegt also ganz an der eigenen Präferenz. Ich finde AMD bietet gerade mehr pro Euro, wogegen NVIDIA das Top Notch anbietet , aber sich fürstlich bezahlen lässt...
Kann ich so nicht sehen, lediglich wenn ich einen Persönlichen Rahmen ansetze und sage RT ist jetzt zu vernachlässigen. Dann bietet AMD rein weg Fps/€ mehr.
Aber, VR, FSR, Effizienz Bauform lösen sich dadurch nicht in Luft auf.
Also im Bereich 7600-7900xt hat aus meiner Sicht NVidia einfach vom Gesampaket (Preis-Leistung) einfach nix zu bieten, da ich RT wenn überhaupt nie mit einer 4070(ti) genießen könnte... Speicher ist dann auch noch so ein Thema. Letztendlich kommts dann auf die Genre Vorlieben an.
Je nachdem wer was, für was kauft.
Dem einen ist es der Speicher, dem anderen RT Leistung...
Topic: Ich erhoffe mir das AMD das Chiplet Design für RT Einheiten nutzen kann und hier aufschließen, ebenso FSR... Gute Konkurrenz würde uns einfach gut tun. Nicht nur im Geldbeutel, sondern dann bewegt sich auch bei den Games was...
Wie gesagt, ich hoffe auch auf FSR3.1.

Das AMD RT ganz aufholen wird, wird halt nicht passieren, aber ich hoffe das man einen Großen Sprung nach vorne machen kann und das AMD möglichst schnell auch Hiegh End bedient.
 
Ich muss zugeben, dass ich davon ausgegangen war, dass AMD und Microsoft sich längst um das Core-Zuweisungs- sowie das Parking-Problem gekümmert haben. Ich fand den Ansatz, möglichst viele Kerne möglichst effizient unterzubringen, für bestimmte Szenarien absolut mega.
Die dürfen sich da langsam mal drum kümmern. Ist ja traurig, ... irgendwie:daumen2:
 
Bei DLSS passiert das nicht, wird aber alles unscharf, ähnlich FXAA. Hier ist allerdings der Vorteil der Bildruhe gegeben, obgleich das für mich nicht als Ausgleich reicht.
Das ist nicht unscharf. Was du als unscharf interpretierst sind die geglätteten Kanten. Die FSR Artefakte bzw. das Bröseln entwickeln durch die Artefakte neue vermeintliche Schärfe. Sieht man leicht, wenn man händisch mit DLSS Sharpener nachschärft.
Das hat sich mit den 5000er aber schon wesentlich gebessert...weil 8 Core pro Chiplet/Cache und nicht 2x4 mit getrennten Cache
Genau diesen Umstand habe ich ja angemerkt. Und das gleiche Problem besteht mit 2 CCX mit jeweils 8 Cores. Davon merkt man aber nichts, da Spiele in der Regel nicht mehr als 6 Kerne mit HT brauchen. Ändert sich das, wird man 16 Kerne in ein CCX pressen müssen.
 
Zuletzt bearbeitet von einem Moderator:
Eigentlich relativ aktuell. Die beste Gaming CPU aka 7800X3D besteht aus einem CCX, einem monolithischen 8-Core Cluster und...
"Nicht durchgesetzt" bedeutet für mich, dass die Technologie verschwunden ist und nicht mehr genutzt wird.
Außerdem sprachst du nicht von "Gaming", sondern allgemein von CPUs.

Die Wortwahl ist da schon sehr wichtig.
Das eine schreiben und das andre meinen ist halt extrem kontraproduktiv.

Chiplet Designs sind allgegenwärtig bei CPUs und nichts anderes schrieb ich.

Du brachtest Gaming erst in denier Antwort auf meinen Kommentar ins Spiel.
 
"Nicht durchgesetzt" bedeutet für mich, dass die Technologie verschwunden ist und nicht mehr genutzt wird.
Für mich bedeutet es, die Technik wird in dem Segment auf das ich mich bezog einfach nicht genutzt, da die Performancekosten zu hoch sind. Siehe 4Cores/CCX -> 8 Cores/CCX.

Die Technik wird bei den Gaming CPUs aktuell nicht genutzt, nicht mal auf dem 7950X3D, dort wird penibel darauf geachtet, dass sie CPU nur auf dem CCX mit dem großen L3 rechnet, damit die Leistung stimmt.
Außerdem sprachst du nicht von "Gaming", sondern allgemein von CPUs.
Doch, ich spreche von Gaming, lese dir meine Posts nochmal durch.
Die Chiplettechnik hat zu viele Nachteile um für Latenzkritische workloads missbraucht zu werden, deshalb geht weder Intel noch AMD diesen Weg...
 
Zuletzt bearbeitet von einem Moderator:
Lediglich bei KI GPUs für den Serverbereich mit niedriger Taktung und kaum Overheadproblemen durch die Chiplets. Hat sich im CPU Bereich auch nicht durchgesetzt, wieso dann im GPU Bereich?
Genau so hast du es geschrieben... Also gleich nachdem du behauptest, chiplets gäbe es nur bei KI GPUs im Serverbereich und allein das ist schon BS...
Alle größeren GPUs im Serverbereich nutzen Chiplets.
Es gibt durchaus noch Bereiche außerhalb von KI, die GPUs nutzen.
Das Tolle an GPUs ist halt, dass sie mehr als ein One Trick Pony sind.

Und gleich drauf zu schreiben, dass sich Chiplets im CPU Bereich nicht durchgesetzt haben, schließt dann halt alle CPUs mit ein - inklusive dem Server Bereich. Immerhin schreibst du das direkt im Zusammenhang.

Und ob du eine 5900er, oder 7900er CPU oder eine 14900K CPU für Gaming nutzt, oder nicht... es sind Desktop Chips, die durchaus für Gaming fähig sind.

Die Chiplet Technologie wird bleiben. Gaming ist eh nur das kleine Anhängsel, dass CPU Entwicklungen mit nutzt.
Allerdings sind die Gaming Engines (und Windows) noch bei weitem nicht in der Lage, mehr als eine CCD sinnvoll zu nutzen.
Vor allem da die Gaming KIs ja vergleichsweise einfach gestrickt sind, könnte man deren Berechnung schön auf eine zweite CCD auslagern und vieles in einer open world darauf berechnen lassen, während die nähere Umgebung auf dem Main CCD berechnet wird.
Das ist aber auch nicht gerade leicht umzusetzen und erfordert ziemlich andere Ansätze im Grunddesign.
So weit ist die Industrie aktuell schlicht nicht.
 
Du musst schon genauer lesen. Ich spreche explizit von Gaming.
Für den einfachen Anwender bringen Chiplets auch nichts..
Die Aussage ist aber nur die halbe Wahrheit.
Denn du nimmst einfach mal an, dass kein Chipletdesign nötig ist, weil die ganze Zeit über genug Kerne und Recheneinheiten auch in einem monolitischen Design ausreichend vorhanden sind.
Es geht ja aber auch um den Fall, wo das nicht mehr reicht.
Und genau da kommt dann die Technologie zum Einsatz.
Auch beim Gaming.
Die Fertigung kann nicht beliebig geshrinkt und Wafer nicht xbeliebig groß geschnitten und belichtet werden, irgendwo gibt es technologische und kostenintensive Grenzen.
Mit Zen 1 gab es maximal 4x4 Kerne, jetzt halt schon 8er Klötze.
Letzteres ist aber auch nur möglich dank der feineren und kleineren Strukturbreite
Da kann man ja quasi froh sein, dass die Softwarehersteller das genau dafür angepasst haben.
Doch schon kommt PCGH daher und empfehlt sogar größere Mehrkerner für Leute, die dann nebenher auch noch Streamen wollen, oder sonstigen Klimbims an haben.
Was wäre aber wenn das jetzt mal technologisch nicht funktioniert hätte, so wie Intel seit Jahren mit seiner 10nm und 7nm Geschichte rumhampelt udn nichts geschissen bekommt?
Wenn AMD also auch heute noch maximal 4 Einheiten so gemeinsam Platzieren könnte?
Würdest du sagen 4 Kerne reichen fürs anspruchsvolle Gaming?
Klar könnte man dann sagen: ja aber halt, das ist ja nur ein kleiner CCD, warum nicht stattdessen monolitisch auf 8 gehen?
Klar, geht, aber das topediert den Vorteil der CCD Entwicklung, weil man dann wieder komplett zweigleisig entwickeln und produizeren muss , die damit eigentlich kostengünstigere Produktion führt also zu einer Verteuerung des Ganzen und alle Chips werden teurer.
Das will aber auch wieder vor allem kein Spieler bezahlen.
Und wie gesagt nur monolitisch komtm man dann wieder an die Grenze für Anwender, die nicht in den Genuss vieler Kerne kommen können, dann wäre vielleicht wieder monolitisch bei 16 oder 32 Kerne Schluss, also nix da 96 Kerne oder gar 128.
Man kann es drehen wie man will: langfristig ist monolitisch nichts mehr zu reißen.
Lieber viele Kerne mit 80% Leistung beliebig ergänzen, statt wenige mit 100% zu haben.
 
Also gleich nachdem du behauptest, chiplets gäbe es nur bei KI GPUs im Serverbereich und allein das ist schon BS...
Das habe ich so nicht geschrieben, ich schreibe lediglich, dass ich denke, dass sich das für den Heimanwender Bereich in punkto Gaming! nicht durchsetzen wird, da die Nachteile zu groß sind. Und genau das hat der Schritt 4Cores -> 8 Cores/CCX und AMDs Rückzug in Sachen Chiplet GPU für mich gezeigt.

Du lässt irgendwie die Absicht erkennen nicht verstehen zu wollen. Schade.

Die Chiplet Technologie wird bleiben.
Nein die Chiplet Technologie wird sterben! 🤣
 
Zuletzt bearbeitet von einem Moderator:
Denn du nimmst einfach mal an, dass kein Chipletdesign nötig ist, weil die ganze Zeit über genug Kerne und Recheneinheiten auch in einem monolitischen Design ausreichend vorhanden sind.
Ja. Genau das ist mein Standpunkt.
AMD ist das mit Zen 3 angegangen und war danach deutlich konkurrenzfähiger, indem man eine Basis mit 8 Kernen pro CCX geschaffen hat die Anwendungen und Spiele ausreichend ohne den Umweg über den Fabric beschleunigt.

Intel geht sogar noch weiter und lässt alle P und E Cores in einem Tile und splittet das nicht auf.
Es geht ja aber auch um den Fall, wo das nicht mehr reicht.
Und genau da kommt dann die Technologie zum Einsatz.
Auch beim Gaming.
Es kommt ja nicht mehr zum Einsatz, da die Spiele das zweite CCX gar nicht nutzen, außer vielleicht bei dem 7900X3D, aber diese CPU bricht dann auch entsprechend ein.
Man kann es drehen wie man will: langfristig ist monolitisch nichts mehr zu reißen.
Im Serverbereich bei vielen unabhängigen Berechnungen sehe ich das auch so.

Lieber viele Kerne mit 80% Leistung beliebig ergänzen, statt wenige mit 100% zu haben.
Bin ich mehr beim Gegenteil. Lieber mehr in einem CCX, und dafür schneller.
 
Das habe ich so nicht geschrieben, ich schreibe lediglich, dass ich denke, dass sich das für den Heimanwender Bereich in punkto Gaming! nicht durchsetzen wird, da die Nachteile zu groß sind.
Deine von mir zitierte Formulierung gibt das schlicht nicht her.
Durch meinen Job lese ich genau was da steht und spare mir jegliche Interpretation.
Dein von mir zitierter Beitrag erwähnt Gaming nicht im Zusammenhang mit CPUs. Da bist du nur bei Servern und sogar server GPUs im direkt davor stehenden Satz.


Dass du deine Aussage später aufs Gaming beziehst ist ja ok.
Du sagst ja auch viele korrekte Sachen - auch wenn du zu sehr davon ausgehst, dass die Chiplet Technologie nicht nutzbar ist, nur weil die aktuellen Game Engines nicht gut damit umgehen, Tasks zu verteilen.
Im Grunde ist das ein "Das haben wir schon immer so gemacht" Ansatz, der schlicht Änderungen ausschließt, nur weil aktuell Dinge nicht funktionieren.
Und genau das hat der Schritt 4Cores -> 8 Cores/CCX und AMDs Rückzug in Sachen Chiplet GPU für mich gezeigt.
Sorry, das ist ein vollkommen falscher Sprung, den du da machst.
1) Der Sprung auf mehr Kerne pro CCX ist schlicht der weiteren Miniaturisierung zu verdanken und dass man so deutlich mehr Kerne insgesamt auf eine MCU packen kann. Mit nur 4 Kernen pro CCX kommst du nur mit extremen Baugrößen auf 128 Kerne und mehr.
Für jede CCX kommen Mindestabstände für Interfaces dazu, was man mit doppelter Kernzahl pro CCX mal eben halbiert.

2) Wo hat AMD einen Rückzug von Chiplets in GPUs gemacht?
Für Gaming gab es noch keine Chiplet GPUs.
Für Server sind die MI200er die aktuellen, auf Chiplet basierenden GPUs.
Die CDNA Chiplets sehen dabei halt anders aus, als CPU CCX.

Bei CDNA3 ging AMD etwas weiter mit den Chiplet Design für die MI300* Beschleuniger:

Alles in allem ist eher das Gegenteil der Fall. AMD (und Nvidia) lernt von den ersten GPU Chiplet Erfahrungen und wird die in Zukunft so weit wie möglich ausrollen.

Das dürfte auch der Grund sein, weshalb nach RDNA4 eine neue Architektur kommt.
Die wird sich in einigen Bereichen kräftig bei CDNA bedienen, um Chiplets umsetzbar zu machen.
 
Zurück