AMD Radeon RX 7900 XT(X): Alle bekannten Details zur Hardware und Performance-Prognose

Seit wann ist "viel Cache" eine Inovation?

Und SAM ist ein Marketingname aber keine Entwicklung von AMD. Und schon gar nichts, was sie Geld gekostet hat. Man hat nur eine vorhandene Technologie endlich mal zur Anwendung gebracht. Dafür bin ich denen sogar dankbar, auch wenn es sicher kein Gamechanger war.

Bei NVidia ist die Innovation in den dedizierten AI- und RT Einheiten, sowie in der DLSS Entwicklung. Nicht im Fertigungsprozess.
Der Einsatz des Cache in dieser Weise ist innovativ. Und die AI und RT Einheiten hat nVidia mit Ampere eingeführt und haben wenig mit der aktuellen Leistungssteigerung zu tun. Diese kommt hauptsächlich aus dem verbesserten Fertigungsprozess und den damit verbundenen Takt- und Effizienzsteigerungen. Ich hab nVidia ja nicht die Innovationskraft aberkannt, sondern nur deine lächerliche Aussage widerlegt.
 
Was meinst Du mit keine "feineren Qualitätsabstufungen" in CP2077?

Anhang anzeigen 1407119

Dass man Reflections und Shadows nicht separat in der Qualität einstellen kann? Das macht den Braten wohl eher nicht fett, Lighting kostet am meisten und das kann man eieinstellen.Le
Herstellerspezifische Optimierungen sind für mich nur dann legitim, wenn sie nicht extrem ausarten und einen deutlichen Nachteil für die andere Seite bedeutet, so wie in Cyberpunk 2077 praktiziert.
Und ja, es macht im Falle von RDNA2 einen entscheidenden Unterschied aus, wie hoch die RT-Qualität allgemein ist (RT-Qualität = verschossene Rays insgesamt = Genauigkeit der RT-Bilder). Bei Metro Exodus Enhanced Edition z.B. kann man diese eben zusätzlich einstellen. Das Setting "Normal" sieht hier im Gegensatz zu "Ultra" oder gar "Extrem" immer noch sehr gut aus, wobei RDNA2 verhältnismäßig wenig Performance verliert. Das schaut bei den beiden besseren Qualitätsstufen völlig anders aus, hier zeigt dann Ampere erst seine eigentliche Raytracingstärke. Auf Cyberpunk bezogen bedeutet dies, dass man mit einer performanteren RX 6000 GPU auch problemlos mit den Setting "Raytracing Ultra" spielen könnte, ohne dabei große Qualitätseinbußen hinnehmen zu müssen. Aber das ist leider nur Wunschdenken. Bisher hat es CD Project Red nicht einmal für nötig gehalten FSR 2.0 ins Spiel zu integrieren, und das obwohl sicherlich auch sehr viele Versionen für die PS5 und Xbox Series X weltweit verkauft wurden. Für mich ebenfalls ein fragwürdiges Verhalten.
 
Wird interessant zu sehen, wo sich die neuen Karten von Nvidia und AMD letztendlich preislich und performant auf dem Markt positionieren, ich erwarte hier eine Rückkehr zur "alten Ordnung":
  • Nvidia performanter (besonders im Raytracing) im High End Bereich, lässt sich Performance aber auch kosten.
  • AMD Dominanz im Mid- / "Low" Price Segment (Low hier in Klammern, da es 2022 de Facto keine Niedrigpreissegmente mehr gibt ;) )
Nummer 1: Die Radeon RX 7900 XTX ist ganz sicher eine High-End Grafikkarte und wird voraussichtlich die RTX 4080 deutlich schlagen
Nummer 2: "Die alte Ordnung"... So etwas kann sich wirklich allein ein Nvidia-Jünger wünschen - leider wird das nicht passieren. AMD verfolgt eine etwas andere Strategie als Nvidia, weg von exorbitant teuren und riesigen Grafikkarten mit Problemen bei der Energieversorgung...
 
Ich hab allgemein gesprochen, von der Innovationsbereitschaft über viele Jahre. Du schreibst einfach mal 'lächerlich' ohne überhaupt verstanden zu haben, worum es geht.

Bleib Du ruhig bei AMD und lauf weiter den eigentlichen Innovationen hinterher.
Ach Gott, Jungchen. Ich hatte in meinen 35 IT Jahren schon alles drin und kaufe bestimmt keinen Marke hinterher. Geh wieder mit deinen Bauklötzchen spielen, da kennst Du dich aus.
 
Was bei AMD leider fehlt ist die Innovation. Seit zig Jahren übrigens. Wie lange ist Mantle her? Das letzte Mal, wo die AMD GPU Abteilung wirklich innovativ war.
OK, also keinerlei Innovationen bei AMD in den letzten Jahren? Infinity-Cache... Multi-Chiplet-Design... FSR 2.0 (Open-Source!)... Dagegen wirkt Nvidia deutlich weniger innovativ.
Ich kann den RT-Bullshit nicht mehr hören. Nvidias Marketing ist wirklich gut, das muss man ihnen lassen, so viele Leute wie ihnen bereitwillig aus der Hand fressen. Ich kann mich nicht erinnern das in der Vergangenheit für so eine zweifelhafte grafische Aufwertung so viel Leistung so bereitwillig zerblasen wurde.
Ich gebe dir Recht, dass sich sicherlich viele Gamer vom aggressiven RT-Marketing Nvidias beeinflussen lassen. Aber gut umgesetzte RT-Spiele sind optisch ein klarer Fortschritt. Und Raytracing gehört auf jeden Fall die Zukunft, so viel ist sicher.
 
Zuletzt bearbeitet:
Seit wann ist "viel Cache" eine Inovation?

Und SAM ist ein Marketingname aber keine Entwicklung von AMD. Und schon gar nichts, was sie Geld gekostet hat. Man hat nur eine vorhandene Technologie endlich mal zur Anwendung gebracht. Dafür bin ich denen sogar dankbar, auch wenn es sicher kein Gamechanger war.

Bei NVidia ist die Innovation in den dedizierten AI- und RT Einheiten, sowie in der DLSS Entwicklung. Nicht im Fertigungsprozess.
Die eindeutige Argumentation eines Nvidia-Jüngers oder grünen Kobolts... Ich bin mir sicher du würdest den Nvidia-CEO schöne Augen machen, das macht eine vernünftige Diskussion natürlich zu Nichte.
 
Zuletzt bearbeitet:
Caches sind nichts neues, siehe L1-L3 Cache oder Broadwell.
Aber ein großer L3-Cache in einer GPU (128MB bei Navi 21) aber schon! Damit wurde gekonnt die fehlende Bandbreite von normalen GDDR6 Speicher kompensiert und dabei auch noch der Energieverbrauch der gesamten Grafikkarte gesenkt.
SAM ist keine AMD Entwicklung. Das gab es schon lange zuvor, nur nicht beim Mainstream.
Na und, AMD hat die Technik als erster Hersteller von Gaming-Grafikkarten eingeführt. Danach musste Nvidia nachziehen.
GPUs mit mehrere Chips gab es in einer anderen Form zuvor auch schon. Siehe die X2 Modelle von AMD und Nvidia.
Alle guten Dinge sind drei. Das Multi-Chiplet-Design bei RDNA3 unterscheidet sich grundlegend von Dual-GPUs. Im Grunde genommen ist es die selbe Technologie wie bei den Ryzen Prozessoren. Man verbindet eine beliebige Anzahl identischer kleinerer Kerne (Chiplets) innerhalb eines Packages - das Gegenteil eines monolithischen Aufbaus wie bei Nvidia oder eben bei den einstigen X2 Modellen von AMD. Damit lassen sich u.a. die Herstellungskosten der GPUs durch eine höhere Chipausbeute deutlich senken.
Raster ist nicht mehr sooooo wichtig.
Wer sich 0 für RT interessiert braucht weder ne 4090 noch ne 7900XTX.
Für den tut es 1-2 Nummern kleiner.

Und bei RT ist eine 4090 doppelt so schnell - da ist die 4090 (und sogar die 4080 16GB) schon jetzt das deutlich attraktivere Angebot.
Dazu noch DLSS.
Was genau soll AMD denn für seinen möchtegern High-End Zeug verlangen?
Ja, für reine Rasterizing Leistung ist der Preis super.
Aber für RT Leistung ist der Preis sogar deutlich überteuert.
Also für 4K braucht es schon ordentlich Rechenpower, je nach Titel selbst bei normaler Rasterisierung (siehe Cyberpunk). Für diese Auflösung ist die Karte schließlich gemacht. Wenn Spielehersteller zudem Raytracing besser für RDNA3/RDNA2 anpassen, kann man mit AMD-Karten ebenfalls eine gute RT-Performance erreichen bei gleichzeitig hoher Bildqualität.
 
Zuletzt bearbeitet:
Ich zieh mich mal zurück. Die Leute hier sind vor allem in einem gut, im Beleidigen. Dann macht das mal alleine in Eurem Thread mit Eurem hoch-Innovativen GPU Hersteller.

(53 Jahre, angefangen zu programmieren mit 12, baue seit 1990 PCs und verdiene gutes Geld als SW Entwickler. Das nur am Rande zum Thema "Bauklötzchen spielen".)
Ja ne, ist klar. Dein Avatar und deine Beiträge sprechen für deine Reife. Argumente bringst du dafür keine, nur Fanboy- Vorwürfe.
 
Im jeden Grafikkarten Thread ein Fanboy War nach dem nächsten, ugh.

Und das nun 5 Wochen lang bis die Tests raus kommen ?
 
Herstellerspezifische Optimierungen sind für mich nur dann legitim, wenn sie nicht extrem ausarten und einen deutlichen Nachteil für die andere Seite bedeutet, so wie in Cyberpunk 2077 praktiziert.
Oder in Godfall, oder in Farcry 6, oder in AC:Valhalla, nur eben seitens AMD. Aber das zählt wohl nicht...

Genauso zählt bei AMD anscheinend die Namensgebung plötzlich nicht mehr:

4080 16 GB vs 4080 12 GB -> weniger Shader, weniger Takt, weniger VRAM, kleineres Speicherinterface -> Shitstorm
7900XTX vs 7900XT -> weniger Shader, weniger Takt, weniger VRAM, kleineres Speicherinterface -> kein Shitstorm
 
Oder in Godfall, oder in Farcry 6, oder in AC:Valhalla, nur eben seitens AMD. Aber das zählt wohl nicht...
Sofern es bei den genannten Titeln extreme Nachteile für Nvidia-GPUs gibt wie eben bei meinen Beispiel angesprochen, dann würde ich das genauso kritisieren. Auch wenn ich mich klar zu Team Rot bekenne, so bin ich dennoch fair.
Genauso zählt bei AMD anscheinend die Namensgebung plötzlich nicht mehr:

4080 16 GB vs 4080 12 GB -> weniger Shader, weniger Takt, weniger VRAM, kleineres Speicherinterface -> Shitstorm
7900XTX vs 7900XT -> weniger Shader, weniger Takt, weniger VRAM, kleineres Speicherinterface -> kein Shitstorm
Nun, Raff höchstpersönlich sprach er hat ein Probleme damit, dass AMD diesen "altehrwürdigen Namen" für die RX 7900 XTX wieder verwendet. Ich weiß es selbst nicht, aber es hört sich so an, als ob diese Bezeichnung für die RX 7900 XTX zu übertrieben scheint.
 
Sofern es bei den genannten Titeln extreme Nachteile für Nvidia-GPUs gibt wie eben bei meinen Beispiel angesprochen, dann würde ich das genauso kritisieren. Auch wenn ich mich klar zu Team Rot bekenne, so bin ich dennoch fair.
Farcry 6 ist wohl das übelste Beispiel, da hat AMD anscheinend den Entwickler mehr oder weniger angewiesen den VRAM Bedarf (4K + RT + HD Texture Pack) auf über 12 GB zu treiben damit die 3080 und 3080ti auf keinen Fall damit ordentlich laufen. Kannst Du bei Igor nachlesen.

Dreck am Stecken haben sie alle.
 
Farcry 6 ist wohl das übelste Beispiel, da hat AMD anscheinend den Entwickler mehr oder weniger angewiesen den VRAM Bedarf (4K + RT + HD Texture Pack) auf über 12 GB zu treiben damit die 3080 und 3080ti auf keinen Fall damit ordentlich laufen. Kannst Du bei Igor nachlesen.

Dreck am Stecken haben sie alle.
Das kann ich mir sehr gut vorstellen. Nvidia hat aber die RTX 3000 Grafikkarten allgemein mit zu wenig VRAM ausgestattet. Von Zukunftssicherheit kann hier keine Rede sein: 8GB für eine 3070, 10GB und erst später 12GB für eine 3080... Ironischer Weise ist ausgerechnet die 3060 mit ihren 12GB für ihre Leistungsklasse am zukunftssicherten ausgestattet. Das heißt zur Not muss man leider die Qualitätseinstellungen in modernen Spielen herunterregeln. Und Far Cry 6 kann immer noch ohne HD-Texturen gespielt werden. Viel schlimmer wäre es gewesen, wenn man überhaupt keine Wahl hätte. Da wären wir wieder beim Thema Cyberpunk.
 
Das kann ich mir sehr gut vorstellen. Nvidia hat aber die RTX 3000 Grafikkarten allgemein mit zu wenig VRAM ausgestattet. Von Zukunftssicherheit kann hier keine Rede sein: 8GB für eine 3070, 10GB und erst später 12GB für eine 3080... Ironischer Weise ist ausgerechnet die 3060 mit ihren 12GB für ihre Leistungsklasse am zukunftssicherten ausgestattet. Das heißt zur Not muss man leider die Qualitätseinstellungen in modernen Spielen herunterregeln. Und Far Cry 6 kann immer noch ohne HD-Texturen gespielt werden. Viel schlimmer wäre es gewesen, wenn man überhaupt keine Wahl hätte. Da wären wir wieder beim Thema Cyberpunk.
Geht CP2077 nicht auf einer RDNA2 Karte mit RT? Also gar nicht? Auch nicht mit Lighting Low? Glaub ich nicht und ist tatsächlich glatt gelogen.

1667757695589.png


Das ist mit RT Ultra in FullHD. Machst Du jetzt RT Medium schaffen die RDNA2 Karten auch ordentliche FPS, sogar in WQHD.
 
Um ehrlich zu sein, ich konnte diese "Team rot / Team grün" Mentalität nie verstehen.
In dem Moment, wo man als Kunde im Team einer gigantischen Korporation sitzt, hat deren PR Team alles richtig gemacht und die eigenen Synapsen sind unterbelastet.
Ich schätze Fortschritt und Entwicklung aller Firmen im Grafikkartensegment, aber am Ende zählt für mich als Kunde / Nutzer nur eines: Das meine Bedürfnisse abgeholt werden und das möglichst preiswert. Ob da am Ende rot, grün, gelb oder die lila Kuh in meinem Rechner sind, ist mir schnuppe :ka:
 
Zurück