News Radeon RX 7900 XT: AMD zeigt Benchmarks gegen 4070 Ti und 3090 Ti OC

Wurde doch schon öfters erwähnt, Texturen werden eingespart oder erst später rein gestreamt. Das kann man mit einer 8GB Karte auch ohne Probleme beobachten. 1GB bleibt 1GB
Ja nicht ganz, wie die PCGH schon oft gezeigt hat ist Nvidia in VRAM limitierten Szenarien besser (also z.b 8Gib Vram gegen 8Gib Vram).
Liegt wahrscheinlich an dem etwas Schnellern Garbage Collector von Nvidia oder an anderen Speicherverhaltungs Themen.
Ist aber eigentlich nicht wichtig , da in den lezten zwei gens AMD immer etwas mehr VRAM hatte als der Gegner von Nvidia. (außnahme 3060). Aber die war selbst in vergleich zu anderen NVIDIA Produkten Großzügig bestückt
Das hat doch nichts mit der Aussage zu tun, dass bei AMD die Texturen generell schärfer sind.
Stimmt 1GB bleibt 1GB....nur kann man da AMD und Nvidia nicht 1:1 vergleichen.

Aus dem Test zur RX 6700...da braucht die RX 6700 in 1080p 5739MB
Dir ist aber bewusst das da Allocated Memory steht ?
Das heißt Reserviert , also soviel hat sich das spiel geschnappt ob es das braucht ist eine andere Frage. (Zusammenspiel aus Treiber und Engine Code)
Wenn du wissen willst was wirklich gebraucht wird(genutzt wird). Gehe ins spiele und schmeiße das CapFramX overlay an.
 
Zuletzt bearbeitet:
Dir ist aber bewusst das da Allocated Memory steht ?
Keine Sorge...
Es ist einfach so, dass hier die RX 6800/FSR ohne RT schon mehr VRam benötigt als die RTX 3070/DLSS mit RT.
Ich hatte jetzt 2 Jahre Zeit die zwei in verschiedenen Spielen zu vergleichen...immer mit dem selben Ergebnis.
K1600_non RT.JPG K1600_RTX 3070 DLSS.JPG
 
Das war so ziemlich am Anfang, da war DLSS nocht so das Wahre. Irgendwie musste es aber gehen um mit RT zu spielen.
Heute schaut das angepasst auch mit der RX 6800/FSR gut aus...nur die lieben FPS. Jo und TinyPic (zum verkleinern) tut sein übriges.
Orginal haben die Bilder ja ~12MB
K1600_RT ultra.JPG

Da müsste ich CP nochmal auf den PC laden und es im heutigen Zustand mit der RTX 4070Ti vergleichen.
 
Keine Sorge...
Es ist einfach so, dass hier die RX 6800/FSR ohne RT schon mehr VRam benötigt als die RTX 3070/DLSS mit RT.
Ich hatte jetzt 2 Jahre Zeit die zwei in verschiedenen Spielen zu vergleichen...immer mit dem selben Ergebnis.
Anhang anzeigen 1414252Anhang anzeigen 1414253
Ja warum auch nicht, das spiel/treiber sieht ich habe mehr spielraum als bei der 3070 deshalb bleiben die daten halt auch länger im VRAM. Warum etwas rauschmeißen wenn noch platz ist.
Das macht Windows mit dem RAM nicht anders.
Richtig testen ob eine GPU mehr RAM braucht als die andere kann man so oder so nur dann wenn dieser voll ist.
Weil alles andere zeigt nur auf das der garbage Collector anders definiert ist.
 
Das Thema Vram ist ne lange Geschichte,wäre eigentlich mal was für @PCGH_Raff das mal in nem Spezial sauber runter zu brechen.

NV brauch primär etwas weniger Vram weil man aktiv in das Speichermanagment eingreift, zudem ist die Kompression der Daten höher wodurch diese weniger Platz benötigen. Ich hatte auch den Eindruck das NV die Daten granularer abruft, hab das aber nie gemessen. Das hat Vorteile, aber auch Nachteile. Löschen aus dem Vram merkt man z.B. beim spielen,macht sich gerne durch kleine bis große Ruckler bemerkbar. Im Grenzbereich des Vram arbeitet die NV Karten länger ohne Einbruch, je härter der Mangel umso deutlicher werden aber die Symthome. Texturen werden erst "spät" eingeladen oder gar nicht.Wobei man spät jetzt für sich interpretieren muss, das geht schon schnell (hängt auch vom Restsystem ab) und man sieht es eigentlich nur bei schnelleren Kamerabewegungen. Weglassen ist dann die nächste Haltelinie bis dann die Performance anfängt einzubrechen und auch das erfolgt in Stufen da hier noch versucht wird zu kompensieren über den BUS.

Die Intel die ich gerade benutze beherrscht das so nicht mal ansatzweise,die stürzt auch gerne einfach mal ab wenn der Vram überläuft mit nem schicken Bluescreen.

Reserven im Vram machen sich zudem noch im allgemeinen Spielgefühl bemerkbar wenn die weitläufige Umgebung gebuffert ist,dann kann man da auch schön smooth sich bewegen ohne Nachladeruckler und ohne sporadisches kompilieren. Dedicaded und used Vram haben beide Ihren Sinn, das Spiel reserviert schon in der Regel aus gutem Grund.
 
Wir crunchen gerade heftigst - unter anderem an einem VRAM-Special. Mehr dann, wenn die Zeitsituation besser ist. :-)

MfG
Raff
Klingt doch super, muss ja nicht direkt sein. Das Jahr hat ja noch ein paar Monate. Das Thema Vram geistert nur leider immer wieder mit Halbwissen und gefühlten Realitäten durch die Foren. Ein schöner Referenzartikel wäre mal was feines, Wobei insbesondere das verspätete reinladen der Texturen sich natürlich messtechnisch sehr schwer greifen lässt.

was ich empfehlen kann ist das Developertool von AMD, damit kann man haarklein sehen was die Engine für welchen Zweck verwendet und reserviert, dort kann man das auch loggen :daumen:
 
Keine Sorge...
Es ist einfach so, dass hier die RX 6800/FSR ohne RT schon mehr VRam benötigt als die RTX 3070/DLSS mit RT.
Ich hatte jetzt 2 Jahre Zeit die zwei in verschiedenen Spielen zu vergleichen...immer mit dem selben Ergebnis.
Anhang anzeigen 1414252Anhang anzeigen 1414253
Die Kompression ist ja bei beiden Bildern gleich. Der Nvidia Screenshot sieht was die Spiegelungen betrifft aber eindeutig schlechter aus. Das sieht man zwar nur noch selten, aber als Nvidia damals ihre tiled based rasterizing Implementierung frisch am Start hatten, da konnte man schon deutliche Unterschiede feststellen. Das vermute ich auch als Ursache für die seltsame Beleuchtung in Spiderman mit RT und DLSS. Wenn die GPU weglässt was verdeckt ist, wird dieses verdeckte Objekt auch das Licht nicht korrekt zurückwerfen können. In anderen aktuellen Spielen hingegen, fiel mir zwischen der 6950xt und der 3080 kein optischer Unterschied auf. Ganz schlimm war das beim Wechsel von der 2080 super zur Radeon VII in the Hunter: call of the wild. Da hatte die 2080 fast 40% mehr fps, aber das Bild hatte eine Art Vignette die seltsam ausschaute, als wäre in den Büschen keine richtige Verschattung und der Bildrand extra niedrig aufgelöst, spürbar. Merkwürdig war aber erst die Tatsache dass dies bei Screenshots nicht zu sehen war, im Spiel aber deutlich. Das kann eigentlich nur das Speichermanagement gewesen sein. Für Absicht sah das zu komisch aus.

Wo das nachladen un information weglassen krass war, ist Deus Ex: Mankind devided. Das hab ich mit der 3080 gespielt und da sah das Bild nach einer Weile spielen Stück für Stück schlechter aus. Der Speicher lief voll und der Treiber hat entschieden was wichtig ist und was nicht und nach einer Weile war das Bild kaputt. Auf der 6800xt waren an der gleichen Stelle über 13Gib belegt und es gab diese Sparmaßnahmen nicht. Wenn man dann bedenkt dass das Spiel von 2016 oder so ist...
 
Zeigt halt deutlich warum die 7900XT ein guter Kauf ist. Die 4070ti ist halt leider nur etwas für FHD Nutzer.
Meiner Meinung nach ein dummer Kommentar da sachlich falsch :schief:
Karte aus "neuer" Gen schlägt Karte aus alter Gen. Ich bin nicht beeindruckt!
Aktuelle AMD Oberklasse Karte für ~870€ schlägt Ultra High-End Nvidia Karte der last Gen die ~1700€ gekostet hat....also das beeindruckt mich schon :-P
 
In 4k mit Raytracing, Ultra Details und DLSS3 schlägt die 4070ti die 7900xt und sogar xtx um Welten!
zum glück haben wir so viele spiele auf dem markt das man RT überhaupt nicht mehr vernachlässigen kann ^^
Könntest du mir zeigen wo AMD auf die 8 GB mehr auf den Benchmarks verweist oder wenigstens der größeren Speicheranbindung? Eben.

Um bei deinen Worten zu bleiben:


---------------------------------------------------------------------------------------------------------------------------------------------



So sind halt alle Unterschiedlich, ich halte derzeit die 4070Ti für die uninteressanteste Karte am Markt bei den neuen Generationen. Zwischen den beiden würd ich definitiv zu einer RX 7900 XT tendieren.
häää warum vergleichst du benchmarks mit datenblättern?
nimm dir die 4070ti knall von mir aus dein RT an mit max details und schau wie der ram gesnacked wird wie ein salat zum frühstück
 
Zuletzt bearbeitet:
Die oculus sind aber auch besonders betroffen, anscheinend. Nen Arbeitskollege mit VIVE Cosmos Elite hat angeblich ordentlich zugelegt beim Wechsel von seiner 3080ti und die war in VR mMn schneller als eine 6900XT.
 
Zur aktuellen VR Preformance der RX7xxx Karten gibts im AMD Forum einen Eintrag eines AMD Mitarbeiters, der besagt, dass das aktuell untersucht wird, woran es liegt.... in manchen synthetischen VR Benches performen die Karten ja wie sie sollen, aber in den individuell verwendeten Spielen bleibt irgendwas auf der Strecke...
Anhang anzeigen 1414168
Habe mich da gerade durch geforstet und es scheint, als wenn das nicht generell für VR gilt.
Man vermutet ein Problem im WMR / Steam VR mit AMD. Weiter gibt es Probleme mit Headsets die direkt am angeschlossen sind. Sprich per Displayport zum Beispiel.

Andere wie Quest 2 und Pico 4 werden per WLan oder USB angeschlossen und scheinen besser zu laufen.

Scheint mit Quest 2 und Pico 4 deutlich besser zu laufen. Einzelne Berichte sprechen von Reverb G2 20 Fps und Quest 2 mit gleicher Renderauflösung 40Fps.

Oculus Quest läuft schlecht bis gar nicht bei den Radeons. Immerhin die meist verkauf teste VR Brille.

Grundsätzlich ist die VR Performance schlechter als bei Nvidia. Ist einfach so.

Du meinst mit RX7900XT(X), oder meinst du mit RX6000?
Die oculus sind aber auch besonders betroffen, anscheinend. Nen Arbeitskollege mit VIVE Cosmos Elite hat angeblich ordentlich zugelegt beim Wechsel von seiner 3080ti und die war in VR mMn schneller als eine 6900XT.
Wie ist das gemeint?

Dein Kollege hat von einer 3080TI gewechselt zu was? Zu einer RX7000?
 
Ja, war eine 7900XTX, ist aber schon wieder Vergangenheit. Irgendeine Software mit der er Videos bearbeitet mochte nicht vernünftig mit der 7900XTX und nun ist es eine 4070ti.
 
Angeblich ist die Adobe-Software mit Nvidia-GPU fast um den Faktor 2 schneller als mit der AMD. Bei gleicher Qualität. Wenn er viel damit macht, kann ich das durchaus verstehen.
 
Ja warum auch nicht, das spiel/treiber sieht ich habe mehr spielraum als bei der 3070 deshalb bleiben die daten halt auch länger im VRAM. Warum etwas rauschmeißen wenn noch platz ist.
Das macht Windows mit dem RAM nicht anders.
Richtig testen ob eine GPU mehr RAM braucht als die andere kann man so oder so nur dann wenn dieser voll ist.
Weil alles andere zeigt nur auf das der garbage Collector anders definiert ist.
Ja das ist richtig.
Wenn man sich mehr Arbeitspeicher rein tut wird auch mehr Speicher verbraucht vom System. Auch wenn natürlich die Aufrüstung nicht egalisiert wird dadurch.

Aber wenn man einen Speicherkrüpel hat und nicht mal merkt wenn die Texturequalität runter gedreht wird, muss man eben mit der Geschichte von, NV 10GB = 12GB AMD Speicher kommen.
...so einfach ist es nicht.

Von mir aus könnten meine 16 oder 24GB VRAM ständig voll sein, von mir aus das ganze Spiel da rein packen. Für was hat man das denn?
 
Zurück