News Radeon RX 7900 XTX: Hat die RTX 4080 trotzdem das bessere Preis-Leistungs-Verhältnis?

Und der Displayport, was für ein Marketing Witz. Der "olle" DP auf Ada schafft 4K 240hz wenn ich mich recht erinnere. Reicht auch nicht? :ugly:

Komprimiert

Man kauft sich also das beste vom besten, nur damit die Bildqualität unter der Kompression leidet? Da hat Nvidia Mist gebaut.

Immerhin sie den VRAM für 8K.

Das Problem ist, dass ihr dann die Leistung wegbricht, da die AMD Karten da Auflösungskrüppel sind, Infinitycache sei dank.

Es hat schon einen guten Grund, warum in der AMD Präsentation von 4K per FSR Performance hochskaliert wurde. Nvidia zeigt da auch immer die nativen Werte.

Mehr VRAM und moderne Displayports - nur eine Karte der beiden ist zukunftsfähig und damit kaufenswert.

Das wird wohl die RTX 5090 werden oder eventuell auch die RX 8900XTX, wenn sie den Infinitycache bis dahin vergrößern. Die guten 80GBit Ports hat bisher keine Karte.
 
Die Amd Karten profitieren in dieser Gen von erhöhten Auflösungen. Die Speichertransferrate ist ja bereist schon ohne Infinitycache deutlich höher als bei der 4080 und auf selbe Niveau wie bei der 90er. Du schreibst also schlicht Unsinn.
 
Die Amd Karten profitieren in dieser Gen von erhöhten Auflösungen. Die Speichertransferrate ist ja bereist schon ohne Infinitycache deutlich höher als bei der 4080 und auf selbe Niveau wie bei der 90er. Du schreibst also schlicht Unsinn.
1080p:

1671826882505.png


4K:
1671826777412.png


Joah, geht so würde ich sagen. Prozentual macht die Auflösung da kaum einen Unterschied zwischen den Karten.

Oder meinst Du dass RDNA3 weniger abfällt in hohen Auflösungen als RDNA2? Das stimmt!

Edit: Steht das GT/s nicht für die Speicher-Geschwindigkeit? :huh:
 
Die Amd Karten profitieren in dieser Gen von erhöhten Auflösungen. Die Speichertransferrate ist ja bereist schon ohne Infinitycache deutlich höher als bei der 4080 und auf selbe Niveau wie bei der 90er. Du schreibst also schlicht Unsinn.

Wenn dem so wäre, dann würde der Infinitycache nichts bringen. AMD wäre schön blöd dafür Chipfläche zu opfern. Tatsache ist, dass es bei stark erhöhten Auflösungen verstärkt zu Cachemisses kommt.
 
Alter Schwede Ihr beide glänzt mal wieder mit absoluter Ahnungslosigkeit und das auch noch mit einer Verve die seines gleichen sucht....

Die Speichertransferrate der XTX beträgt 960 GBps, die Transferrate des Infinitycache beträgt 5,2 TBps.
Zum Vergleich, eine 4080 hat 717GBps, eine 4090 1TBps.

HEIST IM KLARTEXT, der Speicher ist selbst ohne Cache schneller, also IMMER. Ich wiederhole IMMER als der der 4080.
 
Immerhin sie den VRAM für 8K.
Wenn ich mir so anschaue was jetzige Games in 4K schon maximal verbrauchen sind auf lange Sicht 20 oder 24GB nicht verkehrt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Alter Schwede Ihr beide glänzt mal wieder mit absoluter Ahnungslosigkeit und das auch noch mit einer Verve die seines gleichen sucht....

Die Speichertransferrate der XTX beträgt 960 GBps, die Transferrate des Infinitycache beträgt 5,2 TBps.
Zum Vergleich, eine 4080 hat 717GBps, eine 4090 1TBps.

HEIST IM KLARTEXT, der Speicher ist selbst ohne Cache schneller, also IMMER. Ich wiederhole IMMER als der der 4080.

Im flamen bist Du auch Spitze! Anstatt normal zu diskutieren und andere über Fehler aufzuklären wird lieber sofort scharf geschossen.

Habe nachgeschaut, hast Recht:

4080: Bandwidth 716.8 GB/s
7900XTX: Bandwidth 960.0 GB/s

Dass dadurch die XTX, oder durch den Infinity Cache, in hohen Auflösungen besser performed (im Vergleich zur 4080) als in niedrigen Auflösungen, sehe ich aber weiterhin nicht. Aber darauf gehst Du vermutlich nicht ein. :schief:
 
Zugegeben, mein Ton war da etwas harsch. Das richtete sich auch eher gegen PU der hier Pseudofakten kolportiert.
Aber, wenn man sich schon so aus dem Fenster lehnt und dann auch noch den unbrauchbarsten Benchmark für Speichertransferrate dafür raus kramt, muss man nicht anschließend betroffen sein.

Zu dem Thema höhere Auflösungen hat Raff ja schon das ein oder andere gesagt, CB hat 5K Benchmarks gemacht und ich hab es auch schon selbst getestet. Die Karten profitieren von hoher Auflösung im Vergleich.

Zitats aus dem Test hier: Der Abstand zwischen den beiden Karten ist von Full HD bis UWQHD gleich groß, erst in Ultra HD kann sich die Radeon RX 7900 XTX etwas stärker absetzen.
 
Alter Schwede Ihr beide glänzt mal wieder mit absoluter Ahnungslosigkeit und das auch noch mit einer Verve die seines gleichen sucht....

Die Speichertransferrate der XTX beträgt 960 GBps, die Transferrate des Infinitycache beträgt 5,2 TBps.
Zum Vergleich, eine 4080 hat 717GBps, eine 4090 1TBps.

HEIST IM KLARTEXT, der Speicher ist selbst ohne Cache schneller, also IMMER. Ich wiederhole IMMER als der der 4080.

Du bist der Ahnungslose.

Die GTX 980Ti hatte 336,6GB Bandbreite, die Fury X hingegen 512GB, also 52% mehr. War die Fury X auch 52% schneller? Nein, war sie nicht.

Du hast eine Milchmädchenrechnung angestellt, die nicht stimmt. Man könnte AMD hier grobe Ineffizienz vorwerfen, da sie noch zusätzlich den Infinitycache brauchen, um gegen die RTX 4080 bestehen zu können.

Es ist nunmal eine Tatsache, dass es bei höheren Auflösungen zu verstärkten Cachemisses kommt, wenn der Infinitycache nicht groß genug ist. das war es dann mit 5,2TB/sec. Eventuell wird das Problem gelöst, wenn sich die Gerüchte um die Version mit 384MB Infinitycache bestätigen, wenn AMD mit nativen 8K Benchmarks aufwartet, werden wir es wissen. Bis dahin ist Nvidia in dem Bereich klar überlegen.
 
Du erzählst erst Bullshit!

Lovelace hat net umsonst jetzt auch mehr Cache, sprich beide Architekturen sind jetzt sehr ähnlich bezgl. Cache+Vram-Nutzung.

jedoch
Um Transferraten zu vgl. müsste man noch wissen wieviel die Colorkompression von NV ausmacht.
Anscheinend genug, damits sogar für die 4090 reicht.
 
Zugegeben, mein Ton war da etwas harsch. Das richtete sich auch eher gegen PU der hier Pseudofakten kolportiert.

Es sind Fakten, AMD hat ein Problem, wenn es um hihe Auflösungen geht, die den Cache überlasten. Nicht umsonst haben die AMD Fanboys immer darauf bestanden, dass die RX 6600 angeblich eine 1440p Karte ist (obwohl von AMD nichts untersagt wurde), die man angeblich nicht in 4K testen darf. Da ist dann die Wahrheit ans Licht gekommen.

Zu dem Thema höhere Auflösungen hat Raff ja schon das ein oder andere gesagt, CB hat 5K Benchmarks gemacht und ich hab es auch schon selbst getestet. Die Karten profitieren von hoher Auflösung im Vergleich.

5K dürfte noch einigermaßen gut in die 192MB passen, aber 8K hat 125% mehr Pixel, das ist ein anderes Kaliber.

Bei AMD wird man schon wissen, warum man bei 8K nur FSR Performance verwendet und nichts natives gezeigt hat.

Zitats aus dem Test hier: Der Abstand zwischen den beiden Karten ist von Full HD bis UWQHD gleich groß, erst in Ultra HD kann sich die Radeon RX 7900 XTX etwas stärker absetzen.

8K ist etwas anspruchsvoller, als 4K, aber nur etwas...

Du erzählst erst Bullshit!

Habt ihr auch irgendwelche Benchmarks in 8K auf Lager, um eure Behauptung zu beweisen?

Lovelace hat net umsonst jetzt auch mehr Cache, sprich beide Architekturen sind jetzt sehr ähnlich bezgl. Cache+Vram-Nutzung.

Der Infinitycache hat schon seine speziellen Probleme, die Nvidia nicht hat. Ist auch ein anderer Ansatz. Statt nur die Daten für die Berechnungen vorzuhalten versucht man mit dem Infinity Cache den VRAM so weit wie möglich nicht zu brauchen.

jedoch
Um Transferraten zu vgl. müsste man noch wissen wieviel die Colorkompression von NV ausmacht.
Anscheinend genug, damits sogar für die 4090 reicht.

Man braucht da eigentlich garnicht darüber herumzureden, Benchmarks und die Sache ist geklärt. Spiele in 4K und Spiele in 8K, jeweils nativ. Aber dann kommt wohl die häßliche Wahrheit heraus, da hilft dann auch der Speicherdurchsatz nicht mehr.
 
Zuletzt bearbeitet:
Das Du 5k bei CB komplett ignorierst nur um hier Schwachsinn zu erzählen, zeigt das Du nur bashen willst.

Die Grakas beider Colours machen was sie sollen und fertig.
Der Rest ist Geschmackssache des potentiellen Käufers.

brauchst mich net mehr zu zitieren, ich bin raus aus dem Unfug-thread
 
Eigentlich wollte ich mir die RX 7900 XTX kaufen, aber bei dem Aufpreis, wird es jetzt eine RTX 4080 bei mir. Und ja, die Nvidia karte hat das bessere Preis-Leistungs-Verhältnis.
 
Das Du 5k bei CB komplett ignorierst nur um hier Schwachsinn zu erzählen, zeigt das Du nur bashen willst.

5K passt eben noch gut in die 192MB Infinitycache, bei 8K wird es dann wohl problematisch.

brauchst mich net mehr zu zitieren, ich bin raus aus dem Unfug-thread

Hab ich deinen Lieblingskonzern beleidigt, weil ich es gewagt habe, an ihren Produkten zu zweifeln?
 
Die Nvidia RTX hat das beste Gesamtpaket ,

Alle Features .

Bester Kühler .

Beste Effizienz .

RT miteingerechnet @ Stock weitaus schnellste Karte .

Lieferbar .

Straßenpreis ca. 1350,- Eur .

Dazu kommen meiner Meinung nach noch die bessere Treiberarbeit von Nvidia und der höhere Wiederverkaufswert .

Nicht zu vergessen das man die RTX 4080 offensichtlich noch dank sehr gutem Kühler fast schon extrem Übertakten kann .



Wer das alles nicht will beruft sich auf die niedrigere UVP , zahlt dann lieber aber den gleichen Straßenpreis , oder ca. 50,-Euro weniger für eine Amd Rx 7900xtx und wartet dann auf diese auch noch ettliche Wochen ( Monate ) .
:schief::ugly:

Auch eine sehr eingänige Logik dieser Käuferschicht :D
 
Zuletzt bearbeitet:
Die spiele brauchen 6 bis 10gb. Und die 10gb auch nur mit maxed details und texturen. Habe meinem sohn einen laptop unterm baum gelegt mit 3060 6gb vram. Man kann sogar mit 6gb alles zockem. Egal ob cyberpunk oder gta. Habe mehrere games probiert. Meine 4090 ist noch nie über 13 gb in uhd gekommen
 
Die XTX ist nicht verfügbar und wird von Händlern gescalpt.
Ansonsten ist die Karte sowieso unfertig... wie lange wird AMD am Treiber schrauben müssen, damit die läuft?
Ich will nicht bei einer teuren Karte ein Beta-Tester sein.
Dieser Artikel der PCGH, aber auch solche Kommentare wie dieser sorgen nur für eines: Weiterhin den Schwachsinn in den Köpfen der Leute zu zementieren, AMD-Karten hätten per se Treiberprobleme. Endresultat: Nvidia steigert seinen Marktanteil noch weiter über die jetzt schon fast monopolartigen 80% und zieht die Preisschraube noch weiter an.

Mein Bruder und ich sind seit gut einer Woche XTX-Besitzer. Er hat eine MBA, ich eine Custom. Die Karten laufen absolut problemlos und der Videostream-Stromverbrauch wurde bereits mit einem ersten Treiberupdate reduziert, weitere hat AMD bereits in Aussicht gestellt. Von Beta kann da nicht die Rede sein.

Google doch mal "Nvidia driver issue" und du wirst Augen machen. wie sehr auch Nvidia User als "Beta-Tester" missbraucht werden. Ganz zu schweigen davon Gefahr zu laufen, dass einem eine 2000+ Euro Karte einfach mal abfackelt. Aber hey, da waren ja nur Leute im Promillebereich betroffen, alles halb so wild. Leckerjacke übergeworfen und weiter gehts. Das aber auch bei AMD allerhöchstens ein Prozentsatz im Promillebereich betroffen ist, wird gekonnt wegignoriert. Weil AMD kann ja keine Treiber. Hat einer von euch mal die Radeon Software live erlebt und mit dem Nvidia Relikt aus XP-Zeiten verglichen?

Aber Hauptsache jemand wie du aus der Armlehnen-Analystenfraktion befeuert die Unwissenheit weiter von der Seitenlinie ohne Ahnung von der Materie aus erster Hand zu haben.

Ich wünsche allen Nvidia-Schafen, dass sie 60er Karten für 1000 Euro, 70er für 1500, 80er für 2000 und 90er für 3000 Euro kaufen müssen dürfen - vielleicht wacht ihr ja dann auf, das Konkurrenz wichtig und gut ist, AMD absolut auf Augenhöhe unterwegs und mehr als eine veritable Alternative ist.

Und ich hoffe, das auch Intel noch ordentlich mit Arc und Battlemage einschlagen wird, damit endlich mal diese Nvidia-Mauer zumindest ein wenig bröckeln wird. Das ist ja fast schlimmer als mit Apple-Jüngern :klatsch:
 
Zurück