Special AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070?

Jupp, eine 7900XTX MBA in neu zum Aktuellen Marktspiegel der 7900XTX würde ich tatsächlich kaufen.
Bei RDNA 1.0 war das noch toll, weil da die Boardpartner neben den Custom-Layouts auch die Referenzkarten verkauft haben. Jetzt hat man nur noch Sapphire, welche auch die MBA-Version vertreiben.

Die Zeiten sind vorbei. Als eine GTX 970 vor neun Jahren herauskam, lag sie bei 330,-€. Und jetzt rechne mit 7% Preissteigerung, dann bist Du bei gut 600,-€. Und man gekommt heute viel mehr. Das Problem sind nicht die Preise, das Problem sind bei und stagnierenden Gehälter. Für Schweizer sind die Karten billig, in Bezug zum Stundenlohn. Da muss man ansetzen und nicht darauf hoffen, dass sich andere ind er Welt ausbeuten lassen wie wir.

Die Preise der Grafikkarten werden nicht mehr signifikant sinken. Da bin ich fest von Überzeugt. Im Rahmen der Wechselkursschwankungen ist da noch etwas drin, aber es gibt keine Anzeichen, dass der Euro gegenüber dem Dollar zulegen wird.
AMD könnte die 78XT doch völlig problemlos für 'nen Hunderter weniger in den Ring werfen. Die haben doch selber so stolz davon gesprochen wie günstig die Chiplet-Designs in der Fertigung sind.

Dann hätte man immer noch eine ordentliche Marge und die Karte wäre ein absoluter No-Brainer. Aber mittlerweile ist der Endkunde darauf konditioniert, dass GPUs teuer sein müssen, also wird man sich hüten dahingehend etwas zu ändern.

Inflation und stagnierende Gehälter sind schon richtig, aber kaum ein anderes Hobby hatte in der gleichen Zeit mit 2-4fachen Preisen zu kämpfen.
 
Hab mir heute früh die xfx 7800xt für 590€ bei Amazon bestellt. Ich hab noch eine rx580 im rechner, upgrade wurde also höchste Zeit und glücklicherweise hab ich vor kurzem einen dicken Amazon Gutschein gesche bekommen, freu mich schon auf Starfield ohne pixelmatsch
Denke die Karte ist genau für Leute wie dich perfekt. Das wird ein Quantensprung an Leistung sein.
Ich hab leider bereits eine RTX3060TI da hätte ich mir etwas mehr Leistung auf Höhe einer RX6900XT erhofft.
 
Wie wärs mit dem mittelmäßigem Kühler und der Plastik-Backplatte bei der 4070? Mich stören solche Kleinigkeiten bei solchen Summen und die günstigsten 7800XT sind mittlerweile halt ausverkauft. Die kommen auch wieder und werden den selben Preisverfall erleben wie es die 4070 schon hinter sich hat.
Nur weil Karten billiger sind, sind sie deswegen nicht gleich schlecht.
Und die 7800XT sieht echt alt aus gegen die 4070. Mit RT muss sie sich eher mit der 4060ti rumschlagen und da ist noch gar kein DLSS 3.5 dabei.

Dann sieht das richtig Übel aus, schlechtere Bildqualität, deutlich mehr Verbrauch und wer meint 16 Gb sind so wichtig.
Der kann die 4060ti nehmen und die ist billiger und hat mit DLSS 3.5 sogar mehr Leistung. Zu weniger Geld, wie soll man das noch Konkurrenz nennen?
Das Nativ und ohne RT praktisch ausstirbt zeigt ja was man in Zukunft erwarten kann.
AMD hat Ai total verschlafen, genauso wie mit ihren Uralt Decoder solche Sachen kommen oben drauf.

Es gibt Abseits noch zig Features die AMD gar nicht hat, willst was aufnehmen musst bei AMD das über die CPU machen.
Alles mit Streaming und Bildbearbeitung ist durch die Beschleunigungen ja gar nicht mehr Vergleichbar.
Sowas wird immer Ignoriert, aber den Standard hat AMD nie aufgeholt.

Deshalb müsste AMD deutlich weniger Verlangen um zu Punkten. Gleich oder ähnliche Preise haben sie gar keinen Auftrag mehr.

Schaut man sich die 4090 an, Nv wusste ganz genau das nicht mal was in die nähe kommt. Wäre das so, hätten alle anderen Karten mehr Leistung gehabt. Es gäbe nicht so einen Abstand, aber so braucht Nv gar nichts machen.
Schwache Konkurrenz ist für uns alle Schlecht. AMD muss einen DLSS Konter bringen, denn FSR2 ist nicht mal eine AMD Entwicklung.
Es wurde einfach wie Free Sync überarbeitet, nur DLSS wird immer stärker werden. Bei FSR sind die Grenzen sehr schnell erreicht.
 
Und die 7800XT sieht echt alt aus gegen die 4070.
Das verstehe ich jetzt nicht? Wie meinst du dass? Ich dachte die ersten Tests ergaben dass die 7800xt in Rasterleistung ist sie minimal schneller als die 4070, in Raytracing ca. 10-20% dahinter. Raytracing ist jedoch in der Leistungsklasse nicht super wichtig, da es nur sehr wenig Spiele überhaupt anbieten. Hinzu kommt dass vorallem wqhd & 4k user diese Karten kaufen. Mit RT sind diese aber eher allgemein zu schwach für RT wodurch auch viele 4070 Besitzer in wqhd RT wohl eher deaktivieren müssen.
Auf der anderen Seite bietet AMD 16gb vram was 33% mehr entspricht was stark von Bedeutung sein kann.
NV ist wiederum ca. 50€ teuer und AMD verbraucht minimal mehr Strom. Um 50€ Stromkostenunterschied zu erreichen braucht es aber ein paar Jahre der Nutzung...
Alles in allem sind die Karten eher gleich auf. Entscheidend ist dann eher welche Titel mal persönlich zockt und was dort wichtiger ist wie dlss oder fsr, Raytracing oder lieber mehr Vram...
 
Was, wenn meine neue 7800 XT in den nächsten 5 Jahren tatsächlich die Preisdifferenz zur 4070 in kuschelige Wärme transformiert - jedoch der Besitzer eben jener in schon 3? Jahren wieder 600 Euro hinblättert, weil einfach zum entspannten Spielen dann, die 16 GB der 5070 absolut notwendig werden?
DAS würde derlei langfristige Strom-Rechenmodelle nämlich sehr zuungunsten von Team Grün verschieben.
Und, zumindest ich, sehe eine reelle Chance, dass es SO kommt.
Kommt jetzt hier jeder mit seiner eigenen Stromanekdote, oder was soll das geben? Ich nutze meine Rechner (und Karten) immer zehn Jahre und könnte mich praktisch reich sparen. Und jetzt?

Jeder, der aufgrund seiner ludophilen Vergangenheit einen groben Überblick über a) sein Spielepensum, b) seinen Strompreis und c) die ungefähre Nutzungsdauer seiner Karte hat, kann sich ungefähr ausrechnen, was er am Ende bei einem bestimmten Minderverbrauch über die gesamte Lebensdauer einer Karte sparen wird. Das ist komplett individuell; ein Hardcore-Zocker spart vielleicht schon in einem Jahr 50 Euro, während Seltenspieler das selbst in zehn Jahren nicht schaffen. Verallgemeinern lässt sich da genau gar nichts und deswegen wirkt dieses Argument auch nicht für jeden gleich.
 
Ja, ich kenne das Problem. Dass der vRAM nicht runtertaktet bei "younameit" (die gründe haben sich über die Jahre immer mal wieder geändert...) und deswegen Idle und 2D-Verbräuche extrem hoch sind hatte ich schon bei meiner HD4770. Und damals hat AMD schon gesagt dass es mit nem Treiber demnächst gelöst wird und ein bekanntes Problem ist. Das meinte ich ja... ;-)
Ja, ja, die gute alte HD4770, die hatte ich auch mal :-). In Spielen die mit Abstand stromeffizenteste Karte zu der Zeit, aber der Speichertakt lief leider immer auf dem Maximum. Ich habe die dann im Leerlauf manuell runtergetaktet, damit die in 2D nicht so viel säuft. War aber lästig, weil damit der Windows Standby Mode überhaupt nicht mehr funktioniert hat. Entweder man konnte den nicht mehr aktivieren, oder der Rechner nicht mehr aufwachen - ich erinnere mich nicht mehr genau. Aber egal, das ist sehr lange her.

Bei der HD5xxx Generation hatten sie das Problem mit dem hohen RAM-Takt im Leerlauf glaube ich gelöst und die m.E. sehr gelungene Generation HD7xxxx war soweit auch nicht betroffen, aber z.B. die RX 480 und praktisch alle Generationen danach auch wieder, sobald man einen höhertaktenden oder mehrere Bildschirme angeschlossen hat oder ein HD Video geschaut hat. Das ist schon peinlich für AMD - und ich muss sagen für mich auch echt eine ernsthafte Überlegung, daher keine AMD Karte zu kaufen obwohl ich nVidia wirklich unsympahtisch finde.

Denn: 50 Watt mehr beim Spielen ist zwar doof für die Kühlung der Grafikkarte, aber beim Verbrauch der aktuellen Mittel- bis Oberklasse Graifkkarten eher geschenkt. Aber 50 Watt mehr im Leerlauf - das ist nicht nur umweltschädlich und heizt mir im Sommer unnötig den Raum auf, sondern auf Dauer auch noch richtig teuer auf der Stromrechnung. Insgesamt aus meiner Sich leider nicht akzeptabel :(
 
Zuletzt bearbeitet:
die RX 7800XT fängt bei MF bei 569 Euro an, die RTX 4070 bei 605 Euro. Bei dem geringen Preisunterschied sehe ich beim besten Willen keine Argumente für die XT.
Die 4070 hat leider nur 12GB Vram, und in WQHD bzw UWQHD Gaming (dafür ist die Karte mehr oder weniger ausgelegt bzw wird dafür beworben) ist sie gemeinsam mit Framegeneration (ein absolut essentielles Tool heute) und Raytracing bereits heute speichertechnisch stark an ihren Grenzen, und in Zukunft noch viel mehr.

Mit 16GB und für 600 Euro wäre die Karte echt top, aber bei 12GB und einer 7800XT für 550 Euro ist Zweitere (mit Starfield was ja auch gut 50 Euro kostet) schon eine Alternative, auch wenn die RT Leistung leider zu wünschen lässt.
 
Wenn ich so etwas sage, dann nur, wenn ich sicher bin. :-) Das tritt auf grundverschiedenen Systemen auf. Ich hab's im Büro auf 5600X/X570 und ich hab's an der neuen Benchkiste mit 13900KS/Z790. Liegt definitiv am VRAM. RTX 4070 crasht - RTX 4060 Ti 16GB nicht. Benchmarkszene zwischen Hogsmeade und Hogwarts im Winter. Der Spielstand ist keine zwei Wochen alt.

Zur Sicherheit: Meine Aussage stammt aus der Abhandlung des "Next-Gen"-Raytracing-Leistungsindex. Da ist alles an, nicht bloß "Ultra". Getestet wird mit DLSS Quality. Spätestens in UWQHD wird die Karte absturzfreudig, in UHD sogar sehr. WQHD läuft länger, aber ich benche ein Spiel sowieso nicht länger als ~15 MInuten.
Hier übrigens ein ergänzendes Beispiel aus Ratchet & Clank: Rift Apart. Das stürzt mit 12 GiByte nicht ab, ruckelt und zuckelt aber gemein. Das ist einer der (bislang!) wenigen Fälle, wo eine RTX 4060 Ti 16GB an eine RTX 4070 herankommt und das deutlich ausgewogenere Spielgefühl liefert. Average liegt die "Kleine" bei rund 38 Fps, die "Große" bei gut 40 Fps.

Frametimes_Ratchet_Geforces.png


Testszene:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

MfG
Raff
 
Bei RDNA 1.0 war das noch toll, weil da die Boardpartner neben den Custom-Layouts auch die Referenzkarten verkauft haben. Jetzt hat man nur noch Sapphire, welche auch die MBA-Version vertreiben.

Ich schwanke noch, wie groß es werden darf.

Ob doch größer und in ein Fractal Ridge, oder eben so klein wie möglich. Größenordnung 6 Liter Volumen.
Bei letzterem kommen nur RTX4070ti (Gigabyte nur 261mm lang), oder RX7900XTX mba mit Ghettomod in Frage.

Ich persönlich finde es lächerlich das man die MBA nicht mehr kaufen kann.
 
Das verstehe ich jetzt nicht? Wie meinst du dass? Ich dachte die ersten Tests ergaben dass die 7800xt in Rasterleistung ist sie minimal schneller als die 4070, in Raytracing ca. 10-20% dahinter. Raytracing ist jedoch in der Leistungsklasse nicht super wichtig, da es nur sehr wenig Spiele überhaupt anbieten. Hinzu kommt dass vorallem wqhd & 4k user diese Karten kaufen. Mit RT sind diese aber eher allgemein zu schwach für RT wodurch auch viele 4070 Besitzer in wqhd RT wohl eher deaktivieren müssen.
Auf der anderen Seite bietet AMD 16gb vram was 33% mehr entspricht was stark von Bedeutung sein kann.
NV ist wiederum ca. 50€ teuer und AMD verbraucht minimal mehr Strom. Um 50€ Stromkostenunterschied zu erreichen braucht es aber ein paar Jahre der Nutzung...
Alles in allem sind die Karten eher gleich auf. Entscheidend ist dann eher welche Titel mal persönlich zockt und was dort wichtiger ist wie dlss oder fsr, Raytracing oder lieber mehr Vram...
Ehm nö das müssen die 4070 Besitzer nicht. Die Karte ist für RT noch schnell genug.
 
Die 4070 hat leider nur 12GB Vram, und in WQHD bzw UWQHD Gaming (dafür ist die Karte mehr oder weniger ausgelegt bzw wird dafür beworben) ist sie gemeinsam mit Framegeneration (ein absolut essentielles Tool heute) und Raytracing bereits heute speichertechnisch stark an ihren Grenzen, und in Zukunft noch viel mehr.
Man muss mal durchzählen, wie viele Spiele in den Jahren auf den Markt kommen, die wirklich mehr benötigen.

Eigentlich fällt mir nur ein Titel ein, in dem man wirklich abstrichen machen muss (abgesehen von den Release Tagen/ mal Wochen, bis die groben VRam Bugs der letzten Speicherfresser behoben wurden)

Hogwarts stürzt wohl gerne ab in uwqhd. Weiß nicht ob das irgendein Nutzer das mal an Nvidia Support gemeldet hat, keine Ahnung wie viele das Problem haben.
Mit 16GB und für 600 Euro wäre die Karte echt top, aber bei 12GB und einer 7800XT für 550 Euro ist Zweitere (mit Starfield was ja auch gut 50 Euro kostet) schon eine Alternative, auch wenn die RT Leistung leider zu wünschen lässt.

Für manche ist die RT Leistung halt der Gradmesser.
Ich meine es ist das was die Spiele der nächsten Generation zeigen werden. Es sollten doch in den nächsten zwei Jahren immer weniger Spiele ohne RT auf den Markt kommen.

Die Frage wird sein, wie sich das entwickelt. Eher wie Desodre, oder wie imortals of aveum zum Beispiel.

Auch die immer wiederkehrende Aussage, mit dem Texturmatsch ist so ein Unfug.

Die möglichen Texturen mit 12GB sehen schon sehr gut aus, klar mehr ist immer besser, aber als Beispiel mal Hogwarts!

Der Unterschied von den höchsten Texturen, zu den mittleren ist für die meisten Spieler im Blindtest schon nicht richtig beantwortet worden.


Jetzt bloß nicht als Werbung sehen! Ich selbst schwanke stets ob ich mir doch noch eine 7900XTX holen soll, oder nicht. Es kommt nur die XTX in Frage, wegen der generellen RT Schwäche (meine Meinung). Wenn schon AMD, dann wenigstens in der Hinsicht das kleinste Übel. Dafür natürlich auch die Stärken der XTX ;)


Eine 4080 widerstrebt mir eher, da ich den Preisunterschied zur 4080 aktuell zu groß finde, es geht ja nur um ein wenig zocken. Dann lieber bei RTX5000, oder RX8000 ganz vorne dabei und da höher einsteigen.

Für eine 4090 bin ich zu geizig.
Die kriegst du doch direkt bei AMD:

Oder meinst du von Drittanbietern?
Eine 7900XTX für 1100€, ja lass mal stecken wenn man eine Custom schon ab 950€ bekommt.

Das ist ja durchs Knie ins Auge. Dann wäre es wieder keine Wahl und man müsste zur 4080 greifen. (Natürlich nur meine Meinung).

Aber danke, die letzten male als ich geschaut hatte, waren die immer nicht verfügbar.
 
Ich habe in dieser Generation das Gefühl, dass die Karte quasi alle keine wirkliche Weiterentwicklung sind zur Vorgeneration. Die einzige Karte die einen wirklichen Sprung darstellt ist die 4090, welche aber extrem teuer ist. Die 4080 ist auch gerade so eine brauchbare Weiterentwicklung, dafür aber schlicht zu teuer. Was AMD sich bei der 7900XTX und XT gedacht hat, keine Ahnung, die sind Leistungstechnisch eigentlich 7800XT(X). Die Karten sind grundlegend in Ordnung aber völlig falsch einsortiert. Alles was drunter kommt egal ob AMD oder NV ist einfach nur Murks. Da kann man auch die Vorgeneration kaufen (bei NV bedingt wegen FG) und bekommt die ähnliche Leistung mit mehr Speicher zum teils günstigeren Preis. Ich hoffe sehr, dass bei der nächsten Gen in diesem gesamten Konstrukt Leistung, Features, Preis, Effizienz mehr passiert und NV auch mehr Konkurrenz bekommt (bei allen 4 Punkten).
 
AMD driftet immer mehr in die untere Schublade ab. Entweder wollen die nicht oder können aufgrund von Budget nicht.

DLSS vs FSR
Raytracing Performance

Die Baustellen werden immer größer und man hat nicht das Gefühl, dass sich der Abstand verringert. Native Performance ist ja da aber der Markt hat sich gewandelt.

Bleibt spannend.
 
Boohoo.. Sonst wird überall immer nvidia bevorzugt..

Mit Bevorzugung hat das nichts zu tun. Mir wäre kein Spiel bekannt, dass auf "Anleitung" NVidias derart eklatant auf AMD Karten schlechter performt. Ein Leistungsunterschied von 10, meinet wegen auch 20% wäre ja noch mit besserer Optimierung zu rechtfertigen, aber nicht 58% bei Karten die normalerweise gleich schnell sind.

Hinzu kommt ja noch, dass NVidia Karten in Starfield eine auffällig niedrige Leistungsaufnahme aufweisen, auch wenn die GPU angeblich im Limit läuft. Ich sags noch einmal: Ein Schelm wer dabei böses denkt...


Die 4070 hat leider nur 12GB Vram, und in WQHD bzw UWQHD Gaming (dafür ist die Karte mehr oder weniger ausgelegt bzw wird dafür beworben) ist sie gemeinsam mit Framegeneration (ein absolut essentielles Tool heute) und Raytracing bereits heute speichertechnisch stark an ihren Grenzen, und in Zukunft noch viel mehr.

Die 4070 ist eigentlich auf WQHD ausgelegt und nicht auf UWQHD oder höher. Man darf nicht vergessen, dass die 12GB auf einer NVidia Karte aufgrund des besseren Speichermanagements etwa 13,5GB auf einer AMD Karte entsprechen. Dem entsprechend beträgt der effektive Unterschied zur 7800XT gerade mal 2,5GB.

Was nützen Dir die 16GB auf der 7800XT, wenn der Karte die Leistung fehlt max Details mit Raytracing flüssig darzustellen? Klar, bei Titeln die RT nur sporadisch nutzen reicht das, aber guck Dir mal an wie die Karte z.B. in Cyberpunk mit Pathtracing performt.

Je intensiver RT genutzt wird, desto mehr sackt eine RDNA3 GPU im Vergleich zu RTX 4000 ab. Obendrein hast Du die Problematik, dass mit FSR 2 keine zu DLSS vergleichbare Upsampling-Methode zur Verfügung steht um das auszugleichen. Frame Generation fehlt ebenfalls und AMDs Pendant dazu wird mit an Sicherheit grenzender Wahrscheinlichkeit wieder nicht mithalten können.

Cyberpunk ist in WQHD mit Max Details und Pathtracing mit DLSS Quality + Frame Generation tatsächlich spielbar auf der 4070, dank Reflex auch mit einem angenehmen Input Lag. Mit einer 7800XT würdest Du hierbei kein Land sehen und das wird mit der Zeit in immer mehr Titeln der Fall sein, da Raytracing mit der Zeit öfter als bisher auch intensiver genutzt werden wird.

Das weis AMD natürlich und deshalb gibt es so komische Deals wie bei Starfield, nützen wird es ihnen auf lange Sicht aber nichts. Bethesda wird es sich bei seinem nächsten Titel sicher auch zwei mal überlegen, ob es ein kluger Schachzug ist die Kunden der erfolgreichsten Konsole sowie die Kunden des Herstellers der erfolgreichsten Gaming-GPUs gleichzeitig zu verärgern.


Mit 16GB und für 600 Euro wäre die Karte echt top, aber bei 12GB und einer 7800XT für 550 Euro ist Zweitere (mit Starfield was ja auch gut 50 Euro kostet) schon eine Alternative, auch wenn die RT Leistung leider zu wünschen lässt.

Die 12GB der 4070 reichen für WQHD, für höhere Auflösungen bräuchte man eh eine dickere GPU (nicht nur was den VRam angeht). DLSS 2 Quality senkt die Renderauflösung bereits auf 960p und das bei besserer Bildqualität und dazu geschenkter Kantenglättung und deutlich mehr FPS. Mir wäre kein Spiel bekannt, dass dabei mit den 12GB nicht rund läuft.
 
Das verstehe ich jetzt nicht? Wie meinst du dass? Ich dachte die ersten Tests ergaben dass die 7800xt in Rasterleistung ist sie minimal schneller als die 4070, in Raytracing ca. 10-20% dahinter. Raytracing ist jedoch in der Leistungsklasse nicht super wichtig, da es nur sehr wenig Spiele überhaupt anbieten. Hinzu kommt dass vorallem wqhd & 4k user diese Karten kaufen. Mit RT sind diese aber eher allgemein zu schwach für RT wodurch auch viele 4070 Besitzer in wqhd RT wohl eher deaktivieren müssen.
Auf der anderen Seite bietet AMD 16gb vram was 33% mehr entspricht was stark von Bedeutung sein kann.
NV ist wiederum ca. 50€ teuer und AMD verbraucht minimal mehr Strom. Um 50€ Stromkostenunterschied zu erreichen braucht es aber ein paar Jahre der Nutzung...
Alles in allem sind die Karten eher gleich auf. Entscheidend ist dann eher welche Titel mal persönlich zockt und was dort wichtiger ist wie dlss oder fsr, Raytracing oder lieber mehr Vram...
Das ist eine Frage, wer was wie wichtig einschätzt.

Der eine wird eher auf RT Leistung schauen. Aktuell ist da doch einiges an Bewegung. Ein anderer wird eher beim VRam auf Nummer sicher gehen wollen.

RT ist abhängig davon wie viele Effekte.

PCGH hat beim neuen RT Parkour geschrieben, das wenn zum Beispiel die UE5 Engine alle Register zieht (Desodre) die 4070 geht dort 56% schneller ans Werk.

Nur wenn RT klein geschrieben wird, also wenig Effekte usw. bricht die Bildrate bei AMD nicht ins Bodenlose.
Es kann heute keiner beantworten was wichtiger ist. Die 4GB mehr VRam, oder eben die RT Leistung.

Ich persönlich bin erstmal mit der RT Leistung gegangen. Beobachte aber die Entwicklung genau und wechseln kann man ja immer noch.
 
Die 4070 ist eigentlich auf WQHD ausgelegt und nicht auf UWQHD oder höher. Man darf nicht vergessen, dass die 12GB auf einer NVidia Karte aufgrund des besseren Speichermanagements etwa 13,5GB auf einer AMD Karte entsprechen. Dem entsprechend beträgt der effektive Unterschied zur 7800XT gerade mal 2,5GB..
Das hört man ja schon ziemlich lange. Wurde denn schon getestet wie es sich da mit RDNA 3 verhält?
 
Das hört man ja schon ziemlich lange. Wurde denn schon getestet wie es sich da mit RDNA 3 verhält?
Ich meine das PCGH das schon mal in einem Test mit drin hatte, zumindest so das es Rückschlüsse darauf zuließ.
Danke das ist interessant. Ich hatte diesen Test, bzw. diese Aussage nicht auf den Schirm, sonst hätte ich das nicht in Frage gestellt!
Muss mich hier nochmal selbst zitieren.

Ich habe jetzt gelesen das andere das auch in noch kleinerer Auflösung haben unabhängig von der VRam Auslastung, bzw. noch kein Überlauf!

Bei denen lag es einzig an der 21:9 Auflösung. In 4:3 (ich weiß nutzt keiner mehr), bei vergleichbarer VRam Nutzung keine Probleme.

Vielleicht einfach verbuggt.
 
Zuletzt bearbeitet:
Zurück