News Wegen RX 7800 XT: Nvidia soll "sehr viele" RTX-4070-Super-GPUs produzieren lassen [Gerücht]

Man sieht, das die 3080 z.b. mit RT in 4k erst einbricht, ebenso die 4070.
Desweiteren brechen die 8GB Karten in 1440p mit RT ein.

Also kann man für Alan Wake 2 IN RT sagen:
1080p = min 8GB
1440p = min 10GB
4k = min 16GB
Natives 4k oder mit DLSS/FSR ? Das ist sehr wichtig weil in 4k Nativ haben die Karten sowieso nicht genug bumms da ist der Vram dann auch egal. :ka: ich mein Nativ schafft das auch die 4090 nicht. Wovon reden wir hier also?

Da könnt man auch irgendein Spiel nehmen 8k einstellen und sagen Karte ist kacke weil vram nicht reicht unabhängig davon das wir bei 8 fps stehen gerade.
Nope, man kann inzwischen sehen, wieviel VRAM tatsächlich genutzt wird. Die meisten Tester zeigen aber nur den allokierten und das ist meistens deutlich mehr, als der tasächlich genutzte. Genauso wenig gehen viele Tester nicht auf die Wechselwirkung des VRAMs zum RAM zum Festspeicher ein, sondern gehen mit einer Sparbestückung von 16 oder 32GB ran und meckern dann, wenn es ruckelt, sobald das System auslagert.
Wie kann man das sehen? Kann man nicht. Avatsr belegt soviel vram wie es nehmen kann läuft aber in jeder auflösung mit 8gb flüssig ohne probs.

Was wir sehen ist der reservierte platz und das was hin un her geht was aber tatsächlich gebraucht wird wissen nur die Entwickler und wir wenn wir den Vram überlaufen lassen dann wissen wir ungefähr wann es eintritt.

in der unreal engine kann man es anzeigen lassen wenn ich mich nicht irre was der popobrenner sagt ist müll.

Ich hatte schon vram limit überschritten da hat der afterburner noch brav 2gb unter dem angezeigt was die Karte hatte an vram lol

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

aufs stichwort ;)
 
Zuletzt bearbeitet:
und wäre man schon fast wieder im Gefilde einer 4070 Ti Super, trotz alledem ein Trauerspiel seitens Nvida dass sie mit einem Marktanteil von 90% es nicht gebacken bekommen den Karten vernünftig VRam draufzupacken,
Naja, Nvidia kann sich die eher zweckmäßige Ausstattung seiner Karten mit VRAM genau deshalb leisten, weil sie 90% Marktanteil haben; für alles andere fehlt halt der Druck der Konkurrenz. Wenn Nvidias Karten tatsächlich so unglaublich überteuert sind und gleichzeitig über so wenig VRAM verfügen, dass man damit praktisch nichts vernünftig spielen kann, sollte es für AMD doch ein Leichtes sein, den eigenen Marktanteil zu erhöhen, oder?

Dass AMD 2017 mit Einführung von Ryzen erstmals wieder Intel bei den Verkaufszahlen überholt hat, zeigt doch, dass die Leute bei Weitem nicht so markengebunden sind - egal ob an Intel oder Nvidia - wie gerne behauptet wird, wenn man eine Rechtfertigung für schlechte Verkaufszahlen oder geringe Marktanteile sucht. Würde das Angebot stimmen, würde man Nvidia genauso Paroli bieten können wie Intel, nur das tut es eben nicht. Stattdessen dackelt man veröffentlichungstechnisch ständig den Grünen hinterher, nur um sich dann mit - grob - gleicher Leistung für gleiches Geld anzubiedern. So gibt das natürlich nichts.
 
Über Balken kann man viel reden, schauen wir einfach ein Video an:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Da muss ich sagen mit RT off sieht die 7800XT schon richtig gut aus und mit RT on mag es einen unterschied geben, aber ist das wirklich DER Unterschied? Cyberpunk 35fps vs 27fps ist Not gegen Elend, da muss man eh an beiden Karten gegen-regeln und dann sind beide bei 60, na und. Dann ist auch die Frage wieviel Mühe sich der Entwickler gibt, da ist Nvidia bei Harry Potter weiter vorne als sonst, was nach einem Softwareproblem schreit, nicht nach einem Hardwareproblem.

Nvidia muss mehr machen als nur viele Karten produzieren, die werden auch im Preis kompetitiver werden müssen als aktuell mit der 4070. Ich sehe beide Karten bei 499€ Ende Februar.
 
Alan Wake 2 ist halt auch ein Sonderfall, da hier irgendeine Art Upscaling von vorneherein eingeschaltet werden muss, um überhaupt spielbare Frame Rates zu bekommen. Deswegen hat CB beispielsweise überhaupt keine nativen Tests vorgenommen, denn außer 4090/7900XTX wäre da kaum eine Karte über 60 FPS hinaus gekommen, in UHD schon gar nicht. Vor dem Hintergrund ist dann auch der VRAM nahezu bedeutungslos. Nativ nützt einer 6800XT der 3,4-FPS-Einbruch einer 10 GB-3080 in UHD herzlich wenig, wenn sie selber - trotz 16 GB - auch nur auf genauso unspielbare 13,4 FPS kommt.

Wird Upscaling genutzt, liegt die 3080 in UHD - ohne jegliches RT oder PT und trotz ihrer nur 10 GB - laut PCGH-Test bereits zehn Prozent vor einer 6800XT. Schaltet man RT hinzu, explodiert der Vorsprung gar auf knappe 70 Prozent. Von daher wäre ich vorsichtig damit, der 6800XT nur aufgrund ihres VRAMs ein deutlich längeres Leben als der 3080 zu prophezeien, denn der Anteil der Titel, die Upscaling benötigen oder zumindest davon profitieren, dürfte in den kommenden Jahren wohl eher deutlich wachsen als schrumpfen.
 
Zuletzt bearbeitet:
Die rtx4070 super erscheint nur weil eben die rx7800xt da ist um den preis zu sichern.

Mir wäre aber ne rtx4060ti super deutlich lieber besonders weil damit im 400€ Bereich endlich Bewegung kommt.
alternativ ne amd rx7700 mit 48cu und 180w tbp unter 400€.
Leider sehe ich keine neue sku von amd bis q2 2024 und dann ne rx8600 mit dann 32cu ab 3,55ghz +17tf entspricht der rx6800 für 350€ und erst dann wird nvidia rtx4060 super 30sm und rtx4060ti super 42sm bringen
 
Genau weil die 4070 ja 30 Euro mehr kostet und da würde ja einer sagen die 7800XT ist ein super deal?
Die 7800Xt ist viel zu teuer wird in RT prakitsch zerlegt und sonst ist nur gleich auf. Mit DLSS ist auch besser, FG ebenfalls und vom Verbrauch ist das krass. Das ist praktisch ein K.o. gerade die 4070 ist die Sperrspitze Preisleistung.
Mit dem Teil kann Cyberpunk Overdrive zocken dank FG. All die anderen Features noch dazu.

Da muss Nv echt Angst haben, gerade da überhaupt nicht.
Man muss schon jegliche neutraität ablegen um die 7800XT zu wählen.

Darunter sieht es besser aus aber ausgerechnet da eben gar nicht.
Bis die Preise wieder Fallen bei Super wird auch wieder dauern.
 
Die neusten Titel zeigen doch, wohin es geht.

Avatar will in 4K auch seine 12-13 GB VRAM haben mit vollen Details, trotz Upscaling.
Alan Wake offenbar auch. Das wird halt die neue Regel werden.

Da muss man doch nicht lange nachdenken um zu erkennen, dass 12 GB VRAM bei der Preisklasse nicht angemessen sind.
 
Die neusten Titel zeigen doch, wohin es geht.

Avatar will in 4K auch seine 12-13 GB VRAM haben mit vollen Details, trotz Upscaling.
Alan Wake offenbar auch. Das wird halt die neue Regel werden.

Da muss man doch nicht lange nachdenken um zu erkennen, dass 12 GB VRAM bei der Preisklasse nicht angemessen sind.
fake news avatar läuft mit 8gb no matter what


quelle: https://www.techpowerup.com/review/avatar-fop-performance-benchmark/
Über Balken kann man viel reden, schauen wir einfach ein Video an:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Da muss ich sagen mit RT off sieht die 7800XT schon richtig gut aus und mit RT on mag es einen unterschied geben, aber ist das wirklich DER Unterschied? Cyberpunk 35fps vs 27fps ist Not gegen Elend, da muss man eh an beiden Karten gegen-regeln und dann sind beide bei 60, na und. Dann ist auch die Frage wieviel Mühe sich der Entwickler gibt, da ist Nvidia bei Harry Potter weiter vorne als sonst, was nach einem Softwareproblem schreit, nicht nach einem Hardwareproblem.

Nvidia muss mehr machen als nur viele Karten produzieren, die werden auch im Preis kompetitiver werden müssen als aktuell mit der 4070. Ich sehe beide Karten bei 499€ Ende Februar.
heftig die 7800xt braucht teilweise 100 watt mehr laut dem video? :wow:
 
Die neusten Titel zeigen doch, wohin es geht.

Avatar will in 4K auch seine 12-13 GB VRAM haben mit vollen Details, trotz Upscaling.
Alan Wake offenbar auch. Das wird halt die neue Regel werden.

Da muss man doch nicht lange nachdenken um zu erkennen, dass 12 GB VRAM bei der Preisklasse nicht angemessen sind.
Naja, 4k mit maximalen Details ist nun mal High End; die Preisklasse um 600 Euro (falls das die ist, von der du sprichst) ist es definitiv nicht. Von daher sehe ich da überhaupt keinen Widerspruch.

Dass gehobene Mittelklasse heutzutage 500-600 Euro kostet, ist ärgerlich, keine Frage. Dass man dafür keine High End-Leistung bekommt, sollte aber auch klar sein.

Wenn die 4070 den Anspruch hätte, zukunftssicher in 4k zu performen, dann gäbe es logischerweise keine 4080 und keine 4090. Das ist eine WQHD-Karte, und wie früh sie da mit ihren 12 GB den Geist aufgeben wird, das werden wir sehen, insbesondere in einer Zukunft, in der Upscaling - auch für die Konkurrenz von AMD - mehr und mehr zum Muss wird.

Und was wir ebenfalls sehen werden, ist, ob 6800XT/7800XT nur aufgrund ihrer 16 GB VRAM in 4k signifikant mehr Frames auf den Bildschirm zaubern werden.
 
Zuletzt bearbeitet:
Natives 4k oder mit DLSS/FSR ? Das ist sehr wichtig weil in 4k Nativ haben die Karten sowieso nicht genug bumms da ist der Vram dann auch egal. :ka: ich mein Nativ schafft das auch die 4090 nicht. Wovon reden wir hier also?
Native ohne DLSS. TPU testet nicht mit DLSS bzw testet extra.
Natürlich schafft es eine 4090 PT in native 4k, sieht dir doch die Werte an, die ich verlinkt habe.
Klar 32FPS ist nicht viel, aber Konsoleros halten 30FPS für gut spielbar.

Man muss schon Graphen lesen können.
Wenn eine 3080 und eine 4070 in 1080p mit PT 42FPS haben und dann in 1440p die 4070 27 FPS, aber die 3080 nur noch 9 FPS, also nur noch ein Drittel der 4070 obwohl sie Erwartungsgemäß gleich schnell sind, dann kann man hier von einem VRAM Bottleneck reden.
In 4k ist dann der VRAM Bottleneck SO groß, das die dann auch die 4070 in den untersten einstelligen FPS Bereich fällt.
Erwartungsgemäß müsste die 4070 aber ~13FPS haben, bzw mehr als die 4060Ti, welche dank 16GB VRAM 11FPS hat.
Klar keiner kann realistisch mit 13 FPS spielen, aber darum geht es ja auch in solchen Tests nicht.

Man nutzt dafür dann DLSS und möglicherweise FG. ABER wenn eine Karte schon für native zu wenig VRAM hat, dann läuft es auch nicht mit DLSS und FG...
Btw mit DLSS Performance und FG schafft eine 4060Ti 16GB so 60FPS mit Pathtracing in 4k (1080p intern), was weder die 3080 noch die 4070 oder gar die 4070Ti schafft, wegen dem VRAM.
 
Naja, 4k mit maximalen Details ist nun mal High End; die Preisklasse um 600 Euro (falls das die ist, von der du sprichst) ist es definitiv nicht. Von daher sehe ich da überhaupt keinen Widerspruch.
Es stimmt ja nicht. Ich weis nicht wo er das herhat das Avatar soviel vram braucht 8gb reichen in 4k laut der verlinkten seite. Glaube die haben bisserl mehr ahnung..
 
fake news avatar läuft mit 8gb no matter what
quelle: https://www.techpowerup.com/review/avatar-fop-performance-benchmark/
heftig die 7800xt braucht teilweise 100 watt mehr laut dem video? :wow:
JA Avatar ist halt anders programmiert als Alan Wake 2.
Avatar ist ein Open World Spiel, welches die Inhalte streamt während man rum läuft und Alan Wake 2 lädt vermutlich das ganze Level in den Speicher.
Bei Avatar kann es also sein, das bei geringen VRAM das LOD stärker und schneller abfällt.
Alan Wake 2 hat vielleicht kaum LOD Stufen.

Jedes Spiel händelt sowas unterschiedlich.
Deshalb:
Deshalb am besten Videovergleich was LOD treibt und der Auflösung von Texturen.
Das wäre dann im Beispiel Avatar eher angebracht als bei Alan Wake 2, weil AW2 vermutlich kaum an LOD verliert und deshalb die FPS einbricht.
 
Und was wir ebenfalls sehen werden, ist, ob 6800XT/7800XT nur aufgrund ihrer 16 GB VRAM in 4k signifikant mehr Frames auf den Bildschirm zaubern werden.
Darauf scheinen die meisten zu schauen, aber was man heute schon sieht, sind Verluste bei Texturqualität. Hogwarts, Forspoken und Last Of Us haben das ja demonstriert mit 8 GB Karten. Die 12 GB sind halt die neuen 8 GB Karten bald. FPS sind eine Sache, aber wenn Texturen nicht mehr geladen werden, das stört mich sehr.
 
Avatar ist aber technisch eine Wucht so ein geschmeidiges gameplay haben wir selten am pc, leider. Die frametimes ohne fg sind perfekt und das fühlt man auch. Nicht wie diese schrott unreal engine:(
Darauf scheinen die meisten zu schauen, aber was man heute schon sieht, sind Verluste bei Texturqualität. Hogwarts, Forspoken und Last Of Us haben das ja demonstriert mit 8 GB Karten. Die 12 GB sind halt die neuen 8 GB Karten bald. FPS sind eine Sache, aber wenn Texturen nicht mehr geladen werden, das stört mich sehr.
Hast du gerade echt die Quelle ignoriert + weiter blodsinn verzapfen? + alle spiele in einem Topf werfen weil ja alle spiele gleich funktionieren und alle engines gleich mit dem vram umgehen?:lol:
 
Usage hat Avatar bei mir immer um die 9 - 10,5 GB, je nach Szene - nimmt sich aber gerne 11 - 12 GB.
Aufploppende Texturen etc. habe ich wirklich sehr selten und wenn dann eher beim Fliegen. Also, was das betrifft, ist es mit das beste, was ich bisher gespielt / gesehen habe, bei der Qualität.
 
Das ist eine WQHD-Karte, und wie früh sie da mit ihren 12 GB den Geist aufgeben wird, das werden wir sehen, insbesondere in einer Zukunft, in der Upscaling - auch für die Konkurrenz von AMD - mehr und mehr zum Muss wird.
Naja, Upscaling spart gar nicht wirklich viel VRAM. Jedenfalls nicht so viel, dass dafür FG und RT voll reingehauen werden kann. Die neuen Effekten und Texturen und die feine Gemotrie ist halt nicht kostenlos. Das scheint irgendwie bei vielen gar nicht anzukommen. Es wird immer nur auf die FPS geschaut oder Texturen. Dabei sind Texturen eigentlich gar nicht mehr so ausschlaggebend für den VRAM Verbrauch, genauso wenig wie Auflösung generell. Sich da nur auf Texturen zu konzentrieren ist nicht mehr zeiggemäß weil Spiele heute viel komplexer sind.

Wir haben eben keine Texturtapeten mehr wie in Half Life 1 oder so. Heute haben wir tesselation, Details und Anzahl der Assents in der Spielwelt, einfaches 1 Ray per Pixel Raytracing und zunehmend sicher auch Pathtracing und die vielen anderen Techniken um da zu tricksen die ne mischung aus allem sind, sie Alan Wake 2.

Das kostet eben alles Leistung, aber eben auch Speicher.
Usage hat Avatar bei mir immer um die 9 - 10,5 GB, je nach Szene - nimmt sich aber gerne 11 - 12 GB.
Aufploppende Texturen etc. habe ich wirklich sehr selten und wenn dann eher beim Fliegen. Also, was das betrifft, ist es mit das beste, was ich bisher gespielt / gesehen habe, bei der Qualität.
Also Usage war bei mir eher immer so bei 11-13 GB. Allocated dann 15,x GB. Und das mit vollen Details und FSR3 Performance.
 
Warum wird in Bezug auf den Vram immer die Framezahl/Performance als Vergleich genommen. Wenn der Vram ausgeht, äußert sich das doch in Nachladenden Texturen, abstürzen, usw., aber doch nicht in FPS… Ohne es gespielt zu haben, kann es doch sein, dass Avatar eben bei 8 GB Karten zwar wunderbar läuft, aber eben Texturen aufploppen oder matschig dargestellt werden und eben bei 16 gb alles wunderbar vorgeladen ist…
 
Mal ein paar Beispiele:
Es sidn eben nicht nur Texturen.

 
Ohne es gespielt zu haben, kann es doch sein, dass Avatar eben bei 8 GB Karten zwar wunderbar läuft, aber eben Texturen aufploppen oder matschig dargestellt werden und eben bei 16 gb alles wunderbar vorgeladen ist…
ja, dafür müsste es Vergleichsvideos geben. Ich kann dir aber sagen, dass man es auch an der FPS Zahl merkt / sieht, ob dein Vram nicht mehr mitmacht :p
 
Zurück