Geforce RTX 4000: Neue technische Daten für AD102, AD103 und AD104 [Gerücht]

GDDR6 verbraucht um die 2,5W.
Ja, aber halt pro Modul, ne. Die RTX 3080 Ti verbraucht schon alleine deshalb ~30 Watt weniger (12x 1GB GDDR6X VRAM-Module) als die RTX 3090. Und gekühlt werden muss der zusätzliche VRAM dann halt auch. Wenn genau das dann nicht adäquat gewährleistet ist, dann laufen die Module heißer und verbraten deshalb zusätzliche Energie (+ Lüfter müssen schneller drehen, was auch wieder mehr Strom zieht -> Kleinvieh macht auch Mist).

Musste ich alles am eigenen Leib erfahren. ^^
 
Ja, aber halt pro Modul, ne. Die RTX 3080 Ti verbraucht schon alleine deshalb ~30 Watt weniger (12x 1GB GDDR6X VRAM-Module) als die RTX 3090. Und gekühlt werden muss der zusätzliche VRAM dann halt auch. Wenn genau das dann nicht adäquat gewährleistet ist, dann laufen die Module heißer und verbraten deshalb zusätzliche Energie (+ Lüfter müssen schneller drehen, was auch wieder mehr Strom zieht -> Kleinvieh macht auch Mist).

Musste ich alles am eigenen Leib erfahren. ^^
Das ändert aber nichts daran dass mehr vram bei der4070 kein Problem ist. 2GB ist ein IC mehr also 2,5W mehr und das auf der Vorderseite. Wenn es da Probleme gibt ist sie bei der Kühllösung zu suchen. Auf den Stromverbrauch der Karte hat das ganze aber nur eine untergeordnete Rolle
 
Das ändert aber nichts daran dass mehr vram bei der4070 kein Problem ist. 2GB ist ein IC mehr also 2,5W mehr und das auf der Vorderseite. Wenn es da Probleme gibt ist sie bei der Kühllösung zu suchen. Auf den Stromverbrauch der Karte hat das ganze aber nur eine untergeordnete Rolle
Ja klar, da stimme ich Dir vollkommen zu! Ich habe gerade natürlich auch ein Extrembeispiel genannt. 10 vs. 12 GB und 12 vs. 24 GB sind natürlich nen himmelweiter Unterschied. Wollte nur das generelle Dilemma illustrieren. Alles hat Vor- und Nachteile.

Man müsste halt den Sweet Spot bei den neuen Karten finden. Dass es den nicht geben wird oder zumindest nicht zu Release, weiß ich auch, weil Nvidia in erster Linie Geld verdienen möchte.
 
Mein Tipp: 4070 10GB (um die 3080/Ti nicht obsolet zu setzen), 4080 16GB (um die 3080 User zum Upgrade zu bewegen) und 4090 24GB (hier gehts nicht um Speicher, sondern die +50% Performance für die 3090/Ti User)
 
Geht man davon aus dass die 4070 als Zielauflösung WQHD hat, dann sind 10 GB völlig in Ordnung.

Bitte nicht die Neuauflage des "es ist eine Full HD Karte" Käses, den die AMD Fanboys abgezogen haben.

1: Nein, Nvidia hat den Displayport und HDMI 2.0 nicht weggelassen, man kann die Karte auch in 4K nutzen.
2: auch in 4K gibt es diverse Dinge, die 10 GB sprengen.

Sehe ich ja bei meiner 3080 10 GB, selbst ohne DLSS hat CP2077 mit allen Reglern rechts nicht über 8 GB benötigt.

Spiel mal FC6 mit dem Texturpaket.

Im übrigen ist dann auch die Frage, wie lange man die Karte behalten möchte. Du bist da mit zwei jahren recht schnell, andere wollen auch noch länger Spaß haben.

Aber bisher gab es nur 2-3 Games die damit Probleme hatten.

Und die Zahl wird steigen.

Rein von den Daten sieht die 4070 ziemlich ungeil. Weniger ALUs als die 3080, die Hälfte der Speicheranbindung, genauso viel VRAM und nur 20W weniger Verbrauch. Irgendetwas stimmt bei den Gerüchten nicht, wenn man sich den zu erwartenden Sprung bei der Fertigung ansieht. Ist evtl. nur die 4090 von TSMC?

Man kann einen kleinen Chip auch ordentlich treten und so das Maximum an Leistung rausprügeln. Den Strom zahlt der Kunde, mit der Leistung kann man allerdings werben und steht in Benchmarks gut da. AMD hat das früher mal gemacht, während Nvidia auf größere Chips gesetzt hat.

Sicherlich rechnet Nvidia noch mit einer anhaltenden Chipkrise und baut daher weniger Speicher ein.

Klar, Nvidia sorgst sich um die Kundschaft und möchte nicht etwa ihre Portfolio abstufen.

Wie selbstlos sie doch sind...

in welcher welt lebst du. 3070 8 gb 3080 10gb lol

Als Kunde sollte man schon gewisse Ansprüche haben.

Ganz im Gegenteil. Es ist eine gute Idee jetzt eine RTX 3080 12GB zu kaufen. Diese Karten sind noch erschwinglich.

Sie kostet 900€, wenn man dafür oder darunter die RTX 4080 bekommt, dann sieht es anders aus.

Die Welt steht in weiten Teilen vor einer Rezession.

In einer Rezession werden Luxusgüter üblicherweise weniger nachgefragt.

Das senkt den Preis.

Die Lieferketten sind extrem gestört und bleiben es auch.

Die Frage ist, ob auch Nvidia und AMD davon betroffen sind.

Deutsche Politiker, allen voran Robert Habeck, sprechen von 5 schweren Jahren. Die Energiepreise steigen auf Rekordniveau.

Nicht jedes Land ist Deutschland, das sich dummerweise vom russischen Gas abhängig gemacht hat.

Was glaubst du bleibt von der 4000er Generation übrig außer knappen Bestände und hohe Preise?

Schlimmer als bei der 3000er Generation kann es fast nicht mehr werden. Hoffen wir eing´fach mal, dass der Miningboom zu Ende ist.

Davon abgesehen dass die 6700XT sowieso viel zu schwach für Auflösungen in denen sie so viel VRAM bräuchte, und je nach Game trifft das auch auf die 6800XT zu.

Ist sie nicht. Viel VRAM bringt einem auch in geringeren Auflösungen eine extreme Steigerung der Bildqualität.

Es hat ja seinen Grund warum Farcry 6 so wenig RT Effekte hat und dafür massig VRAM "benötigt", AMD-sponsored lässt grüßen.

Far Cry war spätestens seit Primal sehr anspruchsvoll, eigentlich schon seit FC4.

Das Problem an dieser Verschwörungstheorie ist, dass es dafür zu wenig VRAM benötigt. Mit 10GB kommt es zu Problemen, mit 11GB (GTX 1080Ti und RTX 2080T) läuft es aber. Wenn, dann hätte man es so machen müssen, dass die Voraussetzungen des HD Pakets bei 14GB liegen, dann hätten die 6800er und 6900er richtig glänzen können.

DLSS ist vom Tisch? Weil FSR 2.0 schon so gut verfügbar ist oder wie? :huh:

Es ist nichtmehr ganz so wichtig, wie vorher.
 
Freue mich auf die neuen Karten, freue mich aber absolut nicht drauf mein Netzteil tauschen zu müssen… (macht mir inzwischen nicht mehr soo viel fun wie früher — nämlich gar nicht…)
 
Bitte nicht die Neuauflage des "es ist eine Full HD Karte" Käses, den die AMD Fanboys abgezogen haben.

1: Nein, Nvidia hat den Displayport und HDMI 2.0 nicht weggelassen, man kann die Karte auch in 4K nutzen.
2: auch in 4K gibt es diverse Dinge, die 10 GB sprengen.
Wieso Käse? Es kommt halt drauf an für was man kauft, High End (4K + alle Regler rechts + HD Texture Packs) ist bei Ampere eben 3080ti / 3090(ti). Und mit den Karten läuft das auch bis auf wenige Spiele. FC6 fällt mir da eigentlich aktuell nur ein (welches AMD-Sponsored ist), das Geschmäckle hat man bei Igor und hier bei PCGH auch im jeweiligen Artikel angesprochen...


Spiel mal FC6 mit dem Texturpaket.
Und was noch? Übrigens habe ich genau diese Games bereits angesprochen, es sind absolute Ausnahmen.

Im übrigen ist dann auch die Frage, wie lange man die Karte behalten möchte. Du bist da mit zwei jahren recht schnell, andere wollen auch noch länger Spaß haben.
Zukunftsmusik war noch nie sehr zuverlässig. Genau so gut könnten die Spiele in 2 Jahren auf DirectStorage + Sampler Feedback setzen und somit den VRAM Bedarf deutlich runterschrauben.

https://compusemble.com/insights/ho...th-fast-storage-to-reduce-memory-requirements

The demo starting at the 50 second mark was configured to run in 4K and each object is a 16k x 16k BC7 texture. Ordinarily, this would take up 350MB of GPU memory for each individual object. The demo features 985 such objects, which would take up nearly 300 GB (yes, that's GB, not MB) of GPU memory. However, as can be seen in the video, allocated VRAM usage is just over 3 GB, and dedicated VRAM usage is just over 2 GB! SFS allows for visuals that simply would not otherwise be possible due to memory constraints.

Und die Zahl wird steigen.
Wenn AMD sein Sponsoring erweitert bestimmt. Betrifft dann aber weiterhin nur 4K + alle Regler rechts + RT + HD Texture Pack. Der VRAM Bedarf bleibt ja absehbar gleich für die jeweiligen Auflösungen.

Ist sie nicht. Viel VRAM bringt einem auch in geringeren Auflösungen eine extreme Steigerung der Bildqualität.
Joah, ob man die 4K Texturen auf seinem FullHD Monitor dann als solche erkennt, ich weiss ja nicht...


Far Cry war spätestens seit Primal sehr anspruchsvoll, eigentlich schon seit FC4.
Schlecht optimiert, ist ja bekannt.

Es ist nicht mehr ganz so wichtig, wie vorher.
Weil nicht mal eine Hand voll Spiele FSR 2.0 unterstützen? Bei DLSS war die geringe Unterstützung noch das Totschlag Argument, aber für FSR 2.0 gilt das nicht? Seltsam...
 
Das ändert aber nichts daran dass mehr vram bei der4070 kein Problem ist. 2GB ist ein IC mehr also 2,5W mehr und das auf der Vorderseite. Wenn es da Probleme gibt ist sie bei der Kühllösung zu suchen. Auf den Stromverbrauch der Karte hat das ganze aber nur eine untergeordnete Rolle
Die 3080 12GB verbraucht im Gegensatz zur 10 GB 30 Watt mehr. Die Shader bei der 12GB Version sind 4% höher, daran kann es nicht liegen. Und der Basistakt der 12GB ist etwas niedriger.
 
Zuletzt bearbeitet:

Selbst meine alte GTX 980Ti war in der Lage 4K Darzustellen. Dann ist es die RX 6600(XT) und besonders die RTX 4070 erst recht.

Das ganze Gerede von der angeblichen "Full HD Karte" (und jetzt WQHD) dient nur dazu, dass man auch ja nicht die Schwächen der Karte aufdecken soll. Bei der RX 6600(XT) waren sich die AMD Fanboys einig, dass man die Karte ausschließlich in Full HD testen darf.

Wenn eine Karte für eine bestimmte Auflösung nicht tauglich ist, dann sollen AMD und Nvidia das als Warnung auf die Verpackung drucken.

Es kommt halt drauf an für was man kauft, High End (4K + alle Regler rechts + HD Texture Packs) ist bei Ampere eben 3080ti / 3090(ti).

Sehr witzig!

Jetzt ist es schon das Unvermögen der Karten, das sich selbst rechtfertigt.

FC6 fällt mir da eigentlich aktuell nur ein (welches AMD-Sponsored ist), das Geschmäckle hat man bei Igor und hier bei PCGH auch im jeweiligen Artikel angesprochen...

Das Geschmäcke ist Blödsinn, denn dann hätte man die GTX 1080Ti und RTX 2080Ti nicht stehen lassen. Wenn, dann hätte man auf 14GB gehen müssen und nicht auf 11GB.

Und was noch? Übrigens habe ich genau diese Games bereits angesprochen, es sind absolute Ausnahmen.

Und die Ausnahmen werden wohl bald mehr, die Besitzer der Fury X konnten ein Leid davon singen.

Zukunftsmusik war noch nie sehr zuverlässig.

In den letzten 16 Jahren war es recht einfach: Karten mit hohem VRAM haben lange gehalten, vielen Karten mit wenig VRAM ist das zum Verhängnis geworden.

In den letzten Genau so gut könnten die Spiele in 2 Jahren auf DirectStorage + Sampler Feedback setzen und somit den VRAM Bedarf deutlich runterschrauben.

Die Entwickler werden das dann wohl einfach nutzen, um noch mehr reinzupacken.

Der VRAM Bedarf bleibt ja absehbar gleich für die jeweiligen Auflösungen.

Zahlst du mir eine neue Karte, wenn es nicht so ist?

Ach ja: bei Stalker 2 ist schon angekündigt, dass sie die 8GB als Minimum nehmen werden.

Joah, ob man die 4K Texturen auf seinem FullHD Monitor dann als solche erkennt, ich weiss ja nicht...

Ich hab auf meinem alten 19" Übergangsmonitor (1280x1024) mal 8K Texturen bewundert. Ja, den Unterschied sieht man.

Schlecht optimiert, ist ja bekannt.

Was soll da bitte schlecht optimiert sein?

Verwechsele nicht anspruchsvoll mit schlecht optimiert, nur weil es die nicht in den Kram passt.

Weil nicht mal eine Hand voll Spiele FSR 2.0 unterstützen?

Wird sich in Zukunft ändern. So, wie es sich bei DLSS und FSR 1.0 geändert hat.

Bei DLSS war die geringe Unterstützung noch das Totschlag Argument, aber für FSR 2.0 gilt das nicht? Seltsam...

Also ich habe das nie behauptet.

Was ich immer gesagt habe ist, dass AMD momentan einen Vorteil hat, da FSR 100% der Karten unterstützt, bei DLSS sind es im Moment wohl nur 25%. Das ist ein massiver Grund, FSR zu unterstützen, da dort alle Kunden etwas davon haben. Der Vorteil wird massiv schwinden, wenn die Pascalkarten massig ausgemustert werden. das könnte schon bald passieren, die sich die Preise normalisiert haben und die RTX 4000er Serie wohl recht kraftvoll wird.

Aber AMD läßt mit FSR 2.0 nichts anbrennen, zumindest zeitlich nicht.
 
Und wo genau braucht man jetzt so viel VRAM? In 4K mit HD Texture Pack in 2-3 Games, und sonst? Davon abgesehen dass die 6700XT sowieso viel zu schwach für Auflösungen in denen sie so viel VRAM bräuchte, und je nach Game trifft das auch auf die 6800XT zu. Es hat ja seinen Grund warum Farcry 6 so wenig RT Effekte hat und dafür massig VRAM "benötigt", AMD-sponsored lässt grüßen.

DLSS ist vom Tisch? Weil FSR 2.0 schon so gut verfügbar ist oder wie? :huh:


Beim RAM würde ich sagen, dass die aktuelle Generation von Konsolenspielen auch in den kommenden Jahren realistischerweise 10-12GB an Grafikdaten in der Spitze haben wird. Wenn die Erwartungshaltung am PC ist, dass man nicht bessere Grafik bekommt, sondern nur schnellere, dann sollten 10GB in der Tat reichen. Aber ich behaupte PC Spieler in der Preisklasse haben schon die Ambition, dass es schneller und schöner ist.

Bei DLSS sehe ich den Umstand am Werk, dass GPUs wie eine 4070 keine kurzfristigen Übergangskarten sind, sondern etwas vorausschauender gekauft werden. Mit der Perspektive hat DLSS nicht länger alle Argumente für sich allein. FSR ist kein Konkurrent wenn man jetzt hier im Moment und für dieses Spiel heute hier eine GPU kauft. Aber wenn man sagt das ist meine Karte die nächsten 4-5 Jahre, dann ist DLSS nicht mehr dieses Argument das es zu Zeiten der RTX20 Serie war.

Problem am PC bleibt weiterhin, dass es finanziell gar nicht rentabel ist nur auf High-End Karten zu gehen als Hersteller. Die meisten Spiele verdienen ihr Geld mit cleveren psychologischen Tricks im Cash Shop, dafür braucht man kein fotorealistisches Spiel mit Raytracing das alles aus einer 12GB Karte herausholt. Die meisten PC Hits und Hype Games zeichnen sich eher dadurch aus, dass sie auf jeder Kartoffel laufen und gerade das macht sie so populär. Macht das die 4050-8GB zu kommenden wichtigsten Karte?
 
Die 3080 12GB verbraucht im Gegensatz zur 10 GB 30 Watt mehr. Die Shader bei der 12GB Version sind 4% höher, daran kann es nicht liegen. Und der Basistakt der 12GB ist etwas niedriger.
Beschäftige dich bitte mit der Materie....
Der Mehrspeicher macht keine 30W aus. Alleine dann wäre die 3090 so nicht möglich! Die bräuchte in deiner Annahme dann für den Speicher satte 240W.
Nvidia gibt den Karten mehr Saft damit die höher boostet. Da Nvidia Karten seit längeren relativ frei Boosten kann bedeutet dies dass ein höheres PL typischerweise auch in Mehrtakt mündet.
 
Bei der RTX 4080 könnte sich Nvidia zudem den teuren GDDR6X-Speicher sparen.
Das würde vermutlich auch noch ein paar W sparen aka 3070 vs. 3070Ti.
Damit wären dann die 420W noch mehr wert. (rel. hoher Takt machbar)
Und könnte gerade so für einige Modelle noch mit 2x 8pin gehen.

wird interessant
 
Zuletzt bearbeitet:
Wieso verbreitest du hier ständig schwachsinn? GDDR6 verbraucht um die 2,5W.
Nvidia macht das was sie seit Jahren bereits treiben. Karten maximal kostenoptimiert rausbringen und so designen das so wenig Kannibalisierung des Lineups stattfindet wie möglich. Stromverbrauch interessiert die nicht, sonst würde man nicht über 600W+ spekulieren.

Denkst du wirklich, das es bei AMD anders ist. Ist nur eine andere Politik zum selben Thema.
Und bezüglich Strombedarf, kann auch festhalten, das die TDP bei Nvida von 3090 zur 4090 laut aktuellen Gerüchten, von 350 auf 450W anwächst.

Bei AMD ein Sprung bei der 6900XT, zur 7900XT von 300 zu 375W.

Also prozentual schon nicht weit auseinander. Beide Hersteller kochen mit Wasser und versuchen das meiste Geld zu verdienen. Warum sonst ist das Speicher Interface bei AMD, wie es ist.
Das würde vermutlich auch noch ein paar W sparen aka 3070 vs. 3070Ti.
Damit wären dann die 420W noch mehr wert. (rel. hoher Takt machbar)
Und könnte gerade so für einige Modelle noch mit 2x 8pin gehen.

wird interessant
Der Takt wird aber auch gebraucht um etwa 30% (grob) hinter der 4090 zu landen.

Da jede RTX4000 Karte für mich aktuell schnell genug wären, würde mich am meisten interessieren,
wie lassen die sich undervolten,
wie ist der Speicherausbau,
wie ist der Verbrauch,
wie sind die Verkaufspreise (und natürlich die UVP´s, um mir ein Bild zu machen, wie Nvidia eigentliche abkassieren möchte).


Ob jetzt 2x 8Pin, oder mit Adapter 1x16Pin, ist mir eigentlich Latte...
 
Es gibt bestimmt Leute die voriges Jahr ein 750W-NT gekauft haben und net schon wieder aufrüsten wollen.
(da halte ich sogar 390W-->420W für machbar, wenn die neue Gen etwas exakter die Spikes abregelt ala 3090Ti)
 
Beschäftige dich bitte mit der Materie....
Der Mehrspeicher macht keine 30W aus. Alleine dann wäre die 3090 so nicht möglich! Die bräuchte in deiner Annahme dann für den Speicher satte 240W.
Nvidia gibt den Karten mehr Saft damit die höher boostet. Da Nvidia Karten seit längeren relativ frei Boosten kann bedeutet dies dass ein höheres PL typischerweise auch in Mehrtakt mündet.

Er bezieht sich bestimmt auf den GDDR6X, aber auch da sind es inkl. der Spannungsaufbereitung samt Verlusten nur 3W por GB. Das macht einen Unterschied, bei 24 zu 10GB (3090 zu 3080), nicht aber bei 10 zu 12GB.

Ausgehend von 2500MHz bei 10GB, dürften es wohl bei 12GB und entsprechend 6W weniger für den Chip, noch 2480MHz sein. Bei der Performance wäre dieser Unterschied noch kleiner und dürfte um 0,5 bis 0,6% liegen.

Höchste Spekulation natürlich (au Basis von 300W für die 4070 bei 10GB)
Es gibt bestimmt Leute die voriges Jahr ein 750W-NT gekauft haben und net schon wieder aufrüsten wollen.
(da halte ich sogar 390W-->420W für machbar, wenn die neue Gen etwas exakter die Spikes abregelt ala 3090Ti)
Aber warum ;)

Warum schon wieder aufrüsten? Weil mein NT nicht die richtigen Stecker bietet...Dann gibt es Adapter und oder auch die Möglichkeit, sich selber etwas zu Crimpen, so wie man es haben will.

Ich hoffe auch stark, das die RTX4000 durch die Bank, die Peaks so regelt, wie die 3090TI. Da ich auf Mini Projekte stehe und man da etwas stärker beschränkt ist, in der Auswahl.
 
Jo,
die User mit der 3090Ti kommen durch die Bank weg besser mit dem NT aus als vorher mit der alten 3090@OCen.

Adapter hin+her. Ich glaube für Manche ist das dann auch von der Wärme im Zimmer her dann die Grenze für 4080
mit 750W gesamter PC. (oder was man halt in seinem Gehäuse überhaupt so rausbekommt mit erträglicher
Drehzahl der Gehäuselüfter)

btw.
Die 4090 sollte man evtl. gleich als Fullcover anbieten, da wird man bei so nem hohen Preis sicher auch 600W nutzen wollen.
 
Zuletzt bearbeitet:
Bei mir steht eine 4070 oder 7700 an, die 4070 mit 10GB wär dann auf jeden Fall raus.
12GB würd ich mir evtl. noch gefallen lassen aber eine Karte die weniger RAM als meine aktuelle hat kauf ich sicher nicht.
Über eine 16GB Karte in der Klasse wär ich richtig glücklich.
Für die 7700XT gab es leider auch schon das Gerücht, dass die nur mit 8GB VRAM kommen soll aber die Leistung einer 6900XT erreichen soll.

Cunhell
 
Selbst meine alte GTX 980Ti war in der Lage 4K Darzustellen. Dann ist es die RX 6600(XT) und besonders die RTX 4070 erst recht.
Und mit der 7 Jahre alten Karte kannst Du heute noch aktuelle Spiele in 4K zocken? Selbst wenn die Karte 24GB VRAM hätte wäre das eher nicht möglich da die Rohleistung nicht ausreicht.

Das ganze Gerede von der angeblichen "Full HD Karte" (und jetzt WQHD) dient nur dazu, dass man auch ja nicht die Schwächen der Karte aufdecken soll. Bei der RX 6600(XT) waren sich die AMD Fanboys einig, dass man die Karte ausschließlich in Full HD testen darf.
Ich sagte etwas anderes. Natürlich kann man sie in 4K testen und entsprechend darauf hinweisen dass der VRAM knapp werden könnte. Die Frage ist: Wieso kauft sich jemand für High-End Einstellungen keine High-End Karte?

Wenn eine Karte für eine bestimmte Auflösung nicht tauglich ist, dann sollen AMD und Nvidia das als Warnung auf die Verpackung drucken.
Das liegt wohl eher in der Verantwortung des Käufers, auf einem SMART steht ja auch nicht dass er für längere Autobahn Reisen nicht so geeignet ist...

Sehr witzig!

Jetzt ist es schon das Unvermögen der Karten, das sich selbst rechtfertigt.
Versteh ich nicht.

Das Geschmäcke ist Blödsinn, denn dann hätte man die GTX 1080Ti und RTX 2080Ti nicht stehen lassen. Wenn, dann hätte man auf 14GB gehen müssen und nicht auf 11GB.
Du redest Unfug, siehe offizielle Hinweise:

Eine weitere Warnnotiz tauchte im Ubisoft-Connect-Launcher auf. Mehr als 11 GiByte Grafikspeicher werden laut Angaben vorausgesetzt, Ubisoft selbst empfiehlt in der Mail gar ausdrücklich 16 GiByte Grafikspeicher, da das HD-Paket laut Entwicklern allein in etwa 10-11 GiByte beansprucht, abhängig von der genutzten Auflösung. Im offiziellen Reviewer's Guide ist gar von "mindestens 12 GiByte für Full HD und mindestens 16 GiByte für UHD" die Rede.
https://www.pcgameshardware.de/Far-...ar-Cry-6-Technical-Review-Benchmarks-1380782/

Und die Ausnahmen werden wohl bald mehr, die Besitzer der Fury X konnten ein Leid davon singen.
Könnte sein, oder auch nicht. Weiss gerade keiner mit Sicherheit.

In den letzten 16 Jahren war es recht einfach: Karten mit hohem VRAM haben lange gehalten, vielen Karten mit wenig VRAM ist das zum Verhängnis geworden.
Das liegt aber eher am Wechsel von FullHD zu WQHD und 4K. Sowas steht erst wieder an wenn 8K kommt, und dafür reicht die Rohleistung noch sehr lange nicht aus.


Die Entwickler werden das dann wohl einfach nutzen, um noch mehr reinzupacken.
16K Texturen oder was? Das halte ich für unwahrscheinlich.

Zahlst du mir eine neue Karte, wenn es nicht so ist?

Ach ja: bei Stalker 2 ist schon angekündigt, dass sie die 8GB als Minimum nehmen werden.
Darauf gehe ich nicht weiter ein, muss man abwarten.

Ich hab auf meinem alten 19" Übergangsmonitor (1280x1024) mal 8K Texturen bewundert. Ja, den Unterschied sieht man.
Auf Screenshots vielleicht, in Bewegung sieht man eher keinen Unterschied. Gibt ja genügend Tests zur Texture-Quality zwischen High und Ultra High.

Was soll da bitte schlecht optimiert sein?

Verwechsele nicht anspruchsvoll mit schlecht optimiert, nur weil es die nicht in den Kram passt.
Ich zitiere mal von Igor:

https://www.igorslab.de/geplante-nv...r-selbst-eine-rtx-3080-ti-in-die-knie-zwingt/

Ob man den jetzt aus technischer Sicht wirklich gebraucht hätte, das sei mal dahingestellt. Die etwas verhaltene Implementierung der Raytracing-Effekte kann man aus Sicht AMDs nachvollziehen, wenn man weiß, wie hüftlahm eine aktuelle Radeon werden könnte, wenn man es übertreibt. Also untertreibt man es lieber bei Ubisoft, selbst wenn es dann optisch kaum noch einen Mehrwert bietet. Hauptsache drin.

Hätte man sich beim HD-Texturen-Pack allerdings genauso zärtlich benommen, dann gäbe es den heutigen Artikel wohl gar nicht erst. Denn eines muss man leider auch feststellen, soviel HD bringt es auch nicht ins Spiel, nur in den Speicher. Selbst das Armaturenbrett der Staatskarosse ist in Ultra-HD mit HD-Pack noch so verpixelt, das man sich echt fragen muss, wo die stellenweise über 12 GB Speicher eigentlich abhanden gekommen sind. Auch manch andere Stelle sieht eher denaturiert und dehydriert aus, aber bei weitem nicht knackig scharf.

Wird sich in Zukunft ändern. So, wie es sich bei DLSS und FSR 1.0 geändert hat.
In Zukunft wird auch fast jedes Unreal und Unity Engine (und diverse weitere Engines) Spiel DLSS unterstützen da nativ unterstützt. Wir wissen ja dass die Implementierung einer der Techniken die andere quasi "mit integriert".

Aber AMD läßt mit FSR 2.0 nichts anbrennen, zumindest zeitlich nicht.
Joah, hatten ja auch fast 4 Jahre Zeit sich vorzubereiten seit dem DLSS Release...
 
Zurück