News Geforce RTX 3070: Speicher-Upgrade auf 16 GiB bringt drastischen Fps-Boost

Ein Gewinn Orientiertes unternehmen, hat sich halt entschieden nicht das beste Produkt für den Preis anzubieten sondern das Produkte mit der besten Marge.

Nichts anders macht AMD auch nur dort ist es nicht der VRAM sondern RT Performance.
Wobei ich AMD noch vorwerfen würde, dass sie es mit RT einfach nicht besser können. Hängen halt eine Gen hinterher und das sieht man auch.
Wenn das Obsoleszenz wäre, müsste Nvidia viel weniger Speicher verbauen der zudem auch noch anfällig wäre, etwa Speicher der nach 3 oder 4 Jahren bauartbedingt langsamer wird oder über den Jordan geht.
Geplante Obsoleszenz ist das (schnellere) geplante Veralten eines Produkts aka Einschränkung der Nutzungsdauer durch den Hersteller.

Das muss nicht durch künstliche Bruchstellen (im Sinne von geht kaputt) sein, sondern kann wie in den Fällen 3070 oder 4070 auch das zunehmende Scheitern des Produkts an wachsenden Anforderungen und damit das schnellere Erreichen des EoL sein. Aka das "auf Kante nähen", das hier häufig kritisiert wurde.

Mit "Kampfbegriff" hat das eigentlich nix zu tun und zeigt nur deine Motivation hinter deinen Beiträgen, die allerdings mittlerweile hinlänglich bekannt ist. :schnarch:
 
Zuletzt bearbeitet:
Das Problem ist, dass für deine Behauptung keine Belege existieren und du auf Nachfrage ausweichst. Dennoch behauptest du du hättest Quellen.
Deshalb die nochmalige Aufforderung mir Belege für deine Aussagen zu liefern.
Hast du die genannten Belege oben jetzt einfach übersehen, wolltest du sie übersehen oder hast du sie nicht beachtet?
Sind sie vielleicht nicht ausführlich oder genau genug?
 
Hast du die genannten Belege oben jetzt einfach übersehen, wolltest du sie übersehen oder hast du sie nicht beachtet?
Die "Belege" wie du sie nennst passen eben nicht zu deiner Aussage.
Dort wird überall das Ultra Preset verwendet und dass die 3070 dort bei den genannten Spielen in einen Speicherüberlauf rennt, wird überhaupt nicht bezweifelt.

Du tust hingegen so, als müsse man die Regler auf low drehen, um spielen zu können. Das ist schlicht Bullshit.
Sind sie vielleicht nicht ausführlich oder genau genug?
:crazy:
 
Aber eine 4070ti ist bereits 10% schneller als die 7900XTX in VR, in meinem Spiel. So richtig endgeil ist das nicht, zumal eine 7900XTX nochmal 14-18% schneller als die XT ist.
Ist dann natürlich ein "sehr seltenes" Usecase, denn selbst in RT ist die XTX ja overall nicht langsamer als die 4070Ti, dafür rennt diese in Raster spielen der Ti um fast 30% auf und davon.

Dafür hat die 4080 wieder "nur" 16GB und die werden aktuell schneller knapp als einem lieb ist ;).
Sehe 16GB bei der 4080 nicht als Problem an, wobei ich kein VR Spieler bin und auch keine Erfahrungen habe. Aber ich denke, dass 16GB in Verbindung mit der gezeigten Leistung ein passender Kompromiss sind.

7900XT ist mir dann schon zu lahm in meinem priorisierten Spiel, wäre aber für alle anderen Spiele meine erste Wahl.
Finde sie schlichtweg immer noch zu teuer, im Vergleich zur XTX

Weswegen ich echt stark zwischen 7900XTX und 4080 schwanke.
Ohne deinen Usecase nun genau zu kennen, kann ich die Fragestellung grds. nachvollziehen. Ich stehe zwar aktuell nicht vor der Frage (meine 6900XT reicht noch eine Gen), aber ich finde die 7900XTX eigentlich die schlechtere Karte. Allerdings liegen mittlerweile wieder rund 200 EUR zwischen den beiden Karten, was die Wahl aktuell sehr sehr schwer macht. Die 4080 ist halt langsamer im Raster, dafür viel effizienter, teurer dafür aber mit RT und DLSS 2.x ausgestattet, dazu Reflex als überlegene Lösung im Bereich der Latenzverbesserung. Wenn du bereit bist, 1200 EUR auszugeben, würde ich die 4080 nehmen, der Speicher (wie gesagt, keine Ahnung wie sich der Verbrauch im VR auswirkt) ist in meinen Augen groß genug und ich hätte bspw. lieber eine XTX mit 16GB Speicher für dann nur 850 EUR (was dann allerdings meine erste Wahl wäre), als eine 4080 mit 22GB Speicher (geht glaube ich gar nicht) für 1.400 EUR.
 
Geplante Obsoleszenz ist das (schnellere) geplante Veralten eines Produkts aka Einschränkung der Nutzungsdauer durch den Hersteller.

Das muss nicht durch künstliche Bruchstellen (im Sinne von geht kaputt) sein, sondern kann wie in den Fällen 3070 oder 4070 auch das zunehmende Scheitern des Produkts an wachsenden Anforderungen und damit das schnellere Erreichen des EoL sein. Aka das "auf Kante nähen", das hier häufig kritisiert wurde.

Und genau das sehe ich hier nicht, da ja offen kommuniziert wird, wie viel Speicher die Karte hat. Wie genau weiß ein Hersteller, dass man in X Jahren Y an Speicher braucht? Schau dir doch mal Pascal an. Dort hat man sich überschätzt. Turing müsste demnach ebenfalls den Begriff der geplanten Obsoleszenz bekommen, da es dort ja nicht wirklich mehr Speicher gab.

Geplante Obsoleszenz kann man in meinen Augen nicht durch "zu gering" bemessene Leistungsdaten wiederspiegeln. Die Karte funktioniert problemfrei. Es wurde schließlich auch nie behauptet, dass sie X Spiele in Y Jahren auf höchsten Einstellungen mit Z fps schaffen würde.
Die Karte wurde (abgesehen von Cryptomining) weder hardware- noch softwaretechnisch in ihrer Leistung beschnitten. Ebenso gibt es noch immer Treiber für die Karte.
Würde Nvidia jetzt schlagartig den Treibersupport für die 3070 einstellen, würd ich dir ohne Zweifel zustimmen. Es gibt zwar mehr Argumente, allerdings ist dies (gerade in Bezug auf PC-Komponenten) extrem schwer einzuordnen. Was ist geplant obsolet und was nicht? Wo fängts and und wo endet es? Muss man mit Blick auf die Vergangenheit davon ausgehen, dass auf einmal Speicher ohne Ende benötigt wird? Das sind alles Fragen, die man eindeutig klären muss, dies wohl aber nicht wirklich können wird. Deshalb würde ich den Begriff der geplanten Obsoleszenz außen vor lassen und hierbei nicht verwenden. Dass der Speicher aktuell zu knapp bemessen ist, ist allerdings nicht von der Hand zu weisen.
 
Die "Belege" wie du sie nennst passen eben nicht zu deiner Aussage.
Dort wird überall das Ultra Preset verwendet und dass die 3070 dort bei den genannten Spielen in einen Speicherüberlauf rennt, wird überhaupt nicht bezweifelt.

Du tust hingegen so, als müsse man die Regler auf low drehen, um spielen zu können. Das ist schlicht Bullshit.

:crazy:
In Resident Evil in Dorf ist es einfach Fakt das du auf Low musst das ist kein Bullshit.

Ich werde es nochmal heraussuchen, gibt mehrere Videos dazu.

Bin zur Zeit nur mit Star Wars dran, aber auch hier könnte es solche Szenen geben.. ich melde mich nochmal dazu.
 
Ist dann natürlich ein "sehr seltenes" Usecase, denn selbst in RT ist die XTX ja overall nicht langsamer als die 4070Ti, dafür rennt diese in Raster spielen der Ti um fast 30% auf und davon.
Ist halt DCS in VR. Dazu hat RX7000 in VR noch mit Einschränkungen zu leben, bezüglich welches Headset verwendet wird und die Leistung liegt halt unter den Erwartungen.
Sehe 16GB bei der 4080 nicht als Problem an, wobei ich kein VR Spieler bin und auch keine Erfahrungen habe. Aber ich denke, dass 16GB in Verbindung mit der gezeigten Leistung ein passender Kompromiss sind.
Weiß nicht, bei DCS ist es schon so, das mache Karten einfach Speicher fressen. Daher ist die Überlegung ob ich den Kompromiss bei der Leistung mir lieber mit dem größeren Speicherpolster erkaufe, oder lieber jetzt die beste Leistung.

Da sehe ich aber auch abseits von DCS halt eine Veränderung. Bzw. mein Anspruch, wenn ich über 1000€ in eine GPU stecke möchte ich auch nächstes Jahr nicht die Texturen reduzieren. Da ich aber außerhalb von DCS nur in 1080p, oder 1440p zocke, tut der Leistungsunterschied nicht so weh, selbst wenn ich RT mit einbeziehe.
Finde sie schlichtweg immer noch zu teuer, im Vergleich zur XTX
Hm, P/L ist besser als bei der XTX und zu teuer sind die eigentlich alle. Die XT wäre mir aber in DCS VR zu weit von Nvidia entfernt... Dann lieber eine XTX.
Ohne deinen Usecase nun genau zu kennen, kann ich die Fragestellung grds. nachvollziehen. Ich stehe zwar aktuell nicht vor der Frage (meine 6900XT reicht noch eine Gen), aber ich finde die 7900XTX eigentlich die schlechtere Karte.
Da bin ich mir aktuell nicht so sicher. Klar RT ist Nvidia Revier, hier muss man einfach die Augen auf machen und sehen, das alle Spiele in denen RT massiver Einsatz findet AMD halt zurück fällt.

Auf der anderen Seite kann ich das damit kompensieren das ich im Vergleich zu anderen Nutzern in einer kleineren Auflösung am Monitor zocke.

Dazu ist die Leistung ohne RT sehr gut. Bedeutet im Notfall ohne RT und dann über die hohe Leistung freuen.

Allerdings liegen mittlerweile wieder rund 200 EUR zwischen den beiden Karten, was die Wahl aktuell sehr sehr schwer macht. Die 4080 ist halt langsamer im Raster, dafür viel effizienter, teurer dafür aber mit RT und DLSS 2.x ausgestattet, dazu Reflex als überlegene Lösung im Bereich der Latenzverbesserung.
Denke AMD wird hier tatsächlich noch über den Sommer mit FSR 3 nachziehen. Von daher für mich nicht so wichtig.
Wenn du bereit bist, 1200 EUR auszugeben, würde ich die 4080 nehmen, der Speicher (wie gesagt, keine Ahnung wie sich der Verbrauch im VR auswirkt) ist in meinen Augen groß genug und ich hätte bspw. lieber eine XTX mit 16GB Speicher für dann nur 850 EUR (was dann allerdings meine erste Wahl wäre), als eine 4080 mit 22GB Speicher (geht glaube ich gar nicht) für 1.400 EUR.

DCS ist momentan viel Bewegung drin, neue Engine, neue Schnittstelle, jede neue Karte die kommt, bekommt bessere Texturen... RTX3090 Nutzer und 4090 Nutzer können sehen wie die VRam Usage auf 20GB steigt und das aktuell schon.

Außerdem habe ich immer im Hinterkopf am ticken, das meine Frau und ich uns irgendwann mal AMD Aktien zum Spaß gekauft haben, die muss ich doch unterstützen ;)
 
Ist halt DCS in VR
Nur mal kurz im Netz nachgelesen, scheint aber auch einfach "grausam" zu sein, zwar ein gutes Spiel, aber wenn ich da so lese, dass vor wenigen Monaten ein MultiThread Support eingeführt wurde (darfst mich gerne korrigieren), dann scheint das Spiel als solches massive Probleme zu haben.

Weiß nicht, bei DCS ist es schon so, das mache Karten einfach Speicher fressen.
s.o.
So wie es aussieht, geht es ja schon in Richtung 20GB und dann wird man eben trotz der überlegenen Leistung der 4080 mitunter massive SlowDowns bekommen. Aber mal ehrlich, das Spiel scheint echte Probleme mit der Engine zu haben.

Hm, P/L ist besser als bei der XTX und zu teuer sind die eigentlich alle. Die XT wäre mir aber in DCS VR zu weit von Nvidia entfernt... Dann lieber eine XTX.
Die XT kostet derzeit 840 EUR, also 84% einer 7900XTX, bietet lt. Parcour hier 87% Leistung und 4GB weniger Speicher, die XTX ist ja eine Art "Halo" und damit obligatorisch teurer, was hier aber nicht zutrifft. Ehrlicherweise würde ich aktuell eher zur XTX greifen, denn zur XT, 150 EUR Preisunterschied sind nunmal nicht die Welt.

Da bin ich mir aktuell nicht so sicher. Klar RT ist Nvidia Revier, hier muss man einfach die Augen auf machen und sehen, das alle Spiele in denen RT massiver Einsatz findet AMD halt zurück fällt.
Kann ich nachvollziehen, aber Nvidia ist derart stark in Sachen Effizienz in dieser Gen, dass ich den Platz an der Sonne der NV Karte geben muss (natürlich ohne den Preis zu betrachten), dazu kommt eben, das stärkere Featureset, DLSS ist besser als FSR, aktuell und vermutlich noch lange (keine Sorge, DLSS 3 betrachte ich gar nicht, das ist für mich irrelevant), dazu Reflex statt AntiLag, NVENC und Cuda. Ich sehe da, abseits des Preises keine realistische Betrachtung, wann AMD das gewinnen kann.

Auf der anderen Seite kann ich das damit kompensieren das ich im Vergleich zu anderen Nutzern in einer kleineren Auflösung am Monitor zocke.
Der Cut wird aber eben schwierig, da der Unterschied im Raster so gering ist, dass eine Skalierung auf die nächst bessere (kleinere Auflösung könnte hier einige verwirren) Auflösung schon wieder unspielbar ist.

Denke AMD wird hier tatsächlich noch über den Sommer mit FSR 3 nachziehen. Von daher für mich nicht so wichtig.
Dabei betrachtest du die für mich vollkommen irrelevante Technik Frame Generation, oder wie ich es nenne, "Benchmark-Schummler-Frames". FSR 3 wird ähnliches tun, wie gut oder schlecht ist mir eigentlich egal, meine Erfahrung zeigt, dass die Artefaktbildung von ausgesuchten NV Fans akzeptiert wird, obwohl es zu einer signifikanten Verschlechterung des Bildes führt (während Lichtstrahlen gefeiert werden, sind Artefakte egal?) und die Latenzen plötzlich keine Rolle mehr spielen. Für mich ist in den allermeisten Spielen das entscheidende Kriterium die Latenz und da bringt FG (und auch FSR 3 wird keine Wunder vollbringen) rein logisch betrachtet immer einen Nachteil mit sich, daher irrelevant.

Dazu ist die Leistung ohne RT sehr gut. Bedeutet im Notfall ohne RT und dann über die hohe Leistung freuen.
Zweifelsfrei, ich mag die XTX ja sogar. Aber so wie AMD es in der Vorgeneration schaffte Nvidia zu schlagen (was ja auch kontrovers diskutiert wurde; sich aber immer deutlicher zeigt, eine 6900XT ist bis heute bedenkenlos nutzbar, nimm mal die zu Beginn gelieferte 3080 mit 10GB?), so hat Nvidia diesen Spieß in meinen Augen umdrehen können. In Sachen Raster sind sie letztlich auf Augenhöhe, in Sachen Effizienz und Featureset aber nicht zu schlagen, AMD kann derzeit nur über den Preis kommen, was der Martk ja auch gut abbildet, 20% Preisunterschied sind in etwa das was ich auch sehen würde, daher kann ich verstehen, dass die Entscheidung extrem schwer ist.

Außerdem habe ich immer im Hinterkopf am ticken, das meine Frau und ich uns irgendwann mal AMD Aktien zum Spaß gekauft haben, die muss ich doch unterstützen ;)
Kaufste halt einen 7950X3D, der ist unangefochten die beste Gaming CPU und dein Aktienportfolio gestärkt :) (meines übrigens auch, also los kaufen!)
 
Nur mal kurz im Netz nachgelesen, scheint aber auch einfach "grausam" zu sein, zwar ein gutes Spiel, aber wenn ich da so lese, dass vor wenigen Monaten ein MultiThread Support eingeführt wurde (darfst mich gerne korrigieren), dann scheint das Spiel als solches massive Probleme zu haben.
Ja, Multicore Support ist noch Beta, aber für alle nutzbar und funktioniert um Welten besser als im FS2020.
Fps Zugewinne im Bereich 40-80%, in CPU limitierten Szenen.
s.o.
So wie es aussieht, geht es ja schon in Richtung 20GB und dann wird man eben trotz der überlegenen Leistung der 4080 mitunter massive SlowDowns bekommen. Aber mal ehrlich, das Spiel scheint echte Probleme mit der Engine zu haben.
Slowdowns bisher nicht, aber ist halt vielleicht unnötig knapp.
Die XT kostet derzeit 840 EUR, also 84% einer 7900XTX, bietet lt. Parcour hier 87% Leistung und 4GB weniger Speicher, die XTX ist ja eine Art "Halo" und damit obligatorisch teurer, was hier aber nicht zutrifft. Ehrlicherweise würde ich aktuell eher zur XTX greifen, denn zur XT, 150 EUR Preisunterschied sind nunmal nicht die Welt.
JA, der Aufpreis ist nicht groß.
Kann ich nachvollziehen, aber Nvidia ist derart stark in Sachen Effizienz in dieser Gen, dass ich den Platz an der Sonne der NV Karte geben muss (natürlich ohne den Preis zu betrachten), dazu kommt eben, das stärkere Featureset, DLSS ist besser als FSR, aktuell und vermutlich noch lange (keine Sorge, DLSS 3 betrachte ich gar nicht, das ist für mich irrelevant), dazu Reflex statt AntiLag, NVENC und Cuda. Ich sehe da, abseits des Preises keine realistische Betrachtung, wann AMD das gewinnen kann.
Nvidia bietet gute Gründe für die 4080 keine Frage. Wobei ich auch mit FSR zufrieden wäre, mit dem was man bisher gesehen hat. Wenn Derartige Verfahren genutzt werden müssen, dann ist FSR für mich auch in Ordnung.

DLSS3 bzw. FSR3 habe ich nur rein gebracht, weil das für mich der einzige Unterschied zu Nvidia war.

Reflex hmmm, geht bestimmt auch ohne ;)
Der Cut wird aber eben schwierig, da der Unterschied im Raster so gering ist, dass eine Skalierung auf die nächst bessere (kleinere Auflösung könnte hier einige verwirren) Auflösung schon wieder unspielbar ist.
Mag mich täuschen aber hatte im Kopf das die 7900XTX im Mittel 5% vor der 4080 im Raster ist. Dazu testet CB gezielt neuere Titel und dort war die noch etwas weiter vor im Raster ( Nagel mich nicht drauf fest)
Dabei betrachtest du die für mich vollkommen irrelevante Technik Frame Generation, oder wie ich es nenne, "Benchmark-Schummler-Frames". FSR 3 wird ähnliches tun, wie gut oder schlecht ist mir eigentlich egal, meine Erfahrung zeigt, dass die Artefaktbildung von ausgesuchten NV Fans akzeptiert wird, obwohl es zu einer signifikanten Verschlechterung des Bildes führt (während Lichtstrahlen gefeiert werden, sind Artefakte egal?) und die Latenzen plötzlich keine Rolle mehr spielen.
Siehe oben
Und denke das Verfahren wird noch besser und so auch optisch immer weniger zu beanstanden geben. Wobei es nicht immer und überall zum Einsatz kommen kann.
Für mich ist in den allermeisten Spielen das entscheidende Kriterium die Latenz und da bringt FG (und auch FSR 3 wird keine Wunder vollbringen) rein logisch betrachtet immer einen Nachteil mit sich, daher irrelevant.
Die Spiele bei denen mir die Latenz wichtig ist, laufen auch ohne FG mit hohen Fps.
Zweifelsfrei, ich mag die XTX ja sogar. Aber so wie AMD es in der Vorgeneration schaffte Nvidia zu schlagen (was ja auch kontrovers diskutiert wurde; sich aber immer deutlicher zeigt, eine 6900XT ist bis heute bedenkenlos nutzbar, nimm mal die zu Beginn gelieferte 3080 mit 10GB?), so hat Nvidia diesen Spieß in meinen Augen umdrehen können. In Sachen Raster sind sie letztlich auf Augenhöhe, in Sachen Effizienz und Featureset aber nicht zu schlagen, AMD kann derzeit nur über den Preis kommen, was der Martk ja auch gut abbildet, 20% Preisunterschied sind in etwa das was ich auch sehen würde

Sehe ich genau so!
, daher kann ich verstehen, dass die Entscheidung extrem schwer ist.
Es ist ein hin und her, weil ich mir die Zeit noch gönne, aber so langsam wird mein Verlangen größer und soll sich wohl sehr bald Befriedigung verschaffen ;)
Kaufste halt einen 7950X3D

Sicher nicht, ist mir den Aufpreis gegenüber einem R5 7600, oder einem R7 5800X3D nicht wert. Mein privates System ist zum Zocken. Da reicht mir ein optimierter R5 7600 mit DDR5 6000 CL28 zum Beispiel alle mal... Was mir auch schon wiederstrebt, da die P/L oberhalb eines R5 5600 deutlich abfällt... Aber so 7600, oder 5800X3D sind mein Minimum.
der ist unangefochten die beste Gaming CPU und dein Aktienportfolio gestärkt :) (meines übrigens auch, also los kaufen!)
Plan ist R5 7600, B650, 32GB DDR5 6000 CL28(bis 30) und die 7900XTX. Fange in ein paar Wochen mit der GPU an...
 
Denke AMD wird hier tatsächlich noch über den Sommer mit FSR 3 nachziehen. Von daher für mich nicht so wichtig.
FSR 3 beurteilen wir bitte erst, wenn es dann draußen ist.

Ich hab das oft genug als Argument gegen DLSS3 gesehen. "FSR3 kommt ja noch und wird NV das Fürchten lehren" ist da der allgemeine Konsens bei Befürwortern des Teams Rot.

Es ist noch nicht draußen. Auch mit gleich basierten Technologien können je nach Implementation verschiedene Ergebnisse erzielt werden. Wenn das nachher genau so ne Sache wie DLSS vs. FSR wird (was halt zwar eine andere Basis hat, aber hier halt nur als Gedankenexperiment dienen soll), wird auch FSR 3 teils für Enttäuschung sorgen.

Klar ists nachher Open Source, was auch geil ist. Es muss allerdings auch ne gute Qualität bieten, da man sich das sonst auch sparen kann.

Addendum: Reflex ist schon ne geile Sache. Latenzsteigerungen von DLSS3 lassen sich damit quasi ausgleichen.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die Unboxer sehen in den nächsten 2 Jahren einen regelmäßigen Speicherbedarf um die 16GB bei Ultra-Details. Es wird auch gesagt, dass die Spielentwickler mit Ausnahme von Microsoft nicht mehr den Fokus darauf legen werden, dass Spiele-Ports auch auf 8GB Karten laufen, weil die Optimierung für schwache PCs sehr viel Aufwand bedeutet.
 
Zuletzt bearbeitet:
In Resident Evil in Dorf ist es einfach Fakt das du auf Low musst das ist kein Bullshit.
Mir ist jetzt der Aufwand zu groß das mitzuloggen, aber ich habe Resident Evil 4 bereits auf dem Notebook in 1080p gespielt und da hatte ich alle Settings auf Anschlag, auch die Texturen (8GB), nur RT off, weil das zu Smearing und nervigen Artefakten wegen zu wenigen rays geführt hat und der Speicher ging nicht aus, weil sonst das Game abgeschmiert wäre.

Mal davon abgesehen, dass die Texturen in diesem Spiel nicht besser sind als in Spielen vor 10 Jahren und eigentlich nicht mehr als 4GB brauchen sollten und das Texture Cache Setting kaputt ist. Auf Low muss man da gar nichts stellen.
 
16GB und zu welchem Preisbereich es verfügbar sein sollte, lassen wir mal außen vor, denn auf der anderen Seite sollten bei 900€ Produkten und aufwärts auch funktionierende Treiber da sein und dann frag mal die ganzen VR Nutzer, wie es bei RX7000 aussieht. Gerade im vergleich zu Nvidia. Nur ein Beispiel...

Aber!
Die Überlegung 16GB reichen, reichen nicht ist leider genau richtig und schwierig.

Ich selbst stehe aktuell vor der Wahl... Möchte mir eine neue Karte gönnen (dachte bisher an eine gebrauchte 3090) und im Grunde nur für mein Lieblingsspiel in VR. Denn genau dort ist meine Übergangs 3060ti am Ende (es geht, aber mehr wäre einfach schöner, Aufgelöst wird in ca. 4700x2500).

RX7000 funktioniert in VR nur bedingt, wobei immerhin an USB verbundenen headsets wie Pico 4 und Quest 2. Also wäre RX7000 für mich noch im rennen.

Aber eine 4070ti ist bereits 10% schneller als die 7900XTX in VR, in meinem Spiel. So richtig endgeil ist das nicht, zumal eine 7900XTX nochmal 14-18% schneller als die XT ist.

Eine 4070ti ist auch nur eine mittelprächtige Wahl mit den 12GB, denn 16GB dürften es schon für das Spiel sein. Wobei 12GB auch schon reichen könnten (also für die höchsten Texturen, zumindest auf manchen Maps).

Eine 4080 würde das Spiel in VR natürlich am besten befeuern, mal abgesehen von dem Einhorn RTX4090. Auch deutlich schneller als 4070ti und 7900XTX. Aber der Kostenpunkt ist da, der löst sich nicht in Luft auf.

Dafür hat die 4080 wieder "nur" 16GB und die werden aktuell schneller knapp als einem lieb ist ;).
Natürlich wird das noch lange reichen, aber eventuell eben mit den UE5 Titeln recht bald nicht mehr für die höchsten Texturen und RT Effekte.

Also bin ich am überlegen,

4070Ti ist eigentlich raus, weil es mir mittlerweile zu kurzsichtig ist und schon heute für mein Spiel nicht optimal. (Leistung ja, aber der Speicher).

7900XT ist mir dann schon zu lahm in meinem priorisierten Spiel, wäre aber für alle anderen Spiele meine erste Wahl.

7900XTX lebe ich mit der geringeren Leistung in meinem Lieblingsspiel und nehme die Sicherheit beim Speicher...


RTX4080 freue ich mich über die Stand heute beste Leistung für mein Lieblingsspiel und lebe mit der Unsicherheit, das ich für 1200-1300€ schon wieder überlegen muss, ob der Speicher schon bald nicht mehr optimal ist?

Die Speicherüberlegungen hängen natürlich auch am Preisbereich. Meine 3060ti war zu Kaufzeitpunkt für mich einfach die richtige Wahl. 6700XT war teurer und 3070 hätte mir keinen echten Vorteil gebracht.
Darüber hinaus wäre die 6700XT für mein Spiel in VR auch die schlechtere Wahl gewesen.

Aber wenn ich jetzt wiederwillig bis zu 1200-1300€ ausgeben muss, damit ich nicht direkt ein schlechtes Gefühl habe, dann sollte auch der Speicher über jeden Zweifel erhaben sein.

Weswegen ich echt stark zwischen 7900XTX und 4080 schwanke.

Wenn du RT einschalten willst, dann bist du mit einer 4070(ti) für 1080p bis 1440p gut dabei, mit der 4080 für 1440p bis 4k und mit der 4090 halt am besten.

Die Leistung von AMD in RT ist auf RTX4070(ti) Niveau und entsprechend kann man auswählen. Wenn man noch 1080p/1440p nutzt und RT nutzen möchte ist eine 4070(ti) meiner Meinung nach noch eine recht solide Wahl, wobei auch eine 7900XT(X) in Frage kommt.

Nicht schwarz weiß.
Jensen so: "was laberste hier endlos rum? Nimm die 4090 und du hast keine Sorgen mehr. Ende Gelände"...:P
 
Mir ist jetzt der Aufwand zu groß das mitzuloggen, aber ich habe Resident Evil 4 bereits auf dem Notebook in 1080p gespielt und da hatte ich alle Settings auf Anschlag, auch die Texturen (8GB), nur RT off, weil das zu Smearing und nervigen Artefakten wegen zu wenigen rays geführt hat und der Speicher ging nicht aus, weil sonst das Game abgeschmiert wäre.

Mal davon abgesehen, dass die Texturen in diesem Spiel nicht besser sind als in Spielen vor 10 Jahren und eigentlich nicht mehr als 4GB brauchen sollten und das Texture Cache Setting kaputt ist. Auf Low muss man da gar nichts stellen.
Gut möglich das du die Stellen gar nicht bemerkt hast.
Es sind wirklich Wandbereiche oder Holz Oberflächen die dort Matschig aussehen.

Einen Performance Impact hast du da nicht - ebenfalls kann es wenn du auf andere Sachen fokussiert bist auch gar nicht in den Blickfeld fallen.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die Unboxer sehen in den nächsten 2 Jahren einen regelmäßigen Speicherbedarf um die 16GB bei Ultra-Details. Es wird auch gesagt, dass die Spielentwickler mit Ausnahme von Microsoft nicht mehr den Fokus darauf legen werden, dass Spiele-Ports auch auf 8GB Karten laufen, weil die Optimierung für schwache PCs sehr viel Aufwand bedeutet.

Joar. Wenn wir nochmal auf einen meiner früheren Kommentare, in dem ich die Steamsurvey referenziere, zurück gehen, sehen wir alle, dass der Großteil an Spielern auf Steam wohl nicht mehr in der Lage sein wird, in 2 Jahren solche Spiele spielen zu können. Über die Hälfte der Spieler hat 8 oder 6 GB Grafikspeicher zur Verfügung, der Anteil an AMD-Karten ist verschwindend gering. Auf eine AMD-Karte kommen fast 8 Nvidia-Karten. Das nur nebenbei.
Wird also wohl darauf rauslaufen, dass sich solche Spiele dann unterirdisch schlecht verkaufen werden.

Quelle dazu: https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam
 
FSR 3 beurteilen wir bitte erst, wenn es dann draußen ist.

Hab ich nicht beurteilt, aber es wird der Konter zu DLSS 3. Das war der Sinn und für mich sowieso beides nicht relevant bei meinem Kauf.
Ich hab das oft genug als Argument gegen DLSS3 gesehen. "FSR3 kommt ja noch und wird NV das Fürchten lehren" ist da der allgemeine Konsens bei Befürwortern des Teams Rot.
Derartige Entweder, oder Aussagen sind immer Blödsinn. Das Fürchten lehren, wie denn wenn man wieder hinterher ist ;)
Es ist noch nicht draußen. Auch mit gleich basierten Technologien können je nach Implementation verschiedene Ergebnisse erzielt werden. Wenn das nachher genau so ne Sache wie DLSS vs. FSR wird (was halt zwar eine andere Basis hat, aber hier halt nur als Gedankenexperiment dienen soll), wird auch FSR 3 teils für Enttäuschung sorgen.

Klar ists nachher Open Source, was auch geil ist. Es muss allerdings auch ne gute Qualität bieten, da man sich das sonst auch sparen kann.
Also kann man sich Framegeneration aktuell noch in die Backe schmieren ;)
Addendum: Reflex ist schon ne geile Sache. Latenzsteigerungen von DLSS3 lassen sich damit quasi ausgleichen.
Jensen so: "was laberste hier endlos rum? Nimm die 4090 und du hast keine Sorgen mehr. Ende Gelände"...:P
Nur lässt mein Leben nur eine höhere Instanz zu und das ist meine Frau ;)

4090 will ich mir nicht leisten. Denke es wird die 7900XTX, da kann ich mir den Preis noch schön reden...
 
Und genau das sehe ich hier nicht, da ja offen kommuniziert wird, wie viel Speicher die Karte hat. Wie genau weiß ein Hersteller, dass man in X Jahren Y an Speicher braucht? Schau dir doch mal Pascal an. Dort hat man sich überschätzt. Turing müsste demnach ebenfalls den Begriff der geplanten Obsoleszenz bekommen, da es dort ja nicht wirklich mehr Speicher gab.

Geplante Obsoleszenz kann man in meinen Augen nicht durch "zu gering" bemessene Leistungsdaten wiederspiegeln. Die Karte funktioniert problemfrei. Es wurde schließlich auch nie behauptet, dass sie X Spiele in Y Jahren auf höchsten Einstellungen mit Z fps schaffen würde.
Die Karte wurde (abgesehen von Cryptomining) weder hardware- noch softwaretechnisch in ihrer Leistung beschnitten. Ebenso gibt es noch immer Treiber für die Karte.
Würde Nvidia jetzt schlagartig den Treibersupport für die 3070 einstellen, würd ich dir ohne Zweifel zustimmen. Es gibt zwar mehr Argumente, allerdings ist dies (gerade in Bezug auf PC-Komponenten) extrem schwer einzuordnen. Was ist geplant obsolet und was nicht? Wo fängts and und wo endet es? Muss man mit Blick auf die Vergangenheit davon ausgehen, dass auf einmal Speicher ohne Ende benötigt wird? Das sind alles Fragen, die man eindeutig klären muss, dies wohl aber nicht wirklich können wird. Deshalb würde ich den Begriff der geplanten Obsoleszenz außen vor lassen und hierbei nicht verwenden. Dass der Speicher aktuell zu knapp bemessen ist, ist allerdings nicht von der Hand zu weisen.
Ich stimme dir 100% zu, dass es nicht der einfachste Fall von geplanter Obsoleszenz bzw. man da durchaus dagegen argumentieren kann.

Letztendlich spielen hier auch die Rahmenbedingungen rein: Wir reden von jemanden der im Fall der 3070 in aller Regel Beträge jenseits der 500€ ausgegeben hat. Bei dieser Person, die soviel Geld in die Hand für eine Komponente nimmt, kann man wohl davon ausgehen, dass sie eher auf mindestens WQHD und nicht FHD unterwegs ist. Auf FHD kann man (mit Ausnahmen) mit der Karte vermutlich noch eine ganze Weile Spaß haben.

Hierfür(WQHD) ist der Speicher der 3070 offensichtlich zu knapp bemessen worden mit der Intention den Kunden zu einem schnellen Neukauf zu nötigen. Ob dieser Fakt dann offen kommuniziert wird oder nicht spielt für mich keine Rolle, da wir gerade im GPU-Bereich weitab von einem perfekten Markt sind, wo sich der geneigte Käufer dann einfach ein Konkurrenzprodukt kaufen kann. Insbesondere im Releasezeitraum war es teilweise auch schlicht nicht möglich eine GPU zu kaufen (außer zu Scalperpreisen natürlich).

Natürlich ist es letztendlich nicht möglich eine perfekte Balance zwischen VRam und Leistung des Chips zu finden, sodass beide in etwa gleichlang machen, bevor ihnen die Puste ausgeht, aber davon redet niemand und das verlangt auch keiner. Hier geht es um eine offensichtliche Sollbruchstelle die den Nutzer sukzessive dazu bringen soll, sich ein neues Gerät zu kaufen, sei es wegen zunehmender Nachladeruckler oder Matschtexturen und schlechter Bildqualität, obwohl der Chip sicher noch Puste hätte auf WQHD Titel mit ordentlichen Bildraten darzustellen.

Die Absicht dahinter wird niemand Nvidia nachweisen können, außer es kommt zu einem Leak ihrer internen Papiere, aber entweder sprechen die Fakten für sich oder Nvidia ist grob inkompetent beim Design der Karten und die 8Gb waren ein Versehen. Das wiederum würde ich dieser Firma allerdings nicht vorwerfen wollen.
 
Plan ist R5 7600, B650, 32GB DDR5 6000 CL28(bis 30) und die 7900XTX. Fange in ein paar Wochen mit der GPU an...
Mhhh, ganz ehrliche Meinung. Würde glaube ich eher in Richtung 5800X3D tendieren, das System wird gar billiger und ist vermutlich schneller. Der RAM spielt bei dem Cache kaum noch eine Rolle. Der 7800X3D wäre vermutlich die "Königslösung" für deinen Useset, aber der Aufpreis ist wirklich heftig und kaum mit der Leistung zu erklären.
FSR 3 beurteilen wir bitte erst, wenn es dann draußen ist.
Muss man wirklich warten?

FSR3 wird exakt wie DLSS 3 auf eine Art FrameGeneration setzen, also "erdachte" Bilder einfügen. Dies wird die Latenz immer negativ beeinflussen, geht gar nicht anders. Anders als NV hat AMD aber bisher keinen geeigneten Ansatz um Reflex zu kontern, AntiLag ist treiberbasiert und hat bei Weitem nicht den Erfolg. Daher wird FSR 3 zu 99,9% schlechter und noch unbrauchbarer sein als es DLSS3 schon ist.
Addendum: Reflex ist schon ne geile Sache. Latenzsteigerungen von DLSS3 lassen sich damit quasi ausgleichen.
Den Satz lese ich hier immer wieder, er ist aber doch faktisch falsch! Reflex verbessert die Latenz teils erheblich, allerdings kommt FrameGeneration mit Reflex nicht an "normal" heran, geschweige denn an FrameGeneration off mit Reflex On (was ja eine Option ist). Daher sehe ich dies nachwievor komplett anders; Reflex kann die Latenz von FrameGeneration nicht auf das Niveau heben wie ohne FG, sondern den nachteiligen Effekt nur abmildern, gleichzeitig aber eben nicht die eigene Leistung ohne FG auch nur im Ansatz erreichen. Reflex ist und bleibt für mich das Featuere was viel zu wenig Aufmerksamkeit bekommt, dabei ist dies in meinen Augen aktuell der wichtigste Baustein!!!
Wird also wohl darauf rauslaufen, dass sich solche Spiele dann unterirdisch schlecht verkaufen werden.
Die meisten Leute auf Steam stellen vermutlich in den Grafiksettings nicht um, das Spiel entscheidet dann und wird eben nicht die maximale Bildqualität, die für uns Hardcore Enthusiasten notwendig sind sehen. Dazu kommen diverse Schutzmechanismen im Spiel, die bspw. beim überlaufen automatisch die Texturen heruntersetzen. Es werden also faktisch nur die Nerds merken.

Man tut aber immer so, dass man keine echten Nachteile durch zu wenig VRAM hat, aber gerade NVs Karten sind in der letzten Gen (Ausnahme 3090Ti) altern bereits jetzt sehr schlecht, eine 3080 mit 10GB (759 EUR UVP) verliert bereits deutlich an Boden gegen eine 6800XT für 659 EUR.
 
Zuletzt bearbeitet:
1.Letztendlich spielen hier auch die Rahmenbedingungen rein: Wir reden von jemanden der im Fall der 3070 in aller Regel Beträge jenseits der 500€ ausgegeben hat. Bei dieser Person, die soviel Geld in die Hand für eine Komponente nimmt, kann man wohl davon ausgehen, dass sie eher auf mindestens WQHD und nicht FHD unterwegs ist. Auf FHD kann man (mit Ausnahmen) mit der Karte vermutlich noch eine ganze Weile Spaß haben.

2. Hierfür(WQHD) ist der Speicher der 3070 offensichtlich zu knapp bemessen worden mit der Intention den Kunden zu einem schnellen Neukauf zu nötigen. Ob dieser Fakt dann offen kommuniziert wird oder nicht spielt für mich keine Rolle, da wir gerade im GPU-Bereich weitab von einem perfekten Markt sind, wo sich der geneigte Käufer dann einfach ein Konkurrenzprodukt kaufen kann. Insbesondere im Releasezeitraum war es teilweise auch schlicht nicht möglich eine GPU zu kaufen (außer zu Scalperpreisen natürlich).

3.Natürlich ist es letztendlich nicht möglich eine perfekte Balance zwischen VRam und Leistung des Chips zu finden, sodass beide in etwa gleichlang machen, bevor ihnen die Puste ausgeht, aber davon redet niemand und das verlangt auch keiner. Hier geht es um eine offensichtliche Sollbruchstelle die den Nutzer sukzessive dazu bringen soll, sich ein neues Gerät zu kaufen, sei es wegen zunehmender Nachladeruckler oder Matschtexturen und schlechter Bildqualität, obwohl der Chip sicher noch Puste hätte auf WQHD Titel mit ordentlichen Bildraten darzustellen.
Hab mir mal erlaubt, zu nummerieren. Bin hier nicht so fit, was das Zitieren am Handy angeht. Hoffe, das ist okay :)

1. Ich denke mir dabei nur eines: Wer sich etwas kauft, muss sich auch darüber informieren. Ich persönlich habe die Karte nie als WQHD-Karte wahrgenommen, obwohl sie es gut konnte. Erste Anzeichen konnte man allerdings bereits erkennen: Schau dir mal die Frametimes von Ghost Recon Wildlands an. Die 2080Ti liegt deutlich vor der 3070. Erste Anzeichen? Okay. Kann man so deuten. Kann man aber auch missverstehen. Es ist auch nicht mal eben so zu sehen. Alles unter 144 FPS in den meisten Spielen, die ich spiele, ist für mich aber auch unbefriedigend.
Quelle zu den Frametimes: https://www.igorslab.de/nvidia-gefo...ampere-kann-auch-sparsam-und-knuffig-klein/6/

2. Man erinnere sich an die 970. Da wars wirklich nicht kommuniziert, aus welchen Gründen auch immer. Wäre der Speicher allerdings offensichtlich zu knapp bemessen gewesen, hätte es bereits zu Release so einige Aufschreie gegeben. Wie ich bereits sagte: Die Auslastung war, im Gegensatz zur Allocation, wirklich nicht so hoch. COD MW 2019 hat bei meiner 3080 schon FPS a, da wurden laut ingame-Anzeige vielleicht 4,4 GB Speicher genutzt. So ne Explosion konnte man meines Erachtens nach nicht vorhersehen. Übrigens sehe ich kein Problem darin, dass man in Spielen, die in der Folgegeneration herauskommen, Karten der aktuellen Generation nicht mehr voll aufdrehen kann. Das ging schon damals mit der 970 zu Release bei keinem aktuellen Spiel.
 
2. Man erinnere sich an die 970. Da wars wirklich nicht kommuniziert, aus welchen Gründen auch immer. Wäre der Speicher allerdings offensichtlich zu knapp bemessen gewesen, hätte es bereits zu Release so einige Aufschreie gegeben. Wie ich bereits sagte: Die Auslastung war, im Gegensatz zur Allocation, wirklich nicht so hoch. COD MW 2019 hat bei meiner 3080 schon FPS a, da wurden laut ingame-Anzeige vielleicht 4,4 GB Speicher genutzt. So ne Explosion konnte man meines Erachtens nach nicht vorhersehen. Übrigens sehe ich kein Problem darin, dass man in Spielen, die in der Folgegeneration herauskommen, Karten der aktuellen Generation nicht mehr voll aufdrehen kann. Das ging schon damals mit der 970 zu Release bei keinem aktuellen Spiel.
Die 970 war so mehr oder weniger die Karte die mir in diese Richtung erstmal die Augen geöffnet hat als SLI Nutzer von 2x 3,5GB :ugly:

Und ja es ist etwas anderes wenn 400MB überlaufen oder 2 bzw fast 4GB.
Ich würde jetzt behaupten das der normale Systemspeicher diese 400MB wesentlich besser und effizienter überbrücken kann als bei größeren Mengen.
Die Mikroruckler die hierdurch aufgekommen sind, sind ja auch deutlicher in den Medienfokus gekommen.

Meiner Meinung nach war Maxwell aber schon mit zu wenig Speicher bestückt. 6GB hätten sie haben müssen.
Pascal hatte ein optimal balanciertes VRAM Management.

Bei Turin hätte man sich an 12GB orientieren sollen.
Bei Ampere 12-16GB
Spätestens jetzt bei Lovelance müssten es eigentlich 16GB sein.

Alles natürlich auf XX70 / XX80 bezogen mit Karten darüber und Karten darunter.
 
Zurück