• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia teasert Geforce RTX 3080 Ti and RTX 3070 Ti

4thVariety

Software-Overclocker(in)
Wie zukunftssicher eine Karte ist, muss man immer von dem Tag ab berechnen, an dem man die Karte wirklich kaufen kann. Kein "ich hatte Glück an dem Tag", oder "ich hab doppelten Preis gezahlt", sondern ein normaler Kauf in der Konsumgesellschaft mit vollen Regalen. Weil nur dann ist die Übertragbarkeit der Entscheidung von einer zur anderen Person unter dem Aspekt der Zukunft gegeben.

Wenn wir ehrlich sind wird das Rennen nicht die zukunftssichere Karte von Nvidia/AMD/Intel machen dieses Jahr, sondern schlicht die Karte die man wirklich kaufen kann.
 

Richu006

Software-Overclocker(in)
Das ganze ist eine langfriste Frage. In 4 Jahren sieht die Sache wieder anders aus. Wobei diese Generation die Frage ist, was problematischer sein wird: der geringe VRAM oder das fehlende DLSS und die geringere Raytracingleistung. Die Zukunft wird es zeigen.

Sicher ist man nur mit der RTX 3090.

Wie in 4 Jahren sind die 16GB der AMD Karten plötzlich schneller angebunden?

Abgesehen davon macht es einfach 0 Sinn auf 4 Jahre zu planen. In 4 Jahren hast sind 16gb vielleich genügend VRAM aber die GPU und oder die Anbindung zu lahm.
Dann musst du so oder so neu kaufen.

Evtl. Genügen in 4 Jahren aber auch 10GB VRAM noch. Das weis niemand.

Ich würde jedenfalls nicht heute die "schlechtere" Karte kaufen, in der Absicht das diese u. U Dann vielleicht einmal die bessere Karte werden wird, wenn vielleicht mal in einem Ausnahmeszenario die 10/12GB der "besseren" Karte nicht mehr ausreichen.

Ich kaufe eine GPU für heute und vielleicht die nächsten 1-2 Jahre.
Weiter plane ich nicht. Denn niemand weis was die zukunft bringt.
 

beastyboy79

Software-Overclocker(in)
Wie in 4 Jahren sind die 16GB der AMD Karten plötzlich schneller angebunden?

Nee, das meint er nicht. Aber in 4 Jahren sind die Optimierungen für die AMD-Karten vielleicht auch in den Games angekommen. Dann machen 16GB eventuell schon den Unterschied.

Abgesehen davon macht es einfach 0 Sinn auf 4 Jahre zu planen. In 4 Jahren hast sind 16gb vielleich genügend VRAM aber die GPU und oder die Anbindung zu lahm.
Dann musst du so oder so neu kaufen.

Glaub ich nicht. Rein theorethisch würde PCI-E 3.0 für die Anbindung bei Grafikkarten noch vollends ausreichen. Wer sagt, das nach optimieren der Software auf den Infinity-Cache die 6000er Karten nochmal ne Schippe drauf legen können auf die jetzige Leistung. Ist auch nur gemutmaßt.

Wie schon mal hier geschrieben: Besser geht mir die GPU-Leistung aus, als das die VRAM-Menge limitiert. Ich sag nur noch als Anmerkung GTX 970. Die Karte wäre noch nachhaltiger mit mehr, bzw. voll angebundenem VRAM gewesen. Das sieht man an der GTX 980ti.
Evtl. Genügen in 4 Jahren aber auch 10GB VRAM noch. Das weis niemand.

Natürlich weiß das niemand. Also lieber mehr VRAM haben und nicht brauchen, als brauchen und nicht haben.

Ich kaufe eine GPU für heute und vielleicht die nächsten 1-2 Jahre.
Weiter plane ich nicht. Denn niemand weis was die zukunft bringt.
Danke für die Ressourcenverschwendung treues Konsumschaf!
 

raPid-81

Freizeitschrauber(in)
Nee, das meint er nicht. Aber in 4 Jahren sind die Optimierungen für die AMD-Karten vielleicht auch in den Games angekommen. Dann machen 16GB eventuell schon den Unterschied.
Ahja, und die DS + SFS Optimierungen nicht, klar. :daumen:

Glaub ich nicht. Rein theorethisch würde PCI-E 3.0 für die Anbindung bei Grafikkarten noch vollends ausreichen. Wer sagt, das nach optimieren der Software auf den Infinity-Cache die 6000er Karten nochmal ne Schippe drauf legen können auf die jetzige Leistung. Ist auch nur gemutmaßt.

Wie schon mal hier geschrieben: Besser geht mir die GPU-Leistung aus, als das die VRAM-Menge limitiert. Ich sag nur noch als Anmerkung GTX 970. Die Karte wäre noch nachhaltiger mit mehr, bzw. voll angebundenem VRAM gewesen. Das sieht man an der GTX 980ti.
Es geht nicht um die PCIe Anbindung, sondern die Speicheranbindung auf den Karten. Also GPU - VRAM. Da liegen die RTX 3080 und 3090 Karten deutlich vor den RX6000er Karten. Dazu auch noch schnellerer VRAM.

Edit: Und in 4K, wo man den größeren VRAM irgendwann gebrauchen könnte, bremst der Infinity Cache bereits heute die AMD Karten aus weil er einfach zu klein ist. Die 3000er liegen in 4K alle vor den AMD Pendants: https://www.computerbase.de/thema/g...#diagramm-performancerating-avg-fps-3840-2160

Natürlich weiß das niemand. Also lieber mehr VRAM haben und nicht brauchen, als brauchen und nicht haben.
Ich hab lieber mehr GPU Power für alle Regler nach rechts (inklusive RT). Die kann ich nämlich heute ausnutzen, und nicht vielleicht in 4 Jahren benötigen. ;)
 

derneuemann

BIOS-Overclocker(in)
Ach ja, ich bin ein Nvidiahater und weil ich so ein Hater bin, habe ich mir nach meine Voodoo3 3000 auch nur Nvidia GPUs gekauft (GeForce 4 Ti 4200, 8400M G, GTX 260, GTX 670 und GTX 980Ti), das machen ja alle Hater.

Außerdem halte ich die RTX 3090 für die beste Karte und die RTX 3060 für die ausgewogenste Mittelklassekarte, eben typisch Hater.
Man sagt doch, kenne deinen Feind besser, als deinen Freund ;) (NICHT ernst gemeint)
 

Richu006

Software-Overclocker(in)
Danke für die Ressourcenverschwendung treues Konsumschaf!
Wieso ressourcenverschwendung? Die Karte wird danach verkauft, meist kann man GPU's nach 1-2 Jahren noch super verkaufen.

Und falls nicht baue ich die gpu in ein Office Rechner in meinem Betrieb (da genügt die Leistung dann noch 10 Jahre locker... für office Anwendungen)

Verschwendet wird da gar nix.

Aber ich spiele halt gerne in höchster Auflösung und maximalen Details.

Käme heute ne 4090 raus würde ich die ohne mit der wimper zu zucken bestellen und meine 3090 weiter geben!

So bezahle ich meist nichtmal viel drauf. Meine 3090 habe ich für 1600 Euro gekauft und meine 1.5 Jährige 2080ti hab ich fpr 1100 Euro verkauft. Unterm strich bezahlte ich noch 500 Euro drauf. Was ich nach 1.5 Jahren für ein Upgrade nicht übermässig teuer finde.
 

gerX7a

Software-Overclocker(in)
[...]
>> Evtl. Genügen in 4 Jahren aber auch 10GB VRAM noch. Das weis niemand.
Natürlich weiß das niemand. Also lieber mehr VRAM haben und nicht brauchen, als brauchen und nicht haben.
[...]
Bei einer derart unspezifischen Verwendung des Verbs "genügen", lässt sich die Frage relativ leicht, zuverlässig und gar ohne Glaskugel beantworten: Die Konsolen können nur mit maximal um die 10 GiB hantieren und deren Lebensdauer ist erneut bei irgendwo im Bereich von 6 - 8 Jahren angesetzt, d. h. deren Limits werden auch in x Jahren noch für stunning Konsolen-Grafik ausreichend sein (die deutlich durchsatzstärkere Streaming-Funktionalität wurde ja nicht zum Spaß implementiert und soll hier für eine gewisse Langlebig- und Konkurrenzfähigkeit sorgen ;-)).

Darüber hinaus ... mehr zu haben (egal wovon) ist zumeist immer wünschenswert, nur lässt dieses allgemeine Bedürfnis zumeist außer Acht, dass das "Mehr" auch bezahlt werden will, denn "Mehr" kostet, schlussendlich auch in der Fertigung und bspw. AMD ist hier diesbezügfflich nicht der Heiland, weil sie "Mehr" bieten, sondern bei denen ist das schlicht ein notwendiges Vermarktungsinstrument (wie auch in den vergangenen Jahren). AMD kostet das genau so viel wie nVidia, der Unterschied ist nur, dass AMD es sich weniger leisten kann, nicht in diesen saueren Apfel zu beißen und stattdessen eine höhere Marge zu generieren, denn darunter würden dann ihre Absatzzahlen leiden.
Wenn man unbedingt viel mehr haben will, kann man als Konsument von der aktuellen Marktsituation profitieren, allerdings ist das letztendlich schlicht ein simples Resultat der aktuellen Marktkonstellation, nicht mehr und nicht weniger.
Wenn man auf dem PC im absoluten High End spielt, wird man mit der Zeit sicherlich den VRAM irgendwie voll bekommen, ob das jedoch einen noch derart "gewaltigen" Unterschied ausmachen wird, ist eher eine andere Frage. Darüber hinaus werden sich Entwickler aber am PC-Mainstream und an den Konsolen orientieren, d. h. "genügend" grafische Opulenz wird man auch mit den "speicherkastrierten" nVidia-Karten haben.

Ergänzung: Intel bläst zwangsweise ins gleiche Horn wie AMD und bringt seine größeren GPUs mit 16 GiB GDDR6 heraus und deren Ausbaustufe scheint eher noch etwas weiter von den aktuellen High End-Modellen weg zu sein, aber offensichtlich sieht man auch hier die Notwendigkeit kompensierend zumindest einen großen VRAM anzubieten.
 
Zuletzt bearbeitet:

derneuemann

BIOS-Overclocker(in)
Nee, das meint er nicht. Aber in 4 Jahren sind die Optimierungen für die AMD-Karten vielleicht auch in den Games angekommen. Dann machen 16GB eventuell schon den Unterschied.



Glaub ich nicht. Rein theorethisch würde PCI-E 3.0 für die Anbindung bei Grafikkarten noch vollends ausreichen. Wer sagt, das nach optimieren der Software auf den Infinity-Cache die 6000er Karten nochmal ne Schippe drauf legen können auf die jetzige Leistung. Ist auch nur gemutmaßt.

Wie schon mal hier geschrieben: Besser geht mir die GPU-Leistung aus, als das die VRAM-Menge limitiert. Ich sag nur noch als Anmerkung GTX 970. Die Karte wäre noch nachhaltiger mit mehr, bzw. voll angebundenem VRAM gewesen. Das sieht man an der GTX 980ti.


Natürlich weiß das niemand. Also lieber mehr VRAM haben und nicht brauchen, als brauchen und nicht haben.


Danke für die Ressourcenverschwendung treues Konsumschaf!

Ob man jetzt wirklich auf 4 Jahre spekulieren sollte, ist so eine Sache. Lieber jetzt die meiste Leistung für dein Geld und dann nach besten Möglichkeiten, das wählen was nicht zu offensichtlich begrenzt.

Aktuell ist es halt, entweder ich will für das MORGEN mehr RT Leistung, oder eben mehr Speicher.
DLSS darf man auch nicht zu hoch einschätzen, da AMD jetzt endlich mit dem eigenen Gegenstück, aus dem Knick kommen möchte.

Für die direkte Lebenszeit(ich meine nur die Zeit, die diese Gen aktuell ist, sprich noch keine neue kommt) sehe ich also eher um zwei Jahre. Und für diese zwei Jahre sehe ich eher eine höhere RT Leistung als Vorteil, als noch mehr VRam.

Klar kann ich hier daneben liegen. Aber ich meine, selbst wenn die max Texturen nicht mehr gehen. Dann stellt man den Textureregler so ein, das man mit den 10GB der 3080 zum Beispiel gerade noch hin kommt.

Wenn 10GB aber gerade so reichen, sind die Texturen aber aus heutiger Sicht schon extrem hübsch, im Normalfall. Ich behaupte mal, das der Unterschied in einem Beispiel Spiel, von Settings das 16GB voll macht, im Vergleich zu Settings, die 10GB voll machen, echt nicht so gravierend ist, wie hier gerade angenommen wird. Ich glaube eher, das einem das fehlende RT demnächst mehr auffallen kann.
 

derneuemann

BIOS-Overclocker(in)
Ob die 10GB ausreichen in der Zukunft, wird die Zeit zeigen. Ich persönlich hab immer gerne etwas Leistung auf Vorrat. Sowohl bei Spielkonsolen als auch bei CPU und GPUs. Ich sprech jetzt nicht von einem 100% größeren Puffer, aber 50-60% darf er beim VRAM schon gerne sein. 16GB reiner VRAM wären für die aktuellen Konsolen schon klasse gewesen. :)


Es gibt nun einfach mal Spiele bzw. Anwenderszenarien wo ordentlich VRAM benötigt wird. @HisN hat hierzu einen interessanten Thread in CB. *Klick*

16GB wären halt ein netter Sweetspot gewesen. Zum Launch der RTX3000er hattest du damals die Wahl zwischen Pest (RTX3090 @ 24GB), Cholera (RTX3080 @ 10GB) und WTF (RTX3070 @ 8GB). Erstere bot massiv VRAM für viel Geld und letztere zu wenig VRAM für´s Geld. Komplett war das Chaos dann mit dem erscheinen der RTX3060 die zumindest mit 12GB VRAM um´s Eck kam. Sowas muss man dann als Käufer der RTX3070 oder 3080 erstmal verdauen... ;)

DLSS und Raytracing mal außen vor gelassen, das sind beides wirklich Top Features, aber der Punkt bei der VRAM-Bestückung ging klar an AMD. Die haben bei der RX6000er Serie keine halben Sachen gemacht. Und genau DAS wünsche ich mir von Nvidia für die Zukunft eben auch.
Ich wünsche mir ein starkes Gesamtpaket und da hat AMD den Speichervorteil, bei mir durch die schwächere RT Leistung verspielt.

Das meine ich mit Pest gegen Cholera... Sprich Pest RTX3080 und Cholera RX6800XT
 

raPid-81

Freizeitschrauber(in)
Wenn 10GB aber gerade so reichen, sind die Texturen aber aus heutiger Sicht schon extrem hübsch, im Normalfall. Ich behaupte mal, das der Unterschied in einem Beispiel Spiel, von Settings das 16GB voll macht, im Vergleich zu Settings, die 10GB voll machen, echt nicht so gravierend ist, wie hier gerade angenommen wird. Ich glaube eher, das einem das fehlende RT demnächst mehr auffallen kann.
CP2077, 4K, max Details, max RT ohne DLSS -> ~ 10 GB
DLSS Quality würde da ~ 1 GB einsparen, Balanced / Performance entsprechend mehr.

Und in dem Spiel sieht man schon heute den Unterschied.

Schade, da ist sich wohl jemand doch nicht so sicher 😜
Was Verfügbarkeit angeht definitiv nicht, wie auch? Was DS+SFS angeht, ziemlich sicher.

Man sollte solche extremen Begrifflichkeiten nicht leichtfertig gebrauchen, sondern wirklich nur da anbringen wo diese auch angebracht sind. Das vergiftet sonst die ganze Diskussionskultur im Forum.
Joah, "Schmierlappen" im ersten Post war jetzt auch nicht gerade die beste Art eine Diskussionskultur zu pflegen...
 

derneuemann

BIOS-Overclocker(in)
CP2077, 4K, max Details, max RT ohne DLSS -> ~ 10 GB
DLSS Quality würde da ~ 1 GB einsparen, Balanced / Performance entsprechend mehr.

Und in dem Spiel sieht man schon heute den Unterschied.


Was Verfügbarkeit angeht definitiv nicht, wie auch? Was DS+SFS angeht, ziemlich sicher.


Joah, "Schmierlappen" im ersten Post war jetzt auch nicht gerade die beste Art eine Diskussionskultur zu pflegen...
Du meinst der Unterschied in der Texturqualität zwischen den 10Gb und 8GB ist so gravierend heute? Darum drehte sich meine Aussage.

Kann dazu einer Vergleichsbilder zeigen?
 

pietcux

Software-Overclocker(in)
@DARPA Ja, dann hätte ich höchstens eine GTX 1660. Hab so nen Kumpel, der spielt mit der Karte Wildlands Ghost wars in WQHD mit runter geregelten Settings. Ist nun mal nichts für mich. Der weiß noch gar nicht, dass ich eine RTX3080 habe. Erspart mir ne Menge Debatten.
 

onkel-foehn

Software-Overclocker(in)
Ich würde jedenfalls nicht heute die "schlechtere" Karte kaufen, in der Absicht das diese u. U Dann vielleicht einmal die bessere Karte werden wird, wenn vielleicht mal in einem Ausnahmeszenario die 10/12GB der "besseren" Karte nicht mehr ausreichen.
Soll heißen, Du hast Dir eine günstigere, mit weniger Stromverbrauch und auch schnellere (in Games OHNE RT/DLSS) 6900XT gegönnt ?!?
Respekt und glückwünsch zu dieser weisen Entscheidung ! :love:

(ACHTUNG : es gibt mal wieder Cherry :devil:)

MfG Föhn.
 

Anhänge

  • Bench GPU.jpg
    Bench GPU.jpg
    352,9 KB · Aufrufe: 46
  • Cherry 2.0.jpg
    Cherry 2.0.jpg
    453,6 KB · Aufrufe: 36

raPid-81

Freizeitschrauber(in)
Du meinst der Unterschied in der Texturqualität zwischen den 10Gb und 8GB ist so gravierend heute? Darum drehte sich meine Aussage.

Kann dazu einer Vergleichsbilder zeigen?
Ne, sorry, ich meinte den Qualitätsunterschied mit / ohne RT.
Soll heißen, Du hast Dir eine günstigere, mit weniger Stromverbrauch und auch schnellere (in Games OHNE RT/DLSS) 6900XT gegönnt ?!?
Respekt und glückwünsch zu dieser weisen Entscheidung ! :love:

(ACHTUNG : es gibt mal wieder Cherry :devil:)

MfG Föhn.

Dann hier mal das 4K Rating dagegen, wo die 16 GB VRAM so richtig reinhauen... :lol:

1622123607858.png
 

Richu006

Software-Overclocker(in)
Soll heißen, Du hast Dir eine günstigere, mit weniger Stromverbrauch und auch schnellere (in Games OHNE RT/DLSS) 6900XT gegönnt ?!?
Respekt und glückwünsch zu dieser weisen Entscheidung ! :love:

(ACHTUNG : es gibt mal wieder Cherry :devil:)

MfG Föhn.

Nein, weil ich spiele wie erwähnt gerne mit max Details... und da gehört für mich Raytracing heute mit dazu xD.

Aber ja eine 6900XT habe ich tatsächlich auch eine hier. Weil ich mir gerne selbst ein Bild der Leistung mache.

Aber meine 3090 performt in meinen Szenarien 4K alles Ultra inkl Raytracing (wenn vorhanden) overall besser als die 6900xt. Deshalb flog die wieder raus.

Die 6900 ist nun bei meinem Bruder der spielt nur Fifa in Full HD... da genügt die 6900xt noch gerade so :)
 

onkel-foehn

Software-Overclocker(in)
Ne, sorry, ich meinte den Qualitätsunterschied mit / ohne RT.


Dann hier mal das 4K Rating dagegen, wo die 16 GB VRAM so richtig reinhauen... :lol:

Anhang anzeigen 1365187
WOW ! Ganze 4,4 % vorne (auf DEINEM Cherry), bei ca. 100 % MEHR €uronen.
Chapeau, was soll meiner einer da dagegen noch argumentieren ?

MfG Föhn.
 

Anhänge

  • Preis 3090 lagernd.jpg
    Preis 3090 lagernd.jpg
    564,4 KB · Aufrufe: 24
  • Preis 6900XT lagernd.jpg
    Preis 6900XT lagernd.jpg
    551,6 KB · Aufrufe: 39
Zuletzt bearbeitet:

Khabarak

BIOS-Overclocker(in)
Sogar meine RTX2060S hat in WQHD immer noch keine VRAM Probleme ich seh auch nicht warum sich das so schnell ändern sollte. Da wird die 3070ti sicher auch noch jahrelang mit zurechtkommen.
Bei einigen Spielen wirst du es schlicht nicht merken, weil sie beim Streamen einfach die Details der texturen runterschrauben, anstelle Performance zu opfern.
Dafür gibt es inzwischen ja genug Beispiele.
 

Acgira

Software-Overclocker(in)
Sobald die ersten richtigen Next Gen Titel kommen, wird die Karte sowieso absaufen.
Mit denn richtigen Next Gen Spielen rechne ich eigentlich erst, wenn die RTX 5090 geteasert wird... Durchschnittsspielern mit einen Hang zur Effizienz würde ich also nicht raten, sich zu diesen Zeitpunkt eine Grafikkarte für Spiele zukaufen die in größerer Zahl erst veröffentlicht werden, wenn es schon die nächste oder übernächste Generation von Garfikkarten gibt.

Zukunftstauglich sieht anders aus.
Mit der Eigenschaft: "Zukunftstauglich" wirbt Nvidia eigentlich nie. Ich sehe auch eine 3090 nicht als zukunftstauglich an, sondern unter gewissen Voraussetzungen ist eine 3090 das was man heute braucht.
Was da fährt ist ja auch nicht der Hatetrain,... Ich denke wenn jemand nicht die Grafikkarte kaufen kann, die man gerne möchte und nicht zu dem Preis, den sie eigentlich haben sollte, dann ist das nicht einmal unbedingt Neid sondern eher Frust. Also es fährt größtenteils der Frusttrain.

Ich wär heute auch total frustiert, wenn ich nicht die Grafikkarte gekauft hätte, als sie noch zu einen erträglichen Preis kaufbar war.

8K Gaming ist noch weit entfernt
8k mit maximalen Details und mindestens 144fps; unwahrscheinlich dass das überhupt jemals kommt.

Zumindest nicht wenn man immer vom Spiel mit der aktuell rechenintensivsten Grafik ausgeht. Aber der Stromverbrauch des Systems, was dazu in der Lage wäre, wäre definitiv interessant...

Dann nenn mir mal eine HW die Zukunftssicher oder tauglich ist.
Nur unter Einbeziehung einer persönlich definierten Kompromissbereitschaft lässt sich die Eigenschaft Zukunftstauglichkeit auf Hardware anwenden;

Wenn ich mich entscheide mit meiner Grafikkarte 5Jahre lang das Auskommen zu haben, könnte man meinen, dann sei sie für mich auf 5 JAhre zukunftssicher; Eine zukunftstaugichkeit zu sehen, ist also nur eine persönliche Entscheidung; gleichzeitig kann es eine tatsächliche Zukunftstauglichkeit für Hardware nicht geben.
auch dort kritisiere ich die 10GB VRAM. In meinen Augen ist das einer der fatalsten Fehler den die PS5 und Xbox Series X Stand heute besitzen.
Die Herstellung einer PS5 kostet Sony vermutlich um die 700€, (Wegen des Coronaeinflusses aber derzeit vielleicht auch etwas mehr) mit der Tendenz, dass die Herstellungskosten auf lange Sicht fallen. Ich kann mir Vorstellen sowohl MS als auch Sony hätten gerne die Next Gen's noch etwas besser gebaut. Aber nachdem sie das durchkalkuliert und hochgerechnet haben, mussten sie dort den Schlussstrich ziehen, wo das ganze noch wirtschaftlich umsetzbar war.
Wenn die Kryptokurse nicht in den nächsten 2 Wochen völlig abschmieren
höchst unwahrscheinlich...
Also lieber mehr VRAM haben und nicht brauchen, als brauchen und nicht haben.
ich würd nie wegen übertrieben viel VRAM zum teuersten Modell greifen... auch wenn es gerade als 3090Besitzer genau diesen Anschein haben könnte. - Ich wollte nur die Karte mit der akutell besten Raytracing-Performance, das diese Karte unter umständen mehr VRAM hat, als für meinen Gebracuh notwendig ist, ist aus meiner Sicht eine Begleiterscheinung.

Ich geb aber zu, ich hab erstmals als Gamer nicht das Gefühl in der VRAM-Frage meine Kompromissbereitschaft strapaziert zu haben.

...

Die 3070 TI und 3080Ti zum gegenwärtigen Zeitpunkt anzukündigen macht dann Sinn, wenn diese Karten fürs Mining weniger nützlich sind und die Produktion der normalen 3070 und 3080 gedrosselt wird, dass könnte am Ende dazu führen, wenn es aufgeht, das mehr Grafikarten bei Gamern landen.
 

onkel-foehn

Software-Overclocker(in)
Nein, weil ich spiele wie erwähnt gerne mit max Details... und da gehört für mich Raytracing heute mit dazu xD.
Dann hast mir/uns doch BITTE mal einen Screenshot/Benchmark, was Deine Karte mit genau diesen vor Dir erwähnten Setting (max. Detail mit RT ON) so für FPS generiert. Danke.
Wenn´s geht NICHT Minecraft sondern ein "halbwegs" aktueller Titel wie CP 2077 z.B.
Wenn da konstante 60 FPS zustande kommen sollten, dann kauf ich mir evtl. auch noch eine, versprochen.

MfG Föhn.
 
Zuletzt bearbeitet:

Khabarak

BIOS-Overclocker(in)
Na wenn ich es nicht mal merke, dann ist es doch gut.
Du merkst es nur nicht, weil dir der Vergleich zu einer Karte mit mehr VRAM fehlt - sprich du spielst unbemerkt in deutlich geringeren Qualitätseinstellungen, als dir die Optionen im Spiel suggerieren.

Schön, dass du es nicht merkst, aber du bekommst dennoch nicht, was du eigentlich willst.
 

Richu006

Software-Overclocker(in)
Dann hast mir/uns doch BITTE mal einen Screenshot/Benchmark, was Deine Karte mit genau diesen vor Dir erwähnten Setting (max. Detail mit RT ON) so für FPS generiert. Danke.
Wenn´s geht NICHT Minecraft sondern ein "halbwegs" aktueller Titel wie CP 2077 z.B.
Wenn da konstante 60 FPS zustand kommen sollten, dann kauf ich mir evtl. auch noch eine, versprochen.

MfG Föhn.
Was soll das aussagen?

Ich sagte weiter oben auch, das ich meine 3090 instant ersetzen werde, sobald etwas besseres auf den Markt kommt. Weil ich habe nen 4k 120hz Monitor...
Und diese 120fps erreiche ich auch mit der 3090 nichtmal Ansatzweise inmer.

Die 3090 ist das beste was der Markt im moment einfach bieten kann. Nicht mehr und nicht weniger.

Aber nebenbei gemerkt würden mir 12GB VRAM bei der 3090 reichen... mehr als 11 GB Last hat die nämlich noch nie gesehen.
 

raPid-81

Freizeitschrauber(in)
Du merkst es nur nicht, weil dir der Vergleich zu einer Karte mit mehr VRAM fehlt - sprich du spielst unbemerkt in deutlich geringeren Qualitätseinstellungen, als dir die Optionen im Spiel suggerieren.

Schön, dass du es nicht merkst, aber du bekommst dennoch nicht, was du eigentlich willst.
Das lässt sich ja ganz leicht prüfen per Afterburner - Memory Usage / Process.

Dann hast mir/uns doch BITTE mal einen Screenshot/Benchmark, was Deine Karte mit genau diesen vor Dir erwähnten Setting (max. Detail mit RT ON) so für FPS generiert. Danke.
Wenn´s geht NICHT Minecraft sondern ein "halbwegs" aktueller Titel wie CP 2077 z.B.
Wenn da konstante 60 FPS zustand kommen sollten, dann kauf ich mir evtl. auch noch eine, versprochen.

MfG Föhn.
Mit DLSS Quality kommt das schon hin. Aber das ist "Gefuddel", richtig? Hoffentlich hat AMD bald sein FSR am Start, dann wird das "Gefuddel" endlich anerkannt von einigen Leuten hier...
 

pietcux

Software-Overclocker(in)
Du merkst es nur nicht, weil dir der Vergleich zu einer Karte mit mehr VRAM fehlt - sprich du spielst unbemerkt in deutlich geringeren Qualitätseinstellungen, als dir die Optionen im Spiel suggerieren.

Schön, dass du es nicht merkst, aber du bekommst dennoch nicht, was du eigentlich willst.
Ich hab es eigentlich ironisch gemeint. In WQHD merke ich aktuell noch nichts in z.B. TD2 CP2077 Metro Exodus. Allerdings nutze ich auch alle fiesen Tricks wie z.B. DLSS. Ich habe auf der 2060S halt relativ niedrige FPS, auf der 2070S im A4 schon ne ganze Ecke bessere unf die 3080 geht richtig gut ab im 3stelligen Bereich. Also alles gut hier.
 

Khabarak

BIOS-Overclocker(in)
Das lässt sich ja ganz leicht prüfen per Afterburner - Memory Usage / Process.
Wie willst du das denn ohne Vergleich mit einer Karte mit mehr VRAM auf deiner sonstigen Hardware rausfinden?
Die VRAM Usage ist - wie hier zu Recht oft erwähnt - nur eine Reservierung und zeigt nicht den realen VRAM Bedarf.

Mit DLSS Quality kommt das schon hin. Aber das ist "Gefuddel", richtig? Hoffentlich hat AMD bald sein FSR am Start, dann wird das "Gefuddel" endlich anerkannt von einigen Leuten hier...
DLSS wie FSR sind beides Upscaling Methoden.. Bei DLSS 4k ist man eher im Bereich von 1800p unterwegs.
FSR wird ähnlich bzw. schlechter aussehen... ist halt so, wenn man upscaling betreibt und die Spieler das auch noch als geiles Feature feiern.
 

raPid-81

Freizeitschrauber(in)
Wie willst du das denn ohne Vergleich mit einer Karte mit mehr VRAM auf deiner sonstigen Hardware rausfinden?
Die VRAM Usage ist - wie hier zu Recht oft erwähnt - nur eine Reservierung und zeigt nicht den realen VRAM Bedarf.
Wenn man keine Ahnung hat, dann sollte man sich informieren...

"Memory Usage / Process" zeigt den realen VRAM Verbrauch an, siehe hier:

CP2077, WQHD, max Details, max RT, DLSS Quality:

memory-dlss on.PNG


Auslastung ~ 7 GB
Usage ~ 6,3 GB

Zum Vergleich, ohne DLSS:

memory-dlss quality off.PNG


Auslastung ~ 8 GB
Usage ~ 7 GB

Und somit kann man schauen ob "alles" vom VRAM tatsächlich belegt und genutzt wird.

DLSS wie FSR sind beides Upscaling Methoden.. Bei DLSS 4k ist man eher im Bereich von 1800p unterwegs.
FSR wird ähnlich bzw. schlechter aussehen... ist halt so, wenn man upscaling betreibt und die Spieler das auch noch als geiles Feature feiern.
Es ist ein geiles Feature, da ist sich die Fachpresse ziemlich einig. Wenn es das nicht wäre, warum arbeitet AMD dann hart daran endlich seine Lösung rauszubringen? Und Epic integriert gleich eins in seine neue UE5 Engine?
 

DaHell63

Volt-Modder(in)
Du merkst es nur nicht, weil dir der Vergleich zu einer Karte mit mehr VRAM fehlt - sprich du spielst unbemerkt in deutlich geringeren Qualitätseinstellungen, als dir die Optionen im Spiel suggerieren.
Die deutlich geringere Qualität habe ich schon bei der RTX 2070 super/GTX 1080Ti und jetzt bei der RTX 3070/RX 6800 vergeblich gesucht.
 

gerX7a

Software-Overclocker(in)
Wie willst du das denn ohne [...]
Wenn ihr das mal austesten wollt, warum nicht. Der reguläre TaskManager scheint hier die verlässlichste Informationsquelle auf Windows zu sein und ist zudem vollkommen unabhängig vom verwendeten API, da der direkt den GPU-Speichermanager abfragt, der getrennt dedizierten VRAM und shared RAM ausweist.
  • unterschiedliche Systeme mit unterschiedlichen GPUs mit unterschiedlichem VRAM
  • jeweils der gleiche Titel, gleiche Auflösung, gleiche Grafik-Settings
  • schauen, was der TM unter dedicated memory usage sagt bei bspw. Medium-Settings.
Exemplarische Vermutung:
10 GB GPU: 7 GB belegt
16 GB GPU: 7 GB belegt
  • dann den gleichen Test, nun mit Ultra-Settings bei gleicher Auflösung
Exemplarische Vermutung:
10 GB GPU: 10 GB belegt
16 GB GPU: 11,5 GB belegt

Die konkrete Belegung wird zweifellos vom gewählten Titel abhängen und die Titel mögen sich gar noch bei unterschiedlichen Auflösungen individuell anders verhalten. Und wenn man lange genug sucht, wird man sicherlich auch die eine oder andere Ausnahme finden, die gar ohne Mods die 16 GiB tendenziell eher füllen wird. Die Ausnahme bleiben wird es vermutlich aber eher doch mit Blick auf die Konsolen und letzten Endes müsste man dann noch den visuellen Vergleich hinzu nehmen, denn es bleibt zu vermuten, dass die Engines das dynamisch und einigermaßen intelligent managen werden, sodass Texturen weit entfernter Objekte eher in einer niedrigeren Stufe geladen werden (trotz vergleichbarer in-game-Settings), sodass diese Anpassung je nach Bild nur einen geringen bis stellenweise möglicherweise gar keinen sichtbare Unterschied ausmacht?

 
Zuletzt bearbeitet:

beastyboy79

Software-Overclocker(in)
Es geht nicht um die PCIe Anbindung, sondern die Speicheranbindung auf den Karten. Also GPU - VRAM. Da liegen die RTX 3080 und 3090 Karten deutlich vor den RX6000er Karten. Dazu auch noch schnellerer VRAM.
Das weiß ich tatsächlich (+1)
Nur um die Texturen zu verarbeiten, brauche ich sie im Ram und die kommen wie dahin?
Je mehr Texturen ich bevorraten kann, desto schneller sind die nochmal wo?


Edit: Und in 4K, wo man den größeren VRAM irgendwann gebrauchen könnte, bremst der Infinity Cache bereits heute die AMD Karten aus weil er einfach zu klein ist. Die 3000er liegen in 4K alle vor den AMD Pendants: https://www.computerbase.de/thema/g...#diagramm-performancerating-avg-fps-3840-2160

Deswegen die Optimierung, die alle Spieleschmieden im Moment für diese Tech noch nachholen müssen/sollten.
Das wird die Zeit zeigen und ist spekulativ, ob dies je geschieht.
Auf der von Dir verlinkten Seite wird nix vom Cache erwähnt, bzw. das dieser verantwortlich ist für die mangelnde Performance ist.

Bei einer derart unspezifischen Verwendung des Verbs "genügen", lässt sich die Frage relativ leicht, zuverlässig und gar ohne Glaskugel beantworten: Die Konsolen können nur mit maximal um die 10 GiB hantieren und deren Lebensdauer ist erneut bei irgendwo im Bereich von 6 - 8 Jahren angesetzt, d. h. deren Limits werden auch in x Jahren noch für stunning Konsolen-Grafik ausreichend sein (die deutlich durchsatzstärkere Streaming-Funktionalität wurde ja nicht zum Spaß implementiert und soll hier für eine gewisse langlebig- und konkurrenzfähigkeit sorgen ;-)).

Bei den Konsolen wird ja noch mehr "geschummelt" und ja vieles wird dort durch das schnelle Speichersystem "begradigt". Dennoch heißt das nicht zwangsläufig, das diese Dinge im PC-Gaming Einzug halten müssen, da dort
sonst das große Alleinstellungsmerkmal fehlen würde, die faktisch schönere Grafik.

Darüber hinaus ... mehr zu haben (egal wovon) ist zumeist immer wünschenswert, nur lässt dieses allgemeine Bedürfnis zumeist außer Acht, dass das "Mehr" auch bezahlt werden will, denn "Mehr" kostet, schlussendlich auch in der Fertigung und bspw. AMD ist hier diesbezügfflich nicht der Heiland, weil sie "Mehr" bieten, sondern bei denen ist das schlicht ein notwendiges Vermarktungsinstrument. Die kostet das genau so viel wie nVidia, der Unterschied ist nur, dass AMD es sich eher weniger leisten kann, nicht in diesen saueren Apfel zu beißen und stattdessen eine höhere Marge zu generieren, denn darunter würden dann ihre Absatzzahlen leiden.
Wenn man unbedingt viel mehr haben will, kann man als Konsument von der aktuellen Marktsituation profitieren, allerdings ist das letztendlich schlicht ein simples Resultat der aktuellen Marktkonstellation, nicht mehr und nicht weniger.

Ich hoffe die AMD-Karten legen mit dem DLSS-Pendant nochmal etwas Performance drauf, dann wäre dieses "mehr" an Speicher noch mehr berechtigt. Genau sagen kann man dies allerdings erst, wenn dort Tests vorliegen.
Und nein, AMD ist kein Heilland, sowie NVIDIA kein Moses ist. Beide kochen nur mit Wasser.
Nur tun jede Menge User hier, als wäre das Rad neu erfunden worden. :ugly:
Komisch nur, dass die meisten User den Mangel an VRAM kritisieren bei den erschienen Nvidiakarten, auch wenn er laut Benches bei AMD keine Vorzüge zu haben scheint. Warum? Ich denke mal aus dem selben Grund. Chipleistung ist passend, egal auf welche Kosten, jedoch Preis und Ausstattung eher ungenügend.

Wie gesagt:

IMO: Das Paket was von Nvidia abgeliefert wird ist einfach nur enttäuschend und es wird immer aufs Neue abgefeiert von vielen hier. Es wird sich zu viel schön geredet, um den getätigten "Invest" zu rechtfertigen.
Das ganze ufert dann eher in eine Werbeveranstaltung aus, anstatt die neue Konkurrenzsituation dank AMDs erstarken am Markt willkommen zu heißen.


Und: @raPid-81
Direct Storage ist ja nun kein Nvidia only Feature, sondern steckt in DX12 Ultimate.
 

deady1000

Volt-Modder(in)
die hole ich mir nicht.
Das ist so, wie wenn man in der Kneipe zu einer schönen Frau in einer viel höherer Liga geht und ihr ungefragt mitteilt, dass es leider nichts mit einer Beziehung werden könne. :fresse:

Ne jetzt mal ohne Witz.
"Holen" kann man sich die Dinger eh nicht, außer man latzt den dreifachen Preis.
Und zu Beginn werden möglicherweise überhaupt keine verfügbar sein.
 

gerX7a

Software-Overclocker(in)
[...] Bei den Konsolen wird [...]
Sie werden sicherlich mit FSR zulegen, den nur zu diesem Zweck ist diese Technik ja schließlich da (andernfalls würde sie ihr Ziel verfehlen), nur müssen sie endlich mal was veröffentlichen.
Bezüglich der Speicherabschätzung irrst du jedoch, denn gerade mit FSR werden die Anforderungen eher sinken, d. h. man wird sich tendenziell noch weiter weg von den 16 GiB bewegen, weil nur das der Grund für den erzielbaren Performance-Zugewinn ist.
"Heiland und Moses" ... dann stimmen wir beide hier überein. Ist halt nur nervig, weil so mancher aktive Forenuser hier regelmäßig auf dieser Schiene "argumentiert", seltener explizit, weitaus öfters jedoch implizit und dabei allerlei Stuss von sich gibt.
Tendenziell ist es sicherlich nicht verkehrt etwas mehr VRAM zu haben, aber am Ende ist das immer eine Kosten/Nutzenfrage (und auch abhängig davon was der jeweilige Hersteller bietet) und die Entscheidung für oder gegen eine GPU ist ja auch nicht so trivial, dass sie nur auf den Gigabytes des VRAMs basiert, letzten Endes nicht einmal nur auf den gemessenen Fps. ;-)

Am Ende wird es dann aber doch wieder skurril, denn wieso müssen Ampere-Käufer ihren "Ivenst rechtfertigen" und vor wem? Wer die GPUs kaufen will und damit zufrieden ist ... ist doch vollkommen ok. Es gibt gleichermaßen Punkte die für Ampere und Punkte die für RDNA2 sprechen und einen absoluten Sieger gibt es hier nicht wirklich (auch wenn einige durchaus ein zwanghaftes Bedürfnis zu haben scheinen einen solchen küren zu müssen).
Einzig was man am Ende gesichert sagen kann ist, dass der Markt insgesamt sich mit deutlicher Mehrheit für nVidia-GPUs entscheidet ... ob das einen jetzt als konkreten Nutzer des einen oder anderen Modells jucken muss? ... ich denke eher nicht.
 
Zuletzt bearbeitet:
Oben Unten