Nvidia teasert Geforce RTX 3080 Ti and RTX 3070 Ti

Ne, sorry, ich meinte den Qualitätsunterschied mit / ohne RT.


Dann hier mal das 4K Rating dagegen, wo die 16 GB VRAM so richtig reinhauen... :lol:

Anhang anzeigen 1365187
WOW ! Ganze 4,4 % vorne (auf DEINEM Cherry), bei ca. 100 % MEHR €uronen.
Chapeau, was soll meiner einer da dagegen noch argumentieren ?

MfG Föhn.
 

Anhänge

  • Preis 3090 lagernd.jpg
    Preis 3090 lagernd.jpg
    564,4 KB · Aufrufe: 24
  • Preis 6900XT lagernd.jpg
    Preis 6900XT lagernd.jpg
    551,6 KB · Aufrufe: 39
Zuletzt bearbeitet von einem Moderator:
Sogar meine RTX2060S hat in WQHD immer noch keine VRAM Probleme ich seh auch nicht warum sich das so schnell ändern sollte. Da wird die 3070ti sicher auch noch jahrelang mit zurechtkommen.
Bei einigen Spielen wirst du es schlicht nicht merken, weil sie beim Streamen einfach die Details der texturen runterschrauben, anstelle Performance zu opfern.
Dafür gibt es inzwischen ja genug Beispiele.
 
Sobald die ersten richtigen Next Gen Titel kommen, wird die Karte sowieso absaufen.
Mit denn richtigen Next Gen Spielen rechne ich eigentlich erst, wenn die RTX 5090 geteasert wird... Durchschnittsspielern mit einen Hang zur Effizienz würde ich also nicht raten, sich zu diesen Zeitpunkt eine Grafikkarte für Spiele zukaufen die in größerer Zahl erst veröffentlicht werden, wenn es schon die nächste oder übernächste Generation von Garfikkarten gibt.

Zukunftstauglich sieht anders aus.
Mit der Eigenschaft: "Zukunftstauglich" wirbt Nvidia eigentlich nie. Ich sehe auch eine 3090 nicht als zukunftstauglich an, sondern unter gewissen Voraussetzungen ist eine 3090 das was man heute braucht.
Was da fährt ist ja auch nicht der Hatetrain,... Ich denke wenn jemand nicht die Grafikkarte kaufen kann, die man gerne möchte und nicht zu dem Preis, den sie eigentlich haben sollte, dann ist das nicht einmal unbedingt Neid sondern eher Frust. Also es fährt größtenteils der Frusttrain.

Ich wär heute auch total frustiert, wenn ich nicht die Grafikkarte gekauft hätte, als sie noch zu einen erträglichen Preis kaufbar war.

8K Gaming ist noch weit entfernt
8k mit maximalen Details und mindestens 144fps; unwahrscheinlich dass das überhupt jemals kommt.

Zumindest nicht wenn man immer vom Spiel mit der aktuell rechenintensivsten Grafik ausgeht. Aber der Stromverbrauch des Systems, was dazu in der Lage wäre, wäre definitiv interessant...

Dann nenn mir mal eine HW die Zukunftssicher oder tauglich ist.
Nur unter Einbeziehung einer persönlich definierten Kompromissbereitschaft lässt sich die Eigenschaft Zukunftstauglichkeit auf Hardware anwenden;

Wenn ich mich entscheide mit meiner Grafikkarte 5Jahre lang das Auskommen zu haben, könnte man meinen, dann sei sie für mich auf 5 JAhre zukunftssicher; Eine zukunftstaugichkeit zu sehen, ist also nur eine persönliche Entscheidung; gleichzeitig kann es eine tatsächliche Zukunftstauglichkeit für Hardware nicht geben.
auch dort kritisiere ich die 10GB VRAM. In meinen Augen ist das einer der fatalsten Fehler den die PS5 und Xbox Series X Stand heute besitzen.
Die Herstellung einer PS5 kostet Sony vermutlich um die 700€, (Wegen des Coronaeinflusses aber derzeit vielleicht auch etwas mehr) mit der Tendenz, dass die Herstellungskosten auf lange Sicht fallen. Ich kann mir Vorstellen sowohl MS als auch Sony hätten gerne die Next Gen's noch etwas besser gebaut. Aber nachdem sie das durchkalkuliert und hochgerechnet haben, mussten sie dort den Schlussstrich ziehen, wo das ganze noch wirtschaftlich umsetzbar war.
Wenn die Kryptokurse nicht in den nächsten 2 Wochen völlig abschmieren
höchst unwahrscheinlich...
Also lieber mehr VRAM haben und nicht brauchen, als brauchen und nicht haben.
ich würd nie wegen übertrieben viel VRAM zum teuersten Modell greifen... auch wenn es gerade als 3090Besitzer genau diesen Anschein haben könnte. - Ich wollte nur die Karte mit der akutell besten Raytracing-Performance, das diese Karte unter umständen mehr VRAM hat, als für meinen Gebracuh notwendig ist, ist aus meiner Sicht eine Begleiterscheinung.

Ich geb aber zu, ich hab erstmals als Gamer nicht das Gefühl in der VRAM-Frage meine Kompromissbereitschaft strapaziert zu haben.

...

Die 3070 TI und 3080Ti zum gegenwärtigen Zeitpunkt anzukündigen macht dann Sinn, wenn diese Karten fürs Mining weniger nützlich sind und die Produktion der normalen 3070 und 3080 gedrosselt wird, dass könnte am Ende dazu führen, wenn es aufgeht, das mehr Grafikarten bei Gamern landen.
 
Nein, weil ich spiele wie erwähnt gerne mit max Details... und da gehört für mich Raytracing heute mit dazu xD.
Dann hast mir/uns doch BITTE mal einen Screenshot/Benchmark, was Deine Karte mit genau diesen vor Dir erwähnten Setting (max. Detail mit RT ON) so für FPS generiert. Danke.
Wenn´s geht NICHT Minecraft sondern ein "halbwegs" aktueller Titel wie CP 2077 z.B.
Wenn da konstante 60 FPS zustande kommen sollten, dann kauf ich mir evtl. auch noch eine, versprochen.

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Na wenn ich es nicht mal merke, dann ist es doch gut.
Du merkst es nur nicht, weil dir der Vergleich zu einer Karte mit mehr VRAM fehlt - sprich du spielst unbemerkt in deutlich geringeren Qualitätseinstellungen, als dir die Optionen im Spiel suggerieren.

Schön, dass du es nicht merkst, aber du bekommst dennoch nicht, was du eigentlich willst.
 
Dann hast mir/uns doch BITTE mal einen Screenshot/Benchmark, was Deine Karte mit genau diesen vor Dir erwähnten Setting (max. Detail mit RT ON) so für FPS generiert. Danke.
Wenn´s geht NICHT Minecraft sondern ein "halbwegs" aktueller Titel wie CP 2077 z.B.
Wenn da konstante 60 FPS zustand kommen sollten, dann kauf ich mir evtl. auch noch eine, versprochen.

MfG Föhn.
Was soll das aussagen?

Ich sagte weiter oben auch, das ich meine 3090 instant ersetzen werde, sobald etwas besseres auf den Markt kommt. Weil ich habe nen 4k 120hz Monitor...
Und diese 120fps erreiche ich auch mit der 3090 nichtmal Ansatzweise inmer.

Die 3090 ist das beste was der Markt im moment einfach bieten kann. Nicht mehr und nicht weniger.

Aber nebenbei gemerkt würden mir 12GB VRAM bei der 3090 reichen... mehr als 11 GB Last hat die nämlich noch nie gesehen.
 
Du merkst es nur nicht, weil dir der Vergleich zu einer Karte mit mehr VRAM fehlt - sprich du spielst unbemerkt in deutlich geringeren Qualitätseinstellungen, als dir die Optionen im Spiel suggerieren.

Schön, dass du es nicht merkst, aber du bekommst dennoch nicht, was du eigentlich willst.
Das lässt sich ja ganz leicht prüfen per Afterburner - Memory Usage / Process.

Dann hast mir/uns doch BITTE mal einen Screenshot/Benchmark, was Deine Karte mit genau diesen vor Dir erwähnten Setting (max. Detail mit RT ON) so für FPS generiert. Danke.
Wenn´s geht NICHT Minecraft sondern ein "halbwegs" aktueller Titel wie CP 2077 z.B.
Wenn da konstante 60 FPS zustand kommen sollten, dann kauf ich mir evtl. auch noch eine, versprochen.

MfG Föhn.
Mit DLSS Quality kommt das schon hin. Aber das ist "Gefuddel", richtig? Hoffentlich hat AMD bald sein FSR am Start, dann wird das "Gefuddel" endlich anerkannt von einigen Leuten hier...
 
Du merkst es nur nicht, weil dir der Vergleich zu einer Karte mit mehr VRAM fehlt - sprich du spielst unbemerkt in deutlich geringeren Qualitätseinstellungen, als dir die Optionen im Spiel suggerieren.

Schön, dass du es nicht merkst, aber du bekommst dennoch nicht, was du eigentlich willst.
Ich hab es eigentlich ironisch gemeint. In WQHD merke ich aktuell noch nichts in z.B. TD2 CP2077 Metro Exodus. Allerdings nutze ich auch alle fiesen Tricks wie z.B. DLSS. Ich habe auf der 2060S halt relativ niedrige FPS, auf der 2070S im A4 schon ne ganze Ecke bessere unf die 3080 geht richtig gut ab im 3stelligen Bereich. Also alles gut hier.
 
Das lässt sich ja ganz leicht prüfen per Afterburner - Memory Usage / Process.
Wie willst du das denn ohne Vergleich mit einer Karte mit mehr VRAM auf deiner sonstigen Hardware rausfinden?
Die VRAM Usage ist - wie hier zu Recht oft erwähnt - nur eine Reservierung und zeigt nicht den realen VRAM Bedarf.

Mit DLSS Quality kommt das schon hin. Aber das ist "Gefuddel", richtig? Hoffentlich hat AMD bald sein FSR am Start, dann wird das "Gefuddel" endlich anerkannt von einigen Leuten hier...
DLSS wie FSR sind beides Upscaling Methoden.. Bei DLSS 4k ist man eher im Bereich von 1800p unterwegs.
FSR wird ähnlich bzw. schlechter aussehen... ist halt so, wenn man upscaling betreibt und die Spieler das auch noch als geiles Feature feiern.
 
Wie willst du das denn ohne Vergleich mit einer Karte mit mehr VRAM auf deiner sonstigen Hardware rausfinden?
Die VRAM Usage ist - wie hier zu Recht oft erwähnt - nur eine Reservierung und zeigt nicht den realen VRAM Bedarf.
Wenn man keine Ahnung hat, dann sollte man sich informieren...

"Memory Usage / Process" zeigt den realen VRAM Verbrauch an, siehe hier:

CP2077, WQHD, max Details, max RT, DLSS Quality:

memory-dlss on.PNG


Auslastung ~ 7 GB
Usage ~ 6,3 GB

Zum Vergleich, ohne DLSS:

memory-dlss quality off.PNG


Auslastung ~ 8 GB
Usage ~ 7 GB

Und somit kann man schauen ob "alles" vom VRAM tatsächlich belegt und genutzt wird.

DLSS wie FSR sind beides Upscaling Methoden.. Bei DLSS 4k ist man eher im Bereich von 1800p unterwegs.
FSR wird ähnlich bzw. schlechter aussehen... ist halt so, wenn man upscaling betreibt und die Spieler das auch noch als geiles Feature feiern.
Es ist ein geiles Feature, da ist sich die Fachpresse ziemlich einig. Wenn es das nicht wäre, warum arbeitet AMD dann hart daran endlich seine Lösung rauszubringen? Und Epic integriert gleich eins in seine neue UE5 Engine?
 
Du merkst es nur nicht, weil dir der Vergleich zu einer Karte mit mehr VRAM fehlt - sprich du spielst unbemerkt in deutlich geringeren Qualitätseinstellungen, als dir die Optionen im Spiel suggerieren.
Die deutlich geringere Qualität habe ich schon bei der RTX 2070 super/GTX 1080Ti und jetzt bei der RTX 3070/RX 6800 vergeblich gesucht.
 
Wie willst du das denn ohne [...]
Wenn ihr das mal austesten wollt, warum nicht. Der reguläre TaskManager scheint hier die verlässlichste Informationsquelle auf Windows zu sein und ist zudem vollkommen unabhängig vom verwendeten API, da der direkt den GPU-Speichermanager abfragt, der getrennt dedizierten VRAM und shared RAM ausweist.
  • unterschiedliche Systeme mit unterschiedlichen GPUs mit unterschiedlichem VRAM
  • jeweils der gleiche Titel, gleiche Auflösung, gleiche Grafik-Settings
  • schauen, was der TM unter dedicated memory usage sagt bei bspw. Medium-Settings.
Exemplarische Vermutung:
10 GB GPU: 7 GB belegt
16 GB GPU: 7 GB belegt
  • dann den gleichen Test, nun mit Ultra-Settings bei gleicher Auflösung
Exemplarische Vermutung:
10 GB GPU: 10 GB belegt
16 GB GPU: 11,5 GB belegt

Die konkrete Belegung wird zweifellos vom gewählten Titel abhängen und die Titel mögen sich gar noch bei unterschiedlichen Auflösungen individuell anders verhalten. Und wenn man lange genug sucht, wird man sicherlich auch die eine oder andere Ausnahme finden, die gar ohne Mods die 16 GiB tendenziell eher füllen wird. Die Ausnahme bleiben wird es vermutlich aber eher doch mit Blick auf die Konsolen und letzten Endes müsste man dann noch den visuellen Vergleich hinzu nehmen, denn es bleibt zu vermuten, dass die Engines das dynamisch und einigermaßen intelligent managen werden, sodass Texturen weit entfernter Objekte eher in einer niedrigeren Stufe geladen werden (trotz vergleichbarer in-game-Settings), sodass diese Anpassung je nach Bild nur einen geringen bis stellenweise möglicherweise gar keinen sichtbare Unterschied ausmacht?

 
Zuletzt bearbeitet:
Es geht nicht um die PCIe Anbindung, sondern die Speicheranbindung auf den Karten. Also GPU - VRAM. Da liegen die RTX 3080 und 3090 Karten deutlich vor den RX6000er Karten. Dazu auch noch schnellerer VRAM.
Das weiß ich tatsächlich (+1)
Nur um die Texturen zu verarbeiten, brauche ich sie im Ram und die kommen wie dahin?
Je mehr Texturen ich bevorraten kann, desto schneller sind die nochmal wo?


Edit: Und in 4K, wo man den größeren VRAM irgendwann gebrauchen könnte, bremst der Infinity Cache bereits heute die AMD Karten aus weil er einfach zu klein ist. Die 3000er liegen in 4K alle vor den AMD Pendants: https://www.computerbase.de/thema/g...#diagramm-performancerating-avg-fps-3840-2160

Deswegen die Optimierung, die alle Spieleschmieden im Moment für diese Tech noch nachholen müssen/sollten.
Das wird die Zeit zeigen und ist spekulativ, ob dies je geschieht.
Auf der von Dir verlinkten Seite wird nix vom Cache erwähnt, bzw. das dieser verantwortlich ist für die mangelnde Performance ist.

Bei einer derart unspezifischen Verwendung des Verbs "genügen", lässt sich die Frage relativ leicht, zuverlässig und gar ohne Glaskugel beantworten: Die Konsolen können nur mit maximal um die 10 GiB hantieren und deren Lebensdauer ist erneut bei irgendwo im Bereich von 6 - 8 Jahren angesetzt, d. h. deren Limits werden auch in x Jahren noch für stunning Konsolen-Grafik ausreichend sein (die deutlich durchsatzstärkere Streaming-Funktionalität wurde ja nicht zum Spaß implementiert und soll hier für eine gewisse langlebig- und konkurrenzfähigkeit sorgen ;-)).

Bei den Konsolen wird ja noch mehr "geschummelt" und ja vieles wird dort durch das schnelle Speichersystem "begradigt". Dennoch heißt das nicht zwangsläufig, das diese Dinge im PC-Gaming Einzug halten müssen, da dort
sonst das große Alleinstellungsmerkmal fehlen würde, die faktisch schönere Grafik.

Darüber hinaus ... mehr zu haben (egal wovon) ist zumeist immer wünschenswert, nur lässt dieses allgemeine Bedürfnis zumeist außer Acht, dass das "Mehr" auch bezahlt werden will, denn "Mehr" kostet, schlussendlich auch in der Fertigung und bspw. AMD ist hier diesbezügfflich nicht der Heiland, weil sie "Mehr" bieten, sondern bei denen ist das schlicht ein notwendiges Vermarktungsinstrument. Die kostet das genau so viel wie nVidia, der Unterschied ist nur, dass AMD es sich eher weniger leisten kann, nicht in diesen saueren Apfel zu beißen und stattdessen eine höhere Marge zu generieren, denn darunter würden dann ihre Absatzzahlen leiden.
Wenn man unbedingt viel mehr haben will, kann man als Konsument von der aktuellen Marktsituation profitieren, allerdings ist das letztendlich schlicht ein simples Resultat der aktuellen Marktkonstellation, nicht mehr und nicht weniger.

Ich hoffe die AMD-Karten legen mit dem DLSS-Pendant nochmal etwas Performance drauf, dann wäre dieses "mehr" an Speicher noch mehr berechtigt. Genau sagen kann man dies allerdings erst, wenn dort Tests vorliegen.
Und nein, AMD ist kein Heilland, sowie NVIDIA kein Moses ist. Beide kochen nur mit Wasser.
Nur tun jede Menge User hier, als wäre das Rad neu erfunden worden. :ugly:
Komisch nur, dass die meisten User den Mangel an VRAM kritisieren bei den erschienen Nvidiakarten, auch wenn er laut Benches bei AMD keine Vorzüge zu haben scheint. Warum? Ich denke mal aus dem selben Grund. Chipleistung ist passend, egal auf welche Kosten, jedoch Preis und Ausstattung eher ungenügend.

Wie gesagt:

IMO: Das Paket was von Nvidia abgeliefert wird ist einfach nur enttäuschend und es wird immer aufs Neue abgefeiert von vielen hier. Es wird sich zu viel schön geredet, um den getätigten "Invest" zu rechtfertigen.
Das ganze ufert dann eher in eine Werbeveranstaltung aus, anstatt die neue Konkurrenzsituation dank AMDs erstarken am Markt willkommen zu heißen.


Und: @raPid-81
Direct Storage ist ja nun kein Nvidia only Feature, sondern steckt in DX12 Ultimate.
 
die hole ich mir nicht.
Das ist so, wie wenn man in der Kneipe zu einer schönen Frau in einer viel höherer Liga geht und ihr ungefragt mitteilt, dass es leider nichts mit einer Beziehung werden könne. :fresse:

Ne jetzt mal ohne Witz.
"Holen" kann man sich die Dinger eh nicht, außer man latzt den dreifachen Preis.
Und zu Beginn werden möglicherweise überhaupt keine verfügbar sein.
 
[...] Bei den Konsolen wird [...]
Sie werden sicherlich mit FSR zulegen, den nur zu diesem Zweck ist diese Technik ja schließlich da (andernfalls würde sie ihr Ziel verfehlen), nur müssen sie endlich mal was veröffentlichen.
Bezüglich der Speicherabschätzung irrst du jedoch, denn gerade mit FSR werden die Anforderungen eher sinken, d. h. man wird sich tendenziell noch weiter weg von den 16 GiB bewegen, weil nur das der Grund für den erzielbaren Performance-Zugewinn ist.
"Heiland und Moses" ... dann stimmen wir beide hier überein. Ist halt nur nervig, weil so mancher aktive Forenuser hier regelmäßig auf dieser Schiene "argumentiert", seltener explizit, weitaus öfters jedoch implizit und dabei allerlei Stuss von sich gibt.
Tendenziell ist es sicherlich nicht verkehrt etwas mehr VRAM zu haben, aber am Ende ist das immer eine Kosten/Nutzenfrage (und auch abhängig davon was der jeweilige Hersteller bietet) und die Entscheidung für oder gegen eine GPU ist ja auch nicht so trivial, dass sie nur auf den Gigabytes des VRAMs basiert, letzten Endes nicht einmal nur auf den gemessenen Fps. ;-)

Am Ende wird es dann aber doch wieder skurril, denn wieso müssen Ampere-Käufer ihren "Ivenst rechtfertigen" und vor wem? Wer die GPUs kaufen will und damit zufrieden ist ... ist doch vollkommen ok. Es gibt gleichermaßen Punkte die für Ampere und Punkte die für RDNA2 sprechen und einen absoluten Sieger gibt es hier nicht wirklich (auch wenn einige durchaus ein zwanghaftes Bedürfnis zu haben scheinen einen solchen küren zu müssen).
Einzig was man am Ende gesichert sagen kann ist, dass der Markt insgesamt sich mit deutlicher Mehrheit für nVidia-GPUs entscheidet ... ob das einen jetzt als konkreten Nutzer des einen oder anderen Modells jucken muss? ... ich denke eher nicht.
 
Zuletzt bearbeitet:
Zurück