RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

Dämlich ist es momentan ne ATI zu holen.:-P
Holter die Polter, stimmt wär dämlich!

Das sind mir die liebsten User, selbst nur eine unterdurchschnittlich Low Budget Grafikkarte aus heutiger Sicht im Rechner und will dann anderen wie mir erzählen, das die 10GB GDDR6X nicht reichen für die nächsten 2.Jahre und ich nur mit normalen Texturen spielen kann.
Stimmt, fehlender Besitz -> Fehlendes Urteilsvermögen. Merke ich mir!!!!1111elfelf

Holter die Polter. Aber mich wundert es gar nicht, dass sich keiner ne ATI holt.
Vielleicht erzählt dir dein Kumpel auch mal was davon, das ATI ein Begriff ist, der eingestaubt auf nem wilden Regal in Interessiertmichnichthausen liegt. Frag den mal nach dem Schlüssel für den Verfügungsraum, oder nach den Ausgleichsgewichten für die Wasserwaage oder nach dem Nachfüllstutzen für Blinkerwasser an Deinem RGB-Lüfter.
Holter die Polter...
 
Zuletzt bearbeitet:
Mit großem Holter die Polter direkt auf die Spezialistenliste gewandert.

Anhang anzeigen 1361245

Dass hier auf PCGH "Team Red" mehr Anteil hat ist jetzt nichts Neues.

Ich empfehle jedem Mal das hier zu lesen: Link

  • Conclusion of Part 1: 10GB of VRAM in 2021+ is not the same as 10GB of VRAM in 2020.
  • Conclusion of Part 2: Actual VRAM usage in PC games is far less than believed, thanks to misleading software.
Und dann auch noch das hier: Link
Sampler Feedback Streaming

Im Beispiel wird dieselbe Szene mit 1/10 Speicherbedarf berechnet. 1/10!

The difference in committed memory is very high— 524,288 versus 51,584 kilobytes! About a tenth the space for this tiled resource-based, full-mip-chain-based texturing system.
Genauso viel VRAM wie meine Mittelklasse RX 6700 XT, einfach witzig ?
Joah, nur eben GDDR6X an einem breiteren Speicherinterface. Aber ignorier das ruhig. :lol:
 
Ich (und viele andere hier im Forum sowie diverse Fachleute) finde DLSS beeindruckend. Doppelte FPS, weniger VRAM Verbrauch, weniger Stromverbrauch und das beste Anti-Aliasing bei gleicher Bildqualität? Nehme ich. Andere können es gerne liegen lassen.
Das schreiben "Deine" Fachleute ...

MfG Föhn.
 

Anhänge

  • RT AMD.jpg
    RT AMD.jpg
    515,6 KB · Aufrufe: 48
  • 4K RT.jpg
    4K RT.jpg
    336,2 KB · Aufrufe: 49
Wäre mir neu. Da gab es jemanden der das auchj mal behauptet hat.

Ich will ja nix unterstellen... aber Schaffe? Bist Du es, reinkarniert als ChuckNorris des DLSS und RT-Verfechterclubs, back in Town?
Soso, wie erklärst Du Dir dann die Diskrepanz im PCGH Hardware-Check und der Steam Umfrage? Die Steam Umfrage ist unzweifelhaft repräsentativer da eine viel größere Zahl an Usern befragt wird.

Wer ist Schaffe? Von dem würde ich tastsächlich ein paar Beiträge lesen, bitte verlinken.
 
Ich empfehle jedem Mal das hier zu lesen: Link

  • Conclusion of Part 1: 10GB of VRAM in 2021+ is not the same as 10GB of VRAM in 2020.
  • Conclusion of Part 2: Actual VRAM usage in PC games is far less than believed, thanks to misleading software.
Und dann auch noch das hier: Link
Sampler Feedback Streaming

Im Beispiel wird dieselbe Szene mit 1/10 Speicherbedarf berechnet. 1/10!
Hat jetzt mit der Ansage, keiner würde "ATI" kaufen (ach, echt?) genau was zu tun?
--> Expertenliste ahoi.
 
Mit einer R9 390X dürfte man weit über 10 Jahre zocken können, momentan läuft sogar noch fast alles in Ultra. Die Karte ist jetzt 7 Jahre alt.
Also ich habe in Cyberpunk mit meiner 980Ti in WQHD keine 20 FPS mehr auf ultra.
Auf einer uralten 390 haste dann keine 15 mehr.:-(
Ich musste immer Details reduzieren damit es halbwegs spielbar war, auf niedrig bzw. Mittel läuft es ganz ok mit 50 FPS.

Für Leute, die ihre Karten alle zwei Jahre wechseln, ist das auch kein Problem, der Rest sollte sich aber durchaus Gedanken machen.
Weil es ja auch so wichtig ist mit ultra Texturen zu spielen, wenn man die Grafikregler so oder so arg runterdrehen muss.
 
Jo, also muss sie Details runterschrauben. Das ist ja das Argument der "Speicherkrüppel" Kollegen, Details aufgrund VRAM Bedarf runterschrauben IST NICHT ERLAUBT. Aber Details runterschrauben weil die GPU nicht genug Leistung hat, das ist dann ok? Seltsam...

Das mehr an VRAM ermöglicht es einem viele Details zu nutzen, die man andernfalls herunter drehen müßte. Darunter vorallem die Texturdetails und die reißen es richtig raus. Wobei man bei einer R9 390X eigentlich keine Details runterschrauben muß, sofern man nur in 1080p zocken möchte.

Aus eigener Erfahrung weiß ich, wie wichtig ein großer VRAM ist. Wenn vorhat, seine Karte etwas länger zu behalten, dann ist es einfach seltendämlich darauf nicht zu achten, wenn möglich.

In der Aktuellen Generation stellt sich nur die Frage, was den Karten schneller das Genick brechen wird: geringer VRAM oder mangelnde RT Leistung sowie fehlendes DLSS. Nur die RTX 3090 und RTX 3060 sind da ausbalanciert.

Ja, absolut. Aber hochauflösende Texture-Packs sind was für Enthusiasten und Modder, die kaufen sich halt die 3090 für 4K oder die 3080 für WQHD. Das ist ja nicht der Großteil der Gamer.

Wenn ich knapp 1000€, für eine Graka hinblättern soll (UVP), dann erwarte ich, dass darauf gefälligst alles absolut optimal drauf läuft. Die RTX 3080 dürfte schon bald Ärger mit ihrem VRAM beklommen. Die Besitzer der Fury X haben damals auch extrem blöd aus der Wäsche geschat, als schon wenige Monate später das erste Spiel (Rise of the Tombraider) kam, das ihre Karten an die Grenzen gebracht hat, während die Besitzer der GTX 980Ti gut lachen hatten

Also ich bin mir aktuell ziemlich sicher dass ich mit meiner 3080 auch 2023 noch gut zocken kann.

Du verstehst eben nicht, dass andere bis 2027 denken und ganz glücklich wären, wenn sie ihre Karten erst 2029 oder 2031 tauschen müßten (da hat der langsame Fortschritt dann mal einen Vorteil.

Das ist doch bei den AMD Karten nicht anders, trotz mehr VRAM. Da geht es um Rohleistung und Features...

Absolut alle Karten Karten, mit mehr VRAM hatten, seit 2012, am Ende immer einen irren Vorteil, gegenüber ihre gleich schnellen Gegenstücke. Die letzten Karten, bei denen das anders gewesen ist, waren die HD5/6000 und GeForce 400/500er. Denen haben Nvidia und vorallem AMD teils sehr schnell, die Treiberunterstützung verwehrt. Das letzte mal dass die Features ein Problem waren, sind die letzten DX 10 Karten gewesen, vorallem die GTX 280/285 2GB hat es hart getroffen (da war auch das letzte mal, dass sich ein extra großer VRAM nicht rentiert hat).

Und dann kommt wieder so ein Quatsch. DLSS Quality schaltet 1 Auflösungsstufe runter, Performance 2, Ultra Performance 3. Wenn Du in FullHD DLSS Performance benötigst um ordentliche FPS zu erreichen dann solltest Du dringend den PC aufrüsten oder ein paar Regler nach links schieben...


Mit DLSS Ultra Performance wird die 720p Auflösung auf 4K aufgeblasen. Ich bin echt begeistert, das wird die Lebensdauer der Karten deutlich erhöhen. Ein weiterer Grund, auf mehr VRAM zu achten.

Edit: es geht hier immer noch um einen Zyklus von 1-2 Generationen, nicht 4-5!

Für dich geht es um 1-2 Generationen, für andere um 3-4, nimm das Brett vor deinem Kopf ab.

Ja, die alten Karten mit mehr VRAM haben vielleicht 1 Jahr länger "gehalten", aber doch nicht ohne Regler nach links schieben!

Tut mir leid, aber das ist völliger Blödsinn!

Wenn der VRAM zum tragen kommt, dann sind es nicht 1-2 Jahre, sondern mehr. Ich habe 2016 meine GTX 670 ausgemustert, weil die 2GB eng wurden. Mit 4GB hätte die Karte bis heute ganz gut durchgehalten (wobei ich sie wohl 2018 ausgemustert hätte)

Der Große Unterschied ist, dass es heute keine guten Angebote in den Folgegenerationen mehr gibt. Die 4GB Version hätte gut 150€ mehr gekostet, davon hätte ich mit 2016 auch eine RX 480 8GB für 180€ zulegen können. 2018 gab es die VEGA 56 für 220€ zu kaufen. Heute gibt es solche Angebote nichtmehr. Die Leistung der GTX 1080Ti hat in der Nachfolgegeneration etwa genausoviel gekostet, wie zur Einführung der GTX 1080 und die RTX 2080 hatte sogar 3GB weniger VRAM

Meine letzte Grafikkarte bis Oktober 2020 war eine GTX 1070 die 4.Jahre in meinem PC werkelte mit 8GB Speicher, hat bis zum Schluss tolle Dienste geleistet und die 8GB Speicher waren bei mir nie ein Problem. Von daher treffen beide Punkte auf mich zu, ich genieße hochaufgelöste Texturen und werde die Grafikkarte länger als 2.Jahre behalten.​


Mit 4GB hättest du aber wohl blöd aus der Wäsche geschaut, denn dann hätte der VRAM Ärger gemacht. Die 8Gb waren damals jedenfalls noch mehr als nur ordentlich. Die GTX 1070 ist jedenfalls ein Beispiel für mehr VRAM und nicht dagegen. Die Fury X ist ein Beispiel für wenig VRAM. Ähnliche Rohleistung es es hat schon wenige Monate nach erscheinen angefangen zu klemmen.

Tja, der einzige mit einem Brett vor dem Kopf bist Du, bisher kein einziges schlüssiges Argument, was Du hier vorgebracht hast, außer heiße Luft!

Die Argumente der Gegenseite zu leugnen ist heute eine beliebte Taktik. Alleine meine GTX 670 2GB und die HD 7950 3GB sind Beweis genug. Ich muß die Details auf niedrig drehen und kann viele Spiele nicht zocken, mit der HD 7950 kann man in den Spielen die Details meist auf hoch bis sehr hoch aufdrehen und viele der Spiele, die ich nicht zocken kann, problemlos zum laufen bringen.

QED

Selbst wenn Du 32 oder 64GB Speicher hat, nutzt Dir der Speicher gar nichts, wenn die GPU die Leistung nicht mehr erbringen kann, von daher ist eine gesunde Mischung aus Leistung und Speicher Deinem Argument immer vorzuziehen!

Natürlich ist eine ausgewogene Mischung wichtig. Allerdings gibt es viele Karten, bei denen der VRAM langfristig zum Problem wurden und eigentlich keine, bei der es an der Leistung lag und noch ordentlich VRAM übrig war. Selbst (bzw. besonders) die ersten Titan Karten können jetzt ihren übergroßen VRAM extrem gut ausspielen.

Die einzigen Karten, auf die das tatsächlich zutraf, waren die Gurkenkarten, mit extra viel VRAM, teilweise mehr als die High End Modelle. Die sind aber, seit dem Intel seine CPUs mit IGPs anbietet, ausgestorben.

Das sind mir die liebsten User, selbst nur eine unterdurchschnittlich Low Budget Grafikkarte aus heutiger Sicht im Rechner und will dann anderen wie mir erzählen, das die 10GB GDDR6X nicht reichen für die nächsten 2.Jahre und ich nur mit normalen Texturen spielen kann.

Tut mir leid, dass meine GTX 980Ti letztes Jahr im September abgeraucht ist. Aber dukannst mir ja gerne mit deiner Karte aushelfen.

Gemäß deinem "Argument" hättest du hier sowieso nichts zu melden, da ich eine Karte, mit wenig VRAM habe und du nicht.

Das kannst Du ja gerne so halten, dann verurteile nicht Andere, die eine andere Meinung haben.

Du bist hier derjenige, der anderen, die ihre Karten langfristig nutzen wollen, einen vom Pferd erzählt, nicht ich.

Das wollen wir hier mal klar und deutlich festhalten.

Und so lange Du noch am Zweifeln und überlegen bist, weil Dir die gebotene Speicherbestückung nicht ausreicht, zocke ich auf UHD und genieße die Grafikpracht auf meinem 4K UHD Monitor mit hochaufgelöste Texturen.

Kannst du auch gerne machen, nur versuche nicht andere zu belehren, die ihre Karten gerne etwas länger nutzen wollen.
 
Zuletzt bearbeitet:
Joah, nur eben GDDR6X an einem breiteren Speicherinterface. Aber ignorier das ruhig. :lol:
Woran verenden die Karten von "ATI" denn nun in Zukunft? Ich komm da ganz durcheinander, bei soviel Input.

Ist es jetzt die fehlende Rohleistung des Chips, die mangelnde Speicherbandbreite von 72GB/s, oder doch der PCI-E 4.0 Steckplatz. Oder liegt es doch am fehlenden Featureset. Oder vielleicht liegts an den Treibern? Am Schriftzug auf den Endprodukten..? :ugly:

Das mehr eben mehr ist, gilt ja seit letztes Jahr nicht mehr. Zumindest in der Church of NV.
 
Wird es eine richtige Verlosung geben wo jeder Kunde die gleichen Chancen hat oder muss ich einen Bot Dienst in Auftrag geben?
 
Also ich habe in Cyberpunk mit meiner 980Ti in WQHD keine 20 FPS mehr auf ultra.
Auf einer uralten 390 haste dann keine 15 mehr.:-(
Ich musste immer Details reduzieren damit es halbwegs spielbar war, auf niedrig bzw. Mittel läuft es ganz ok mit 50 FPS.

Wie gesagt: fast alles

Cyberpunk, in Psycho, ist ja für alle Karten, unter der RTX 2080Ti, Folter. das wird natürlich noch zunehmen, aber für ihr Alter, ist die R9 390X echt genial.

Weil es ja auch so wichtig ist mit ultra Texturen zu spielen, wenn man die Grafikregler so oder so arg runterdrehen muss.

Gute Texturen sind extrem wichtig, da sie es unglaublich rausreißen, wenn sie ordentlich gemacht sind. Im Gegensatz zu vielen anderen Dingen, in denen üppiger VRAM wichtig ist (etwa die Sichtweite von detaillierten Objekten) beanspruchen sie auch nicht die sonstige Leistung der GPU. Man sollte sie also, wenn möglich immer hoch stellen.

Deswegen: ja, es ist wichtig, mit Ultra Texturen zu zocken, wenn auch man anderes runterdrehen muß.

Wer ist Schaffe? Von dem würde ich tastsächlich ein paar Beiträge lesen, bitte verlinken.

Leider ist sein Profil deaktiviert, aber hier kannst du noch etwas von ihm lesen:
 
Das schreiben "Deine" Fachleute ...

MfG Föhn.
Immer dieselben 2 Screenshots...

Zur Funktionsweise von DLSS:
Native AuflösungInterne Auflösung PerformanceInterne Auflösung BalancedInterne Auflösung Quality
1.920 × 1.080960 × 5401.114 × 6261.280 × 720
2.560 × 1.4401.280 × 7201.484 × 8351.706 × 960
3.440 × 1.4401.720 × 7201.995 × 8352.293 × 960
3.840 × 2.1601.920 × 1.0802.227 × 1.2522.560 × 1.440

Ultra-Performance ist als Vergleich nicht relevant, der Modus ist für 8K gedacht.

Hier mal ein paar mehr Fachberichte als Dein ständig zitierter ComputerBase Artikel von anno dazumal:
Link

ComputerBase: »Besser als native Auflösung«​

Laut ComputerBase bietet Death Stranding aktuell »die beste Umsetzung« von DLSS 2.0 (derzeit gibt es fünf Spiele mit entsprechendem Support: Death Stranding, Control, MechWarrior 5: Mercenaries, Deliver Us The Moon, Wolfenstein: Youngblood).

Besser und schneller: Der KI-Upscaler liefert im Qualitätsmodus demnach ein besseres Bild als es die native Auflösung vermag. In puncto Performance kann DLSS 2.0 ebenfalls überzeugen. Während eine RTX 2070 Super in Ultra HD (UHD, 4K) nativ durchschnittlich 58,8 FPS erzielt, sind es im DLSS-Leistungsmodus 104,2. Mit dem DLSS-Qualitätsmodus sind es 83,5 FPS.

AMDs FidelityFX, das übrigens sowohl auf AMD- als auch Nvidia-Grafikkarten funktioniert, reicht im ComputerBase-Test nicht an DLSS 2.0 heran. Der Performance-Zugewinn fällt zwar ebenfalls sehr gut aus, die Qualität fällt im Vergleich aber merklich ab.

https://1images.cgames.de/images/gamestar/209/death-stranding-pc-12-kerne_6106710.jpg 69 0
Mehr zum Thema
Death Stranding: Mehr fps mit zwölf Kernen

Hardwareluxx: »DLSS 2.0 liefert die beste Bildqualität«​

Mehr Details durch DLSS 2.0: Im Test der Kollegen von Hardwareluxx zeigt sich ein ähnliches Bild. In den meisten Fällen ist DLSS 2.0 demnach nicht nur auf Augenhöhe mit dem nativen Rendering und es müssen keine Einschränkungen der Darstellungsqualität hingenommen werden, sondern liefert sogar mehr Details.

Im Nachtest zum Sieger: Auch FidelityFX wird ein insgesamt gutes Zeugnis ausgestellt. Zunächst sah Hardwareluxx die beiden Technologien beinahe gleichauf, im Nachtest wurden jedoch deutliche Unterschiede in der Detailschärfe offenbart, weshalb DLSS 2.0 als klarer Sieger vom Platz geht.

DSOGaming: »DLSS 2.0 etwas besser als natives 4K«​

Besser trotz vereinzelter Artefakte: DSOGaming kommt zu dem Schluss, dass DLSS 2.0 in Death Stranding sowohl die native 4K-Auflösung als auch FidelityFX hinter sich lässt - wenn auch nur geringfügig. Der Einsatz von DLSS 2.0 hat zwar zu vereinzelter Artefaktbildung geführt, dennoch sieht DSOGaming den KI-Upscaler vor der nativen Auflösung.

Schärfer ist nicht gleich besser: Dank eines Reglers kann FidelityFX zwar sogar schärfere Bilder als DLSS oder 4K liefern, das jedoch auf Kosten von Aliasing - sprich einem deutlichen Flimmern.

Toms Hardware: »Wusste nicht ob es [DLSS] an war oder nicht«​

Ohne die FPS-Anzeige hätte der Preview-Tester von Toms Hardware nicht sagen können, ob DLSS aktiviert war oder nicht. Sogar bei näherer Betrachtung von Screenshots war die Unterscheidung demnach schwer. Der Performancemodus schneidet im Detail zwar etwas schlechter ab als der Qualitätsmodus, aber gerade bei höheren Auflösungen fällt das kaum mehr auf.

Es kommt also auf das Spiel an. Und je mehr Engines DLSS nativ unterstützen, desto besser wird es allgemein umgesetzt sein.


1618785806545.png


Also CP2077 in FullHD ist mit RT unspielbar auf den AMD Karten, bereits ab RT Mittel ist man hier unter 40 FPS. Da chille ich mit meiner 3080 in WQHD, Details maxed out, RT Psycho, DLSS Quality bei 60 FPS und einem VRAM Verbrauch von ~7,5 GB gemütlich ab.




Woran verenden die Karten von "ATI" denn nun in Zukunft? Ich komm da ganz durcheinander, bei soviel Input.

Ist es jetzt die fehlende Rohleistung des Chips, die mangende Speicherbandbreite von 72GB/s, oder doch der PCI-E 4.0 Steckplatz. Oder liegt es doch am fehlenden Featureset. Oder vielleicht liegts an den Treibern? Am Schriftzug auf den Endprodukten..? :ugly:
Die AMD Karten werden schnell Probleme bekommen wenn die Spiele mehr auf RT setzen, und das wird passieren. Siehe oben, die Liste der meist verwendeten Engines die es nativ unterstützen ist bereits lang. Und die Konsolen können es nun auch.
Das mehr eben mehr ist, gilt ja seit letztes Jahr nicht mehr. Zumindest in der Church of NV.
Auch mehr Features? Ach ne, mit Innovationen hat AMD es nicht so, hab ich vergessen...
 
Zuletzt bearbeitet von einem Moderator:
Holter die Polter, stimmt wär dämlich!
Ja man kann halt so viele nette Games schneller auf einer Nvidia mit Super Sampling spielen.
Für mich käme deswegen nie eine ATI (AMD) momentan in Frage. Die sind viel zu teuer für das was sie bringen.

Vielleicht erzählt dir dein Kumpel auch mal was davon, das ATI ein Begriff ist, der eingestaubt auf nem wilden Regal in Interessiertmichnichthausen liegt.
Ich gebe zu meine letzte ATI (AMD) Grafikkarte ist schon 14 Jahre her und jetzt bin ich 24.

Holter die Polter...
Ach findest du das also gar nicht seltsam, dass hier in diesem Forum ganz offenbar eine deutlich negativere Meinung über Nvidia Grafikkarten herrscht als die Steam Zahlen zeigen?
Ich frage mich woher das kommt.
Weil Nvidia weniger Speicher verbaut und trotzdem besser ist, oder weil die Firma doof ist?

Nvidia ist doch seit ich Grafikkarten kenne der Platzhirsch und ATI (AMD) das kleine Licht welches immer hintendran ist.
 
Zurück