Geforce RTX 3080: Weitere Bestätigung der 20-GiB-Version

Du widersprichst dir ein wenig, wenn du einerseits zustimmst, dass ~10GB VRAM ausreichen und dann aber sagst, dass man ja einfach in 2 Jahren schon wieder aufrüsten kann. Es kommt natürlich drauf an, was man unter "zukünftige Spiele" versteht.
Sag ich gleich was zu...
Mit dlss hat nvidia echt alles richtig gemacht. Die leute bescheissen sich selber und behaupten dann noch 10gb würden ja dann locker reichen mit dlss. Hauptsache am ende 800+euro ausgegeben sich selbst zu verarschen :ugly:
Ist halt die Frage wer sich hier verarschen lässt - das ist sicherlich Definitionssache.

Jetzt haben wir das Jahr 2020. Eine RTX3080-10GB konnte man für 699€ zum Launch bekommen, wenn man schnell war. Ich nehme jetzt die 699€ als Beispiel, weil ich das tatsächlich bezahlt habe und die Karte sich im Versand befindet.

So. Jetzt kann man sagen, dass der VRAM auf Kante genäht ist und sicherlich stimmt das auch. Dennoch ist das immer noch vergleichsweise viel, wenn man auf WQHD und 4K spielt. Nur weil jetzt Grafikkarten kommen, die 12GB und 16GB haben und das offensichtlich bald Mainstream wird, muss man nicht gleich Angst bekommen, dass Grafikkarten mit 8GB oder 10GB quasi schrottreif sind. Man wird mit 10GB in den nächsten 2 Jahren keine Probleme bekommen. Größere Titel, die hier ja so gern heranzitiert werden, wie Crysis Remastered, Cyberpunk 2077, MSFS 2020, Watch Dogs: Legion, bekommen sowieso DLSS2.0. Alle geiern sich einen über den nativen 4K-VRAM-Bedarf ab, aber, dass da DLSS2.0 ins Spiel kommt, ignoriert natürlich jeder. Und das trifft praktisch auf jeden kommenden Titel zu, der so viel VRAM frisst. Ich hab dazu vorhin schon ne Liste gepostet. Einfach mal nachgucken wieviele Titel das schon sind.

Und ja ich nenne DLSS2.0, weil Nvidia es hier nunmal schafft den VRAM-Bedarf um durchschnittlich 30% zu senken, bei einer Steigerung der Bildqualität. DLSS2.0 nutzt vorgerendertes 16K-Bildmaterial und integrierte Spezialfilter, die ein natives 4K-Bild im Vergleich zu einem DLSS-4K-Bild alt aussehen lassen. Das kann man shitstormen wie man will - es stimmt. Gleichzeitig steigt die Performance massiv an. Dank DLSS ist mittlerweile sogar 4K/120FPS-Gaming auf Ultra in AAA-Titeln möglich. Probiert das mal ohne DLSS.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Und bezüglich verarschen lassen, nicht verarschen lassen...

Wie ich schon sagte, die RTX3080 kostet 699€. Das ist schon ne Menge Geld. Viele wollen eigentlich weniger für eine Grafikkarte ausgeben, nur leider ist der Markt eben aktuell sehr versaut durch hohe Preise und die Leute stumpfen eben auch langsam ab. Jetzt hat Nvidia euch aber schon wieder so weit, dass ihr rund 1000€ für die RTX3080-20GB bezahlen wollt. Das ist einfach so "Next-Level". :ugly:

Also ich weiß ja nicht. Ich fühle mich nicht verarscht. Verarscht würde ich mich fühlen, wenn ich statt 700€, 1000€ für die gleiche verdammte Grafikkarte bezahle, nur weil da auf der Platine ein paar mehr / oder andere Speichermodule draufgelötet sind. :daumen: Wir werden es ja in den Benchmarks sehen. Die Karten werden, wenn da am Chip ansich nichts gedreht wird, exakt gleich performen, nur haben die RTX3080-10G-Käufer halt 300€ gespart. Desweiteren dürfte die 20GB-Karte auch etwas mehr Strom verbrauchen, was dem Power-Limit nicht zugutekommen dürfte, sodass der Boostclock möglicherweise leidet, aber das ist Spekulation und mir auch eigentlich egal. Die Effizienz ist eben schlechter, weil permanent 30W mehr verbraucht, aber sicherlich praktisch nie benötigt werden.

Naja wie gesagt, macht mal.

Die 300€ sparen wir 10GB-Käufer gern für 2022, wo dann eh schon RTX4000 ansteht. Da dürfte sich dann auch wieder einiges getan haben, auch bezüglich CPU-/RAM-Bottleneck, was ja aktuell ein gewisses Problem darstellt. Und dann werden die Grafikkarten auch mehr VRAM für 4K und 8K etc haben, inkl DLSS3.0 und neuen RayTracing-Cores.

Lieber jetzt ne preiswerte und starke Karte für die mittlere Zukunft nehmen und dann beim nächsten Mal mit dem gesparten Geld wieder aufrüsten, statt jetzt sinnloserweise 300€ in Speicher zu investieren, den aktuell eh keiner braucht.

Hier noch ein paar 8K-Tests zum runterkommen (ja 8K, nicht 4K):

logo-180-195--www.jpg




 
Meint ihr ein Ryzen 3700X kann eine 3080 in WQHD noch ordentlich befeuern, wenn das Ziel Konstante 120-144FPS sind? Momentan bremst der 3700X meine 5700 XT auf jeden Fall noch nicht aus. Renne ständig im GPU Limit.
 
Den Preis der 20 GiB-Version wird nVidia nicht übermäßig anheben können, wei sie jetzt nicht mehr konkurrenzlos in dem Segment unterwegs sind.
Wenn man den Preisanstieg aufgrund der aktuellen Knappheit ignoriert und von den 699 € Basispreis ausgeht, wird die 20 GiB-Version sich im Bereich von 900 - 1000 € bewegen müssen. AMD wird sicherlich unter 1000 € bleiben und da kann nVidia nicht so viel mehr verlangen, denn ein paar Prozent mehr Speicher und mehr VRAM werden die Kaufentscheidung etlicher Kunden nicht wirklich beeinflussen können. Die 3090 als Enthusiast-Modell für die, die für das letzte Quentchen Leistung einen deutlichen Aufpreis bereit sind zu zahlen, kann durchaus in dem Preissegment bleiben. Zwischen der 3080 und der 3090 kann man jedoch nicht mit einer linearen Preisskalierung arbeiten, jedenfalls nicht mit AMD in dem Segment. Beispielsweise ein Preis von 1200 € (wie gesagt, Teuerung aufgrund von Knappheit hier ignoriert) funktioniert nur, wenn
a) AMD leistungstechnisch tatsächlich deutlich abgehängt wird (oder bspw. eine deutlich schwächere Raytracing-Implementation besitzt)
b) AMD preistechnisch auch in die Vollen geht und ordentlich zulangt
In allen anderen Szenarien kann sich nVidia nicht wirklich dem Konkurrenten entziehen und muss sich preistechnisch darauf einstellen.

Meint ihr ein Ryzen 3700X kann eine 3080 in WQHD noch ordentlich befeuern, wenn das Ziel Konstante 120-144FPS sind? Momentan bremst der 3700X meine 5700 XT auf jeden Fall noch nicht aus. Renne ständig im GPU Limit.

Schau dir Igors Benchmarks an. Er hat mit einem 3900XT getestet. Tendenziell läuft die RTX 3080 vielfach bereits in ein leichtes CPU-Limit in WQHD, wobei hier TW:3K ein Extrembeispiel ist.

3080_perf.png


Im Vergleich dazu relativ/prozentual (wobei der verwendete 3900XT zu berücksichtigen ist):

3080_relativ_5700xt.png


Die 4K-Zugewinne fallen prozentual dagegen deutlich höher aus über alle Titel, woran man leicht die CPU-Limitierung erkennt.
Schlussendlich ist aber auch die Frage, ob ein paar Prozent Verluste den Kauf einer neuen CPU oder gar kompletten Plattform rechtfertigen. ;-)

 
Zuletzt bearbeitet:
Ganz einfach Frage:

Wenn man euch die Option lässt euch eine GPU zum gleichen Preis auszusuchen und in diesem Beispiel sind das eine 3080 mit 10GB und eine 3080 mit 20GB, beides dasselbe Customdesign, welches würdet ihr auswählen bei selbem Preis? Natürlich 20GB gell? Wenn dem so ist. dann ist eure Aussage, dass 10GB locker reichen und man nicht mehr benötigt einfach nur für die Katz. 100% der User würden die 20GB Version nehmen, auch wenn sie behaupten man braucht niemals mehr als 10GB.

Gleiches Beispiel, nur 3080 20GB vs. 3090 24GB. ;)

Du nimmt also eine 3090 ? Hm ... okey !?

Kostet doch auch nur n paar 100€ mehr, als die 3080 20GB.

PS: 24GB sind "sicherer", als 20GB.
edit: Überlege es dir noch mal, wenn du sie länger als 2 Jahre behalten willst. ;)
 
Zuletzt bearbeitet:
Ich rüste in 2 Jahren eh wieder auf.
Meine Grafikkarte muss nicht 5 Jahre halten.
Diese ganze Diskussion um VRAM <12GB ist lächerlich und konstruiert.
Stimmt, wir haben auch überhaupt keine Daten und Erfahrungen aus der Vergangenheit gesammelt, anhand derer wir abschätzen können wie sich eine 10GB Karte verhalten wird.
Persönlich werde ich nach über 3,5 Jahren nicht auf eine Karte mit weniger Speicher "aufrüsten". Das wäre das allererste Mal und gleichzeitig die teuerste Karte - das ist lachhaft. Im bis dato schlechtesten Fall hatte die neuere Karte nur 30% mehr Speicher (8800GTX auf HD5850), sonst mindestens die doppelte Menge.
 
Stimmt, wir haben auch überhaupt keine Daten und Erfahrungen aus der Vergangenheit gesammelt, anhand derer wir abschätzen können wie sich eine 10GB Karte verhalten wird.
Persönlich werde ich nach über 3,5 Jahren nicht auf eine Karte mit weniger Speicher "aufrüsten". Das wäre das allererste Mal und gleichzeitig die teuerste Karte - das ist lachhaft. Im bis dato schlechtesten Fall hatte die neuere Karte nur 30% mehr Speicher (8800GTX auf HD5850), sonst mindestens die doppelte Menge.
Leuchtet ein. Und was ist dein Plan? Legste dann noch ein paar hundert Euro drauf für die 20GB oder gehste auf RDNA2 oder gar nix?
 
Kann man nur jedem Fan anraten auf die 3080 mit mehr VRam zu warten, der derzeitge Zustand ist verarsche. :D
Keiner zwingt die Leute was zu kaufen. Aber hey, kauf du dir doch irgendeinen alten Server Xeon mit 2 TB RAM, da müsste ja alles viel schneller nun laufen, wer braucht schon moderne Architektur wenn er RAM haben kann ?

Vielleicht wütet Big Navi ja wie ein Tornado, wer weiß das schon zum jetzigen Zeitpunkt.
Nächsten Monat wissen wir hoffentlich mehr.
Aber schon ein bischen dreist von Nvidia die 3080 erst mit nur 10gb VRam zu veröffentlichen und danach erst mit mehr, wenn die meisten Interessenten schon zugeschlagen haben.
Die 10gb VRam sind eigentlich zu wenig ist und erst recht nicht zukunftssicher.
Na dann hast du ja voll in die *** gelangt oder nicht ? Warum keine Radeon VII geholt ? Viel zukunftssicherer als die 1080 Ti ! VIEL mehr VRAM und nur das zählt ja !

Und klar zukunftssicher muss es sein bei einem Produkt das ohnehin alle 2-3 Jahre getauscht wird, das muss 20 Jahre halten ! MINDESTENS !!!

Da du hier mitredest nehme ich an du bist potentiell interessiert an einer 3080, also nichtmal 3 Jahre nach Release der 1080Ti (und evtl. hast du sie ja auch erst 18 oder 19 gekauft?). Und welche Spiele der letzten Jahre wo du so wenig zukunftssicher gewesen wärst (wie damals schon alle geflennt haben) fallen dir ein wenn du jetzt eine 2080 in 2018 geholt hättest ? Mir eigentlich nur Doom Eternal.

Aber Hauptsache ZUKUNFTSSICHER ! Aus dem Munde des Mannes welcher selbst keine drei Jahre mit einer Karte verbringt besonders glaubwürdig vorgetragen. :lol:
 
@ThirdLife Ja, hier im PCGH-Forum gilt stets, dass Hardware immer mindestens 5-6 Jahre halten muss, sonst ist sie schlecht. Zu jedem neuen Launch ist man dann natürlich trotzdem gehyped und dabei und rüstet umgehend auf, aber das ist dann ja auch egal. ;)
 
Wie gesagt, schaut euch das Fazit zum 3080 Test der PCGH an bzgl der VRAM Problematik.

Haken Nummer zwei betrifft die Speicherkapazität, wobei der geplante Einsatzzweck entscheidet, ob hier ein echter Spielverderber vorliegt oder nicht.

Und jetzt ? :ka:

Warum soll ich im High End Bereich satt zahlen für was, was jetzt schon auf Kante genäht ist?

Du sagst es. Die 3080 10GB is schon ziemlich hart "auf Kante genäht" was das Powerlimit angeht.

Die 3080 20GB wird das Problem noch mehr haben, da noch mehr Verbrauch, allein schon durch das Mehr an Speicher.

Die is also "noch härter auf Kante genäht".
Total am Limit könnte man auch sagen. Mehr Speicher = mehr Verbrauch.


edit:

Zu jedem neuen Launch ist man dann natürlich trotzdem gehyped und dabei und rüstet umgehend auf, aber das ist dann ja auch egal.

Ey ! Ich hab bei Turing nicht aufgerüstet ! :P
 
Sag ich gleich was zu...
Ist halt die Frage wer sich hier verarschen lässt - das ist sicherlich Definitionssache.
.....

Nein sorry , das ist zu viel. Das musst du kürzen!

Auf jedenfall ist nur 4K 4K und nicht = 4K DLSS.
Nur weil es jetzt endlich nach langem basteln 2 Titel gibt die mal gut mal ok aussehen, ist Krebs noch nicht geheilt.
Von Speichersparenden Techniken habe ich bis jetzt im Vergleich zum Vorgänger nichts gelesen.

Nur so am Rande;
Death Stranding,
...kann den Scheiss nicht mehr hören. Was für ein kack Spiel/Walkingsim.
Da gibt es genau das eine Bild mit dem Rucksack wo man mit DLSS, Dinge sehen kann die in der tiefen Auflösung als Information garnicht vorhanden sind.
Falls das echt ist und nicht per Cherry-picking sondern generell der Fall ist , ist es genau der Eine Titel von dem ich rede. Und in dem Fall Technisch interessant Spielerisch...
 
Keiner zwingt die Leute was zu kaufen. Aber hey, kauf du dir doch irgendeinen alten Server Xeon mit 2 TB RAM, da müsste ja alles viel schneller nun laufen, wer braucht schon moderne Architektur wenn er RAM haben kann ?

Na dann hast du ja voll in die ************************ gelangt oder nicht ? Warum keine Radeon VII geholt ? Viel zukunftssicherer als die 1080 Ti ! VIEL mehr VRAM und nur das zählt ja !
Und klar zukunftssicher muss es sein bei einem Produkt das ohnehin alle 2-3 Jahre getauscht wird, das muss 20 Jahre halten ! MINDESTENS !!!
Da du hier mitredest nehme ich an du bist potentiell interessiert an einer 3080, also nichtmal 3 Jahre nach Release der 1080Ti (und evtl. hast du sie ja auch erst 18 oder 19 gekauft?). Und welche Spiele der letzten Jahre wo du so wenig zukunftssicher gewesen wärst (wie damals schon alle geflennt haben) fallen dir ein wenn du jetzt eine 2080 in 2018 geholt hättest ? Mir eigentlich nur Doom Eternal.

Aber Hauptsache ZUKUNFTSSICHER ! Aus dem Munde des Mannes welcher selbst keine drei Jahre mit einer Karte verbringt besonders glaubwürdig vorgetragen. :lol:

Ich glaube, die jede Generation-Käufer , finden sich eher beim NV-Fan Lager.
 
Jetzt noch bestimmt einen Monat auf meine 3080er Eagle fürn Normalpreis warten, dann sinds noch vier Monate bis zur Ti.
Fünf Monate wars zumindest zwischen der 1080er & der Ti.
Wie kommst du auf 5? Die 1080 kam Ende Mai 16 un die Ti Anfang März 17. Dat sind 9 Monate.
Zwischen RTX 2080 und der Super waren es auch 9 Monate.
Von der GTX 980 bis zut Ti waren es 8,5 Monate...
Merkste was? XD


DLSS 2.0 hat eine wirklich gute Quali. Da Spiele nicht immer gleich gut programmiert sind, wäre DLSS auf forderndere Spiele durchaus angebracht, bzw um die Performanceverluste von Raytracing auszugleichen.

Und an alle Ram Fanatiker guckt euch mal das Video an:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wenn schon viele Spiele mit der 3080 auf 8k laufen (wenn auch nur mit 20-30 fps), aber man müsste vielleicht manche Sachen bei 8k runterschrauben.
Da sollte 4k eigentlich kein Problem sein, da 8k ja 4x soviel Ram bräuchte.

Death Stranding war ein gutes Spiel, anders aber gut.
Es ist auch SEHR gut portiert worden, im gegensatz zu HZD. Es ist auch eine Potente Engine.
Aber seid ehrlich, Kojima hat goldene Hände bzw. ne goldene Brille.

Ich habe auch keine Turing Karte und eine 3080 selbst undervoltet auf 0.8v + Ram untertaktet bringt mit immernoch +70% Leistung bei ähnlichem Verbrauch meiner 1080 Ti.
Notfalls mache ich nochmal ein Thermalpad auf die Rückseite (siehe igorsLAB)
Ich will halt nur unbedingt mal ne 3080 Founders, da ich auch nicht mehr als 700€ zahlen will.
Ich werde auch in absehbarer Zeit kein 4k oder gar 8k nutzen. :stick:
 
Zuletzt bearbeitet:
Nein sorry , das ist zu viel. Das musst du kürzen!
:ka:
Sind wir hier bei Twitter oder was?
Auf jedenfall ist nur 4K 4K und nicht = 4K DLSS.
Stimmt, natives 4K ist natives 4K und 4K-DLSS ist 4K-DLSS.
Letzteres sieht besser aus als natives 4K, dank 16K-Vorlage. :daumen:
Also hast recht. Gar kein Vergleich. Und performanceseitig auch absolut nicht.
DLSS2.0 ist halt weit überlegen. Kannst dazu jedes Video anschauen.
FPS und Bildqualität gehen massiv rauf im Gegensatz zum nativen Bild.
Nur weil es jetzt endlich nach langem basteln 2 Titel gibt die mal gut mal ok aussehen, ist Krebs noch nicht geheilt.
Von Speichersparenden Techniken habe ich bis jetzt im Vergleich zum Vorgänger nichts gelesen.

Nur so am Rande;
Death Stranding,
...kann den Scheiss nicht mehr hören. Was für ein kack Spiel/Walkingsim.
Da gibt es genau das eine Bild mit dem Rucksack wo man mit DLSS, Dinge sehen kann die in der tiefen Auflösung als Information garnicht vorhanden sind.
Falls das echt ist und nicht per Cherry-picking sondern generell der Fall ist , ist es genau der Eine Titel von dem ich rede. Und in dem Fall Technisch interessant Spielerisch...
Kann dir da jetzt auch nicht helfen. Sicherlich werden die gleichen Tests auch bald mit anderen Titeln gemacht. Ich hätt' jetzt auch mit Control kommen können, aber das ist schon älter und auch bekannt, dass DLSS2.0 dort die Performance und Optik massiv boostet, sowie den Speicherbedarf senkt. Gab da sogar schon Artikel von PCGH zu. Die waren dort auch sehr angetan davon.

Vorwarnung! Ist ungekürzt...:

 
Vllt für den ein oder anderen demnächst relevant:
Die Seite ist down, aber da gehts doch sicherlich um die Netzteile/Leistungsaufnahme/Stromspitzen oder nicht? Einfach undervolten, 100W sparen und fertig ist die Laube. Auch ein gutes Netzteil ist für Ampere Pflicht.

Spoiler-Alert:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Vllt für den ein oder anderen demnächst relevant:

Muss nicht an den Treibern liegen sondern eher an den zu schlechten Netzteilen.
Mit Nvidia Treibern hatte ich nur sehr selten Probleme, da konnte man dann immer den älteren nutzen.
Auch mit einer neuen Grafikkarte gehts.
Vielleicht habe auch Leute eine zu schlechte Gehäusebelüftung?

Was ist das denn? Da werden sich die 2080Ti Schnellschussverkäufer aber sehr freuen:
Guck dir mal genau den Strich an. Die 3070 ist schneller als die langsamste 2080 Ti. Es gibt auch Oc 2080 ti die schneller sien können.
 
Schau dir Igors Benchmarks an. Er hat mit einem 3900XT getestet. Tendenziell läuft die RTX 3080 vielfach bereits in ein leichtes CPU-Limit in WQHD, wobei hier TW:3K ein Extrembeispiel ist.

Anhang anzeigen 1334352

Im Vergleich dazu relativ/prozentual (wobei der verwendete 3900XT zu berücksichtigen ist):

Anhang anzeigen 1334354

Die 4K-Zugewinne fallen prozentual dagegen deutlich höher aus über alle Titel, woran man leicht die CPU-Limitierung erkennt.
Schlussendlich ist aber auch die Frage, ob ein paar Prozent Verluste den Kauf einer neuen CPU oder gar kompletten Plattform rechtfertigen. ;-)


Danke, bei Igor habe ich eigentlich noch nie reingeschaut. Ist echt gut aufgelistet!

Überlege im selben Zuge dann auf den 5700 X zu wechseln (sollte ja auf meinem Mainboard laufen) und ehe die 3080 wirklich verfügbar ist, sind es die neuen Ryzen vlt auch schon.
 
Zurück