Geforce RTX 3080 kaufen: Nvidia über die Aussichten für 2022

Dem Händler vorzuschreiben zu welchem Preis er verkaufen muss ist rechtlich in DE gar nicht gestattet. Das geht also nicht. Direkt selber als Hersteller zu verkaufen wird nicht passieren, die haben gar keine Lust auf Endkunden,
Möglich wärs.
Es ist klar, dass die Miner für den Hersteller die besseren Kunden sind. Aber im Gegensatz zum Gamer kaufen die nur, wenn sich das ganze rechnet und das muss nicht immer so bleiben.
Ich gebe das ehemals eingeplante/gesparte Geld zusätzlich für Geschenke in meiner Familie aus, da ich nicht an einen Preissturz in den nächsten Monaten unter oder nahe an die UVP glaube.
Abwarten
Das kann schneller wieder vorbei, als manchem lieb ist.

Ich glaub zwar mittlerweile auch nicht mehr daran, aber für die Preise kaufe ich jedenfalls erstmal nichts.
 
achja ,wir können froh sein das die ganzen Händlier den Preis einer RTX 3090 nicht auf 10 000€ erhöhen können weil dann garkeiner mehr eine GPU kaufen würde.Wobei es selbst da verrückte geben würde die selbst da noch kaufen würden.Und eines ist sicher,AMD tut es nicht so weh,Nvidia dafür mehr.Warum weil auch wenn das passieren würde das der Markt ganz hin wäre,AMD noch immer die Konsolen als Standbein hätte.Also zocken halt dann auf Konsolen. Und für die wo auf dem Pc geblieben sind bestimmte Karten oder nur noch Onbard GPU.
ALso ich sehe das ganze gelassen,soll ruhig alles zusammen brechen.Am ende kann man nur gewinnen .Nur der Beharlich ist und ruhig abwartet gewinnt am ende und die anderen verlieren nur noch.Also beruhigt euch und wartet einfach ab.Aber moment mal,die meisten scheinen das nicht zu können und bekommen wenn sie keine neue GPU haben,schnapp Artmung.Warum das so ist weis keiner,warum auch immer.
 
achja ,wir können froh sein das die ganzen Händlier den Preis einer RTX 3090 nicht auf 10 000€ erhöhen können weil dann garkeiner mehr eine GPU kaufen würde.Wobei es selbst da verrückte geben würde die selbst da noch kaufen würden.Und eines ist sicher,AMD tut es nicht so weh,Nvidia dafür mehr.Warum weil auch wenn das passieren würde das der Markt ganz hin wäre,AMD noch immer die Konsolen als Standbein hätte.Also zocken halt dann auf Konsolen. Und für die wo auf dem Pc geblieben sind bestimmte Karten oder nur noch Onbard GPU.
ALso ich sehe das ganze gelassen,soll ruhig alles zusammen brechen.Am ende kann man nur gewinnen .Nur der Beharlich ist und ruhig abwartet gewinnt am ende und die anderen verlieren nur noch.Also beruhigt euch und wartet einfach ab.Aber moment mal,die meisten scheinen das nicht zu können und bekommen wenn sie keine neue GPU haben,schnapp Artmung.Warum das so ist weis keiner,warum auch immer.
:stupid:
Absoluter Käse.
Selbst mein Kommentar dazu ist schon zuviel des Guten.
 
An die Nvidia-Werbebots:

10Gig VRAM hab ich bereits 2017 schon auf meiner einen Karte.

RT wird bei der Verbreitung ein jähes Ende finden, bevor es überhaupt mal relevant (massentauglich) wird, wenn die RT-Karten-Verfügbarkeit weiterhin aus 3Jahre alter Technik oder überzogener Preisgestaltung, damit aus einem Hauch von nichts, besteht. Wenn die Technik weiterhin in so homöopatischen Dosen in den Markt tröpfelt, lohnt es sich richtig für die Publisher, in die RTRT- Implementierung Zeit zu investieren. Aber stimmt, das macht man ja in fünf Minuten (siehe FarCry6) . Läuft dann wie ein Sack Nüsse und frisst Speicher zum Frühstück. Da beißt sich die Maus dann in den eigenen Schwanz.

Und so, wie einige hier meinen, es sei die cutting-edge -Technologie schlechthin: ist es leider nicht. Der augenöffnende Wow-Effekt verpufft nach ca. 5Minuten und dann sieht man es nicht mal mehr, oder stellt es nicht mal mehr an. Aber Einbildung ist auch eine Bildung. Von daher ist RT völlig Banane imo. Man hat nix verpasst. Reiner Selling Point vom Fanboy-Marketing-Geblubber, was durch alle Artikel und Foren wabert.

Die 3080 ist eine, bewusst von Nvidia degradierte, Karte (2.Klasse). Das der User auch ja eine Neue kaufst, weil der Lederjackenfred es so will, wenn denn eine mit mehr VRAM verfügbar (und wahrscheinlich auch nötig) ist. Der wusste ganz genau, das Spieleoptimierung ein Relikt aus VRAM-armen Zeiten ist und in Zukunft sowas einfach zeittechnisch gar keine Rolle mehr spielt, wenn man sich die Rotze, die sich heute ein AAA-Spiel nenn darf, so anschaut. Optimierung auf effiziente RAM-Nutzung warum? Software sells Hardware! Ansonsten würden wahrscheinlich weiterhin 8GB state of the art sein.

Zum Ende: Der Chip der 3080 kann ja genug, nur der VRAM ist halt der Witz an der ganzen Konstruktion; und das meine (zum Glück) nicht nur ich.

Und jetzt: die Regler rechts
lolaway2.gif
solange es noch geht.

Die 6900XT-Käufer freuen sich derweil auf weiter speicherintensive Spiele, wo die Entwickler einfach alle 5 gerade sein lassen. Da kannst Du dann auch noch RT draufschalten oder halt die Auflösung verringern.

Meine Fresse muss du gefrustet sein....

Dein dämliches gequatsche von wegen Karte zweiter Klasse stinkt förmlich nach Neid und Missgunst. Egal ob die rtx 3080 nen VRAM Krüppel ist oder nicht. Die performt wie Sau... egal was du darüber denkst....
Neid. Yo. Das Killer-Argument eines 3080-Nutzers(?) :ugly: :ugly:.
Das ist es definitiv nicht. Mitleid eher. Die 6900XT-Käufer werden ähnliches Mitgefühl haben.

Achso: falls Du meinst, dass das in der Signatur meine aktuelle HW ist, muss ich Dich leider enttäuschen.
 
Zuletzt bearbeitet:
Mit "off" habe ich übertrieben, gebe ich zu. Aber "alle Regler nach rechts" geht nun mal nicht bei den aktuellen RDNA2 Karten, und darum ging es ja.

Doch, man kann alle Regler nach rechts schieben, nur eben eine große Auflösungsstufe niedriger. Alles, was man auf einer RTX 3080 zustande bringt, kann man so auch mit einer RX 6800XT.

Es wird immer argumentiert dass eine Ampere Karte "demnächst" in vielen Spielen VRAM Probleme bekommt. Und es ja bereits jetzt einige Games gibt die mit maximalen Einstellungen den VRAM überfordern. Das mag alles sein, aber dass die RDNA2 Karten eben auch bereits jetzt in deutlich mehr Spielen den RT Regler nicht nach rechts schieben können, das ist natürlich egal....

Es ist halt eben die Achillesferse dieser Karten. Man wird sich darauf einstellen müssen Details abzuschalten und irgendwann werden die Spiele gar nicht mehr drauf laufen. Dessen sollte man sich eben bewußt sein, wenn man so eine Karte kauft. Du hast eben kein Problem, die in 2-4 Jahren eine neue Karte zu kaufen, ich plane meist längerfristig.

Es ist eben die Frage, was zuerst kritisch wird: der VRAM oder das Raytracing. Beim VRAM gibt es jetzt Fälle, bei denen die RTX 3080 nicht alles darstellen kann und bei Cyberpunk 2077 ist es eben großer ein Unterschied, ob man mit einer Auflösungsstufe höher spielen kann oder nicht (wie gesagt: die Deatils sind nicht das Problem, wenn man darauf besteht.

Bis 12 oder 16GB VRAM oder Raytracing (bei dem die RX 6800er Karten unter 540p Renderauflösung gedrückt werden) Pflicht sind, wird es jedoch noch einige Zeit lang dauern.

Über alle Zweifel erhaben ist eben nur die RTX 3090.

Ungefähr haut das hin, bis ich DLSS Q einschalte und der 6900XT User nur FSR aktivieren kann. Dann habe ich immer noch mehr FPS und das bessere Bild.

Das habe ich nicht bezweifelt, nur die Behauptung, AMD Nutzer könnten nicht alle Regler nach rechts stellen stimmt nicht.
 
Das habe ich nicht bezweifelt, nur die Behauptung, AMD Nutzer könnten nicht alle Regler nach rechts stellen stimmt nicht.
Können tut man schon...obs sinnvoll ist?
Über alle Zweifel erhaben ist eben nur die RTX 3090.
Kommt darauf an auf welcher Seite man steht. Für manche ist das einfach nur überteuerter Rotz und verweisen auf die kommenden Next Gen Spiele durch die neuen Konsolen, die ja AMD Hardware haben.
 

Anhänge

  • RT.jpg
    RT.jpg
    248,3 KB · Aufrufe: 21
  • H+V.jpg
    H+V.jpg
    194,2 KB · Aufrufe: 22
Zuletzt bearbeitet:
Neid. Yo. Das Killer-Argument eines 3080-Nutzers(?) :ugly: :ugly:.
Das ist es definitiv nicht. Mitleid eher. Die 6900XT-Käufer werden ähnliches Mitgefühl haben.

Achso: falls Du meinst, dass das in der Signatur meine aktuelle HW ist, muss ich Dich leider enttäuschen.
Also eine 6900XT kostet etwa ähnlich viel wie eine 3800/3080Ti zwischen 1700,- und 2000,-€.
ATi-Käufer sind bei den aktuellen Preisen also ähnlich gekniffen wie NVidia-Kunden. Woher also diese Häme? Abgesehen davon... hat der ATi-Chip nicht irgendsoein komischen Unendlich-Cache, der der Karte eigentlich nur bei niedrigen Benchmark-üblichen Auflösungen wirklich auf die Beine hilft - also bei den Auflösungen, wo man garkeine 16GB nutzen kann und so einen GPU-Boliden eigentlich auch nicht bräuchte? Und 256Bit Busbreite sind für eine HighEnd-ATi-Karte auch nicht so der Burner.
Ich bin aber ehrlich gesagt diese dummen Diskussionen mittlerweile so leid, welcher Konsumsklave sich nun mal wieder den längsten (gekauft) hat. So ein Quatsch wird eigentlich immer nur von Leuten forciert, die jedenfalls fürchten nicht den längsten zu haben und daher permanente Fremdbestätigung suchen. Die nicht von sich aus glücklich und zufrieden sein können mit dem, was sie selber haben, sobald andere etwas anderes haben. Andere bräuchten so eine schiefe Diskussion nicht.
 
Doch, man kann alle Regler nach rechts schieben, nur eben eine große Auflösungsstufe niedriger. Alles, was man auf einer RTX 3080 zustande bringt, kann man so auch mit einer RX 6800XT.
Darauf haben allerdings wirklich nur die Allerwenigsten Bock. Man möchte schon gerne immer in der nativen Auflösung spielen. 1080p auf einem WQHD- oder 1440p auf einem UHD-Monitor muss jetzt echt nicht dringend sein.

Über alle Zweifel erhaben ist eben nur die RTX 3090.
Naja, 24 GB müssen es nun wirklich nicht gleich sein. 3070/3080 mit 16 GB würden - analog zur AMD-Konkurrenz - ja vollkommen ausreichen und kommen ja eventuell sogar in irgendeiner Form mit den angekündigten Refreshs.
 
Aha man sieht ja ohne RT steht Nvidia also nicht besser da als AMD. Also spielt es keine Rolle für einen der ohnehin ohne raytracing zocken will bzw kann welche gpu man kaufen würde. Schön zu sehen. Für mich ist es überflüssiges future. Meinetwegen hätten sie raytracing nicht einsetzen müssen.
 
Sicher sollte es jedem selber überlassen werden mit welcher Karte er zockt.
Raytracing mag für den ein oder anderen nicht wichtig sein....überflüssig ist es deswegen noch lange nicht.
Bis jetzt konnte man ja selbst entscheiden ob man Raytracing nutzt oder nicht.
Ok, bis auf Metro Exodus Ehanced, wo eine Raytracing fähige Karte Vorraussetzung ist.
 
Ich bin aber ehrlich gesagt diese dummen Diskussionen mittlerweile so leid, welcher Konsumsklave sich nun mal wieder den längsten (gekauft) hat. So ein Quatsch wird eigentlich immer nur von Leuten forciert, die jedenfalls fürchten nicht den längsten zu haben und daher permanente Fremdbestätigung suchen. Die nicht von sich aus glücklich und zufrieden sein können mit dem, was sie selber haben, sobald andere etwas anderes haben. Andere bräuchten so eine schiefe Diskussion nicht.

Zusätzlich zum Like direkt mal ein "Danke"

Geht zocken. Egal mit welcher Karte und egal mit wieviel VRAM. Wenn ihr nicht zockt braucht ihr keine von den Dingern.
 
Also eine 6900XT kostet etwa ähnlich viel wie eine 3800/3080Ti zwischen 1700,- und 2000,-€.
ATi-Käufer sind bei den aktuellen Preisen also ähnlich gekniffen wie NVidia-Kunden. Woher also diese Häme? Abgesehen davon... hat der ATi-Chip nicht irgendsoein komischen Unendlich-Cache, der der Karte eigentlich nur bei niedrigen Benchmark-üblichen Auflösungen wirklich auf die Beine hilft - also bei den Auflösungen, wo man garkeine 16GB nutzen kann und so einen GPU-Boliden eigentlich auch nicht bräuchte? Und 256Bit Busbreite sind für eine HighEnd-ATi-Karte auch nicht so der Burner.
Ich bin aber ehrlich gesagt diese dummen Diskussionen mittlerweile so leid, welcher Konsumsklave sich nun mal wieder den längsten (gekauft) hat. So ein Quatsch wird eigentlich immer nur von Leuten forciert, die jedenfalls fürchten nicht den längsten zu haben und daher permanente Fremdbestätigung suchen. Die nicht von sich aus glücklich und zufrieden sein können mit dem, was sie selber haben, sobald andere etwas anderes haben. Andere bräuchten so eine schiefe Diskussion nicht.

Ich sag´s mal so:
Niemand muss unbedingt 1700€ -2000€ für eine AMD-Grafikkarte ausgeben. Wer will, der kann.
Zum UVP kann man fast jeden Donnerstag auf der AMD Shopseite sein "Glück" versuchen, steht jedem frei.
Sieht zwar ebenso düster aus, wie bei NBB eine FE-Karte zu bekommen, aber dennoch: Die Chance besteht.

Und wer bisschen was über 1000€ ne 6900XT abgreifen kann, hat den besseren Deal, als eine 3080. Fertig. Man braucht nur... Glück!

Für mich sieht es eher so aus, als neide der besagte 3080-User dem anderen User die 6900XT, die er sich da für 1700 Schleifen gekauft hat, und sucht nun nur das ganz bestimmte Haar in der Suppe, welches absolut irrelevant ist! Nur um das klar zu stellen. Und das gebetsmühlenartig tagein, tagaus runter zu predigen, macht den Umstand nicht besser, das die 3080 einfach eine kastrierte Karte ist, was so hätte nicht sein müssen.


Und eins noch:
ATI ist sooooooo lange her. Das Du das noch nicht mitbekommen hast?! Heißt mittlerweile Radeon Technologies Group. Aber geschenkt.
 
Tya für manche ist es halt noch immer ati auch wenn es radeon heißt. Ganz einfach aus denen kriegst du es nicht mehr raus. Die sind halt ati gewohnt zu sagen und zu schreiben. Aber jeder weiß ja was gemeint ist. Ist also nicht ganz falsch. Und solange man es erkennt was gemeint ist, ist doch alles gut. Und in der Tat. Wer noch weniger Ansprüche hat so wie ich braucht noch nicht mal 1000 € für ne gpu zu kaufen. Ich habe für den Preis ab nach Weihnachten nen ganzen PC den ich kaufen werde. Schon voresaviert und 1 Jahr Garantie. Da ist auch ne gpu enthalten. Klar nur ne gtx 950 aber besser als nix und joa damit kann ich auch prima zocken. Ich frage mich ob das so ne gute Idee ist diese für 100 € zu verkaufen um mit für 50 oder wieviel ich sie auch immer kriege ne Gt 1030 mir zu kaufen. Gewiss würde mir welche das abraten weil es ist eben nen downgrade. Aber was tut man nicht alles um einen sparsamen PC zu kriegen. Klar könnte ich auch diese gpu zum Strom sparen kriegen, reicht gewiss den gpu takt zu senken aus nicht wahr?
 
Können tut man schon...obs sinnvoll ist?

Das ist eben die Frage, die sich jeder stellen muß.

Für mich: Cyberpunk 2077 sieht damit einfach nur hammergeil aus und wozu gibt es FFX und DLSS?

Kommt darauf an auf welcher Seite man steht. Für manche ist das einfach nur überteuerter Rotz und verweisen auf die kommenden Next Gen Spiele durch die neuen Konsolen, die ja AMD Hardware haben.

Die RTX 3090 ist die einzige Karte, die keine Baustellen hat, da gibt es eigentlich keine zwei (vernünftigen) Meinungen.

Das könnte sich ändern, wenn es eine RTX 3070Ti mit 16GB gibt

Abgesehen davon... hat der ATi-Chip nicht irgendsoein komischen Unendlich-Cache, der der Karte eigentlich nur bei niedrigen Benchmark-üblichen Auflösungen wirklich auf die Beine hilft - also bei den Auflösungen, wo man garkeine 16GB nutzen kann und so einen GPU-Boliden eigentlich auch nicht bräuchte? Und 256Bit Busbreite sind für eine HighEnd-ATi-Karte auch nicht so der Burner.

Gibt es dafür irgendwelche Beweise?

Soweit ich weiß ist das nichts außerhalb des normalen.

Darauf haben allerdings wirklich nur die Allerwenigsten Bock. Man möchte schon gerne immer in der nativen Auflösung spielen. 1080p auf einem WQHD- oder 1440p auf einem UHD-Monitor muss jetzt echt nicht dringend sein.

Hier im Forum sind viele unterwegs, die eher noch mit 240p 15FPS zocken würden, als auch nur einen Regler nach links zu bewegen.

D ist dann von "1080p Karte" die Rede.

Naja, 24 GB müssen es nun wirklich nicht gleich sein. 3070/3080 mit 16 GB würden - analog zur AMD-Konkurrenz - ja vollkommen ausreichen und kommen ja eventuell sogar in irgendeiner Form mit den angekündigten Refreshs.

Die gibt es aber nicht, auch wenn sie wohl die goldene Mitte wären.

Bei dem Preis der RTX 3090 sind 24GB allerdings angemessen, auch 32GB oder mehr wären nicht verkehrt.
 
Zurück