Geforce RTX 3080 20 GiB und RTX 3070 16 GiB angeblich gestrichen

Nvidias Plan: "Probieren wir es dieses mal komplett ohne Plan."

P.S. Zitat: "Kein Operationsplan reicht mit einiger Sicherheit über das erste Zusammentreffen mit der feindlichen Hauptmacht hinaus." von Helmuth Karl Bernhard von Moltke (1800-1891)
 
Zuletzt bearbeitet:
Die meisten Gamer werden das Spiel sowieso in FHD ohne RT spielen
Stimmt - die meisten Gamer kaufen aber auch keine 800€ Grafikkarten.
Der Anspruch ist in der Zielgruppe halt ein anderer. Wenn ich wenns blöd kommt nen vierstelligen Betrag für eine Grafikkarte ausgebe möchte ich auch den Texturqualität-Regler ganz rechts haben ohne dass wild nachladegeruckelt wird. Weil wenn ich "nur" auf hoch statt Ultra spiele und RT falls vorhanden höchstens mal auf medium nutze kann ich auch ne 350€-Karte kaufen, die kann das auch. UNd wenns nur FullHD sein soll gehts auch noch deutlich billiger.

Meine Frau spielt auf ner GTX1660Ti in WQHD - und da sind mit hohen bis sehr hohen Einstellungen meist konstante 60 fps drin. Ich habe die praktisch gleiche Performance mit ner RTX2080 - nur eben in 4K. Wenn da jetzt größere/bnessere Texturen und/oder aufwendigere Effekte oder sonstwas dazukommt nippeln beide Karten aber mächtig ab. Aktuell bei mir zuerst weil die 8GB nicht mehr reichen, die Rohleistung ist noch ok.
 
Denke das die 10 GB für mich bestimmt 4 Jahre reichen habe ja nur 3440X1440 Auflösung.
Von daher brauche ich keine 20GB
Kann NV da verstehen denn nächstes Jahr kommt wieder eine neue die ja etwas mehr können muss als die 3080!
Und so kurz nach Vorstellung der 3080 schon ne bessere rauszubringen ist Geld Verschwendung von NV.
Dann lieber das Geld in die nächste Generation pumpen und gut ist.
Und wer 4K spielen will mit Max Settings und Mods der kann sich ja ne 3090 kaufen .
Meine Meinung.

Denke auch auf 3440x1440 wird das hier und da eng in den nächsten 2 Jahren, wenn man die Karte ausreizen und grafische Schmankerl mitnehmen will. :-|
 
Also mir werden die 10GB bis rtx 5080 reichen. Im schlimmsten Fall geht man von Ultra Texturen einfach auf sehr hoch und das sollte dann eigentlich ausreichen.
 
Weise Entscheidung von Nvidia: Eine 20GB 3080 SKU würde bei 0 Mehrlesitung, sehr hohem Preis und unnötigem VRAM nur die RTX 3090 Verkäufe kannibalisieren. Sie für unter 999€ anzubieten, wäre nicht wirtschaflich. Gleichzeitig wäre eine 16GB 3070 ohne die 20GB RTX 3080 nicht vermittelbar. Es ist besser preislich gut positionierte Karten weiterzuverkaufen, um gleich um die Ecke mit einer RTX 4000er Serie daherzukommen, die sinnvolle Speicherbestückung erlaubt (12GB oder 16GB) und auf kleinerem/günstigerem Chip basiert.
Ich würde Dir zustimmen in dem Bereich, daß Nvidia gesteckte Ziele nicht erreicht. "Wirtschaftlich" sind die kleinen Plastikecken mit Sicherheit schon ab 500 Euronen, das gilt auch für eine 3090. Tritt n Schritt zurück atme tief durch, laß Deine Konditionierung und Dein Meinen zurück, und schau Dir einfach mal das Ding an.

Die Frage ist nicht ob wirtschaftlich so ein kleines Eck Elektroschrott bei ein paar hundert Euro angeboten werden können, sondern wo da in der Wertschöpfungskette mein Geld versandet.
 
Das waren die einzigen Karten, die Sinn ergeben haben. 10GB ist viel zu wenig heutzutage, wo KI Tools überall aufpoppen und den GPU Speicher an seine Grenzen bringen.

Warum werden solche Kommentare hier eigentlich noch geduldet? Hier meldet sich irgendeiner zu Wort und behauptet einfach mal über die Köpfer aller Nvidia Ingenieure, 10 GB VRAM seien "viel zu wenig". Selbst heute sind 8 GB noch völlig ausreichend für 1440p in den gängigen Spielen, Ausnahmen gibts immer, die man mit entsprechenden Reglern bei minimalen Verlusten dann zu 100% genießen kann.

20 GB sind völliger Schwachsinn und überdimensioniert und ich sagte von Anfang an, dass diese GPU nie kommen wird weil sie keinen Sinn macht, fühle mich also mehr als bestätigt in meiner damaligen Behauptung. Gleiche Rohleistung und einfach nur mehr RAM? Really?

Viele User scheinen hier etwas den Hang zur Realität verloren zu haben. Ist ja schön, wenn man sich als Enthusiast zählt und jedes erdenkliche Spiel in 4k bei maximalen Reglern spielen will, aber bitte mal die Kirche im Dorf lassen, so langsam nervt es bzw. zeugt m.E. einfach nur von Ahnungslosigkeit.
 
Also ich hab eigentlich nur auf die 20GB Version der 3080 gewartet. Wenn NVIDIA das jetz tatsächlich nicht bringt, können die mich mal und ich sage hallo AMD.
Und dieses Piperlapup von wegen überdimensioniert und blablabla. Manche meinen Sie haben die Weisheit mit Löffeln gefüttert und wissen was der Einzelne mit einem solchen Kauf bezweckt. Und das nervt mich! In 1 bis 2 Jahren wird ein solcher Speicher ohnehin locker ausgereizt. Aber dann kann man ja nochmal ne neue Karte kaufen. Und wieder schön blechen. Ich will ne Karte für die nächsten 6 oder 7 Jahre und das wäre in meinen Augen die 3080 20GB. Kommt die nichtwird NVIDIA nicht nur mich sondern viele Kunden verlieren.
 
Zuletzt bearbeitet:
Also mir werden die 10GB bis rtx 5080 reichen. Im schlimmsten Fall geht man von Ultra Texturen einfach auf sehr hoch und das sollte dann eigentlich ausreichen.

Bei Hardware zu einem doch eher stolzem Preis und der Eigenvermarktung mit " 4K Gaming"? Niemals! :)
2GB + sind zu mau. RTX3080 mit 16GB Ram wäre perfekt gewesen. Dann hätte das ganze Marketing_bla_bla auch besser gezogen. "Doppelte Performance" , "Doppelter Speicher", "Doppelter Stromverbrauch". ^^

Aber so jetzt? Das ist mM nach Taktik ala´ .. joar schnell isse... aber lieber Kunde, wir wollen dennoch das du nach 2 Jahren neu kaufst / kaufen musst.

Aktuell sehe ich damit keinen Grund von WQHD auf 4k Gaming zu wechseln. Was unterm Strich schade, aber kein Weltuntergang ist. beim nächsten Mal dann.
 
...Du meinst also NVidia hat von AMD schonmal Karten erhalten, damit sie sich in den Schlaf weinen können?
Ja, ergibt total Sinn [nicht].

:-S
Jensen war mit ein paar Saufkumpanen auf der Kirmes und fanden dort ein Wahrsager welcher meinte in
dem China Imbiss gäbe es gaaaaanz tolle Glückskekse.
Essen war etwas teurer (XXXXXX €) aber dafür war man unter sich und in dem Glückskeks standen ganz tolle Dinge.

Alternativ kann man Deine LiLaLaune-nur-Gutmenschen These nehmen das es noch nie
Industrie-"Datenabgleiche" :-o gab.
Was es auch war; innerhalb von ~2 Wochen kann keine Firma ein neuen Chip entwickeln, den produzieren (lassen)
und versuchen den in den Markt zu drücken.
Wenn NV so sicher wäre AMD ohne Probleme (weiterhin) klein zu halten sähe die akt. Produktionsline von NV anders aus.

Beitrag könnte Spuren von Übertreibung, nicht ernst gemeinten Aussagen und Ironie enthalten.
 
glaube ich nicht, ihr sollt wahrscheinlich erst mal die "vermurksten" 10GB karten kaufen und später lieber noch mal eine mit mehr Speicher ;) ich glaube fest daran das eine zumindest 3070 16 gb ti/super kommen wird ^^
 
Warum werden solche Kommentare hier eigentlich noch geduldet? Hier meldet sich irgendeiner zu Wort und behauptet einfach mal über die Köpfer aller Nvidia Ingenieure, 10 GB VRAM seien "viel zu wenig". Selbst heute sind 8 GB noch völlig ausreichend für 1440p in den gängigen Spielen, Ausnahmen gibts immer, die man mit entsprechenden Reglern bei minimalen Verlusten dann zu 100% genießen kann.

20 GB sind völliger Schwachsinn und überdimensioniert und ich sagte von Anfang an, dass diese GPU nie kommen wird weil sie keinen Sinn macht, fühle mich also mehr als bestätigt in meiner damaligen Behauptung. Gleiche Rohleistung und einfach nur mehr RAM? Really?

Viele User scheinen hier etwas den Hang zur Realität verloren zu haben. Ist ja schön, wenn man sich als Enthusiast zählt und jedes erdenkliche Spiel in 4k bei maximalen Reglern spielen will, aber bitte mal die Kirche im Dorf lassen, so langsam nervt es bzw. zeugt m.E. einfach nur von Ahnungslosigkeit.
Weil dies ein freies Land ist.

Heute gibt es KI Tools zur Grafik/Videobearbeitung, bei denen 10GB komplett ausgelastet werden. Ich habe ein KI Tool, mit dem ich Videos in eine höhere Framerate upgraden kann, dass aber ab 720p schlapp macht, weil der Videospeicher voll ist. Image enhancement jeder Art lastet den Speicher heute vollkommen aus und es wird jetzt immer mehr Tools auf Basis von Deep Learning geben. Photoshop 2021 hat gerade gestern etliche KI image enhancement Filter hinzugefügt.

Die GPU ist für KI Berechnungen gedacht, nicht nur für Spiele. Deshalb gibt es Tensor Cores etc. Aber es hängt total am RAM und hier nicht mehr zu haben als in der letzten Generation ist nicht zeitgemäß.
 
Warum werden solche Kommentare hier eigentlich noch geduldet? Hier meldet sich irgendeiner zu Wort und behauptet einfach mal über die Köpfer aller Nvidia Ingenieure, 10 GB VRAM seien "viel zu wenig". Selbst heute sind 8 GB noch völlig ausreichend für 1440p in den gängigen Spielen, Ausnahmen gibts immer, die man mit entsprechenden Reglern bei minimalen Verlusten dann zu 100% genießen kann.

20 GB sind völliger Schwachsinn und überdimensioniert und ich sagte von Anfang an, dass diese GPU nie kommen wird weil sie keinen Sinn macht, fühle mich also mehr als bestätigt in meiner damaligen Behauptung. Gleiche Rohleistung und einfach nur mehr RAM? Really?

Viele User scheinen hier etwas den Hang zur Realität verloren zu haben. Ist ja schön, wenn man sich als Enthusiast zählt und jedes erdenkliche Spiel in 4k bei maximalen Reglern spielen will, aber bitte mal die Kirche im Dorf lassen, so langsam nervt es bzw. zeugt m.E. einfach nur von Ahnungslosigkeit.
Sorry Kollesche aber der hat Leider Recht!

Scheinbar hast Du den Trend von Hochaufloesenden Texturen etwas verpennt, kann das Sein!? (und BTW, wir schreiben das Jahr 2020!)
Ich habe eine 1080Ti mit 11GB (Release 2017) die ich vor 2 Jahren schon in 2560x1080 (21:9) schnell auf ueber 8GB gertrieben hab.
Es als Logisch anzusehen mehr Als 3 Jahre spaeter eine Graka rauszubringen mit weniger VRAM als die VOR letzte Generation ist auch nicht ganz Gesund. Nvidia will nur Ihr DLSS pushen weil's VRAM schonend ist, ich moechte aber nicht gezwungen werden zu DLSS greifen zu muessen.
Und Du entscheidest hier schonmal garnicht in welchen Aufloesungen wir zu Spielen haben, klar!?
Zock weiter dein Fortnite und Minesweeper in FHD.
Aber wer bin ich schon mit meinen 38Jahren und 31 Jahren PC HW/SW Erfahrung... Ich bin nur ein Spacken wie alle anderen die von nix Ahnung haben.

EDIT: Mittwoch 28. Oktober 2020

Oh Nein!!! Was haben wir denn hier??? 8GB VRAM fuehren zu Engpaessen, Tja, Wer haette das denn bitteschoen Ahnen koennen??? Also das Ueberrascht micht jetzt voellig. Krass!!!

(von PCGH Getestet und sichtbar gemacht. [ BTW, PCGH ist DIE HW Site meines Vertrauens und meine Referenz. ])

 
Zuletzt bearbeitet:
Weil dies ein freies Land ist.

Heute gibt es KI Tools zur Grafik/Videobearbeitung, bei denen 10GB komplett ausgelastet werden. Ich habe ein KI Tool, mit dem ich Videos in eine höhere Framerate upgraden kann, dass aber ab 720p schlapp macht, weil der Videospeicher voll ist. Image enhancement jeder Art lastet den Speicher heute vollkommen aus und es wird jetzt immer mehr Tools auf Basis von Deep Learning geben. Photoshop 2021 hat gerade gestern etliche KI image enhancement Filter hinzugefügt.

Die GPU ist für KI Berechnungen gedacht, nicht nur für Spiele. Deshalb gibt es Tensor Cores etc. Aber es hängt total am RAM und hier nicht mehr zu haben als in der letzten Generation ist nicht zeitgemäß.

Die 3080 ist aber auch keine Workstation Karte, das darf man nicht vergessen. Zumal dieser extreme Schub an VRam erst von der 980/Ti auf die 1080/Ti passiert ist.

Die 3090 soll quasi die Titan ersetzen, nicht jedoch die 3080. Bitte verwechsel das nicht. Nvidia hatte das damals zur Beschneidung der Dual Precision Leistung der normalen GTX im Gegensatz zur damaligen Titan eigentlich klar gemacht.

Ich möchte dazu sagen, dass Selbst Star Citizen in WQHD nur knapp 7-7,5GB VRam benötigt. Und die Texturen sind mMn. die besten, die ein Spiel jemals hatte.
 
Das 10 oder 8gb vram auf lange Sicht nicht reichen sagt einen die Erfahrung vergangener Konsolen gen wechsel.
Das war 2006 so 2013 und 2017 so.
2006 von üblichen 128mb musste auf 512mb erhöht werden ab 2007 mit 256mb war man Minimum bei neueren games.
2013 reichten 1gb vram ab 2014 musste es min 2gb sein und ab 2015 sogar 4gb
2017 min 4gb vram und 2018 min 6gb

Aktuell reichen die 8 oder 10gb vram für 1080p bis 1440p
Obwohl hier die Auflösung nebensächlich ist da games immer noch auf einen Auflösung hin designet werden.
Und nur diese wird auch engine intern berechnet
daher kommen solche wunder wie 4k mit 8gb vram her.
Weil man intern mit 720p rendert

Verwechselt nicht pixeldichte mit Geometrie oder texturbittiefe.
Letztere bringt bessere Grafik erstere weniger alaising.

DXR kann selbst bei 480p deutliche bessere optik bringen siehe quake2 rtx demo oder minecraft rtx.
Erst die neuen engine die auf XSX und PS5 designet werden zeigen neue Grafikgefilde und neue Möglichkeiten.
Was echt schade ist das man physx von nvidia aufgekauft wurde, Physik in games hätte einiges am gameplay geändert jetzt ist es nur noch optisch nett.
bei dxr allerdings könnten sich games deutlich früher den markt erreichejn weil man viel arbeit spart.
GI und Reflexionen sind quasi das optimum man muss nur dann die level dahingehend designen hat aber dnn keine Kontrolle mehr über die Beleuchtung.
Was auch Nachteilhaft sein kann. aber man spart sich shadowmaps lightmaps SSao maps und die suche nach bugs.
Darum wird sich auf dauer dxr durchsetzen. Es müssen sich nur noch die game engines darauf angepasst werden. Und UE5 macht den Anfang.~2024 kommen erste spiele.
Bis dahin wird turing sowie ampere Alteisen sein, wo ampere noch gerade ausreicht aber turing zu langsam sein wird.
Was vram angeht bin ich mir sicher das ab 2022 8gb vram arg eng werden.und quasi das Minimum darstellen wird.
Ideal wäre für mich 12gb vram mit einer rtx3060 was sicherlich irgendwann 2021 kommen wird
Die frage stellt sich mir nur noch kann ich solange warten oder beiße ichn Apfel und kaufe eine gpu mit 8gb vram
Den bis 2024 werden diese reichen für1080p allerdings nicht max textures.
Das wäre dieselbe situation wie 2013 wo 2 vs 4gb mir dann 3 Jahre herabgesetzte Texturen bedeutete.

bei gpu kauf geht es um Kommende spiele die derzeitigen laufen meist auf der vorhandenen GPu ausreichend gut und aktuell sogar meist in max Optik bei 1080p.
Das war nicht immer so von 2000 bis 2006 musste man quasi halbjährlich upgraden um die max Optik zu haben.
Dann kam tesla akä g80 als 8800gtx
Dann war ruhe bis 2009
Die preise von damals hätte ich gerne wieder
high end 499€ zwei sku tiefer gleicher chip 279€
Und das war das schnellste was man 2007 kaufen konnte
q3/2009 high end 399€ hd5870 kaum verfügbar bis Mitte 2010 gleicher chip hd5850 299€ auch kaum verfügbar.
Ich spreche hier von einer GPU klasse die ebenbürtig zu heutigen titan ist
Oder anders gesagt
Damals max 499€ heute 1499€
Der dollar war zu der zeit etwas unter druck 1-1,49$
Davon ab der Euro an Sich ist völlig unterbewertet dieser müsste bei 1,69$ sein
So nebenbei die Bankenkrise ist nicht vorbei.
Es wird auf lange Sicht ein reset geben müssen. Und nein es werden Staaten entschuldet sowie firmen aber privat Leuten geht alles verloren.
Man nennt es auch Währungsreform
 
Zuletzt bearbeitet:
Ich würde Mal böse behaupten das dass Hauptproblem Samsung ist... Die schaffen es nicht genug Chips in ausreichender Qualität herzustellen und selbst Nvidia läuft da hinterher.
Umsonst geistern hier nicht Gerüchte rum das Nvidia nächstes Jahr Ampere in 7nm von nem anderen Chip Hersteller rausbringen will.

Ich denke Mal das Nvidia mit Samsung ganz schön auf die Schnauze gefallen ist.. wenn man bedenkt das im Moment keine 10% der Bestellungen überhaupt ausgeliefert sind..
 
Zurück