• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080 20 GiB und RTX 3070 16 GiB angeblich gestrichen

Pilo

Freizeitschrauber(in)
Nvidias Plan: "Probieren wir es dieses mal komplett ohne Plan."

P.S. Zitat: "Kein Operationsplan reicht mit einiger Sicherheit über das erste Zusammentreffen mit der feindlichen Hauptmacht hinaus." von Helmuth Karl Bernhard von Moltke (1800-1891)
 
Zuletzt bearbeitet:

Incredible Alk

Moderator
Teammitglied
Die meisten Gamer werden das Spiel sowieso in FHD ohne RT spielen
Stimmt - die meisten Gamer kaufen aber auch keine 800€ Grafikkarten.
Der Anspruch ist in der Zielgruppe halt ein anderer. Wenn ich wenns blöd kommt nen vierstelligen Betrag für eine Grafikkarte ausgebe möchte ich auch den Texturqualität-Regler ganz rechts haben ohne dass wild nachladegeruckelt wird. Weil wenn ich "nur" auf hoch statt Ultra spiele und RT falls vorhanden höchstens mal auf medium nutze kann ich auch ne 350€-Karte kaufen, die kann das auch. UNd wenns nur FullHD sein soll gehts auch noch deutlich billiger.

Meine Frau spielt auf ner GTX1660Ti in WQHD - und da sind mit hohen bis sehr hohen Einstellungen meist konstante 60 fps drin. Ich habe die praktisch gleiche Performance mit ner RTX2080 - nur eben in 4K. Wenn da jetzt größere/bnessere Texturen und/oder aufwendigere Effekte oder sonstwas dazukommt nippeln beide Karten aber mächtig ab. Aktuell bei mir zuerst weil die 8GB nicht mehr reichen, die Rohleistung ist noch ok.
 

Blowfeld

PC-Selbstbauer(in)
Denke das die 10 GB für mich bestimmt 4 Jahre reichen habe ja nur 3440X1440 Auflösung.
Von daher brauche ich keine 20GB
Kann NV da verstehen denn nächstes Jahr kommt wieder eine neue die ja etwas mehr können muss als die 3080!
Und so kurz nach Vorstellung der 3080 schon ne bessere rauszubringen ist Geld Verschwendung von NV.
Dann lieber das Geld in die nächste Generation pumpen und gut ist.
Und wer 4K spielen will mit Max Settings und Mods der kann sich ja ne 3090 kaufen .
Meine Meinung.

Denke auch auf 3440x1440 wird das hier und da eng in den nächsten 2 Jahren, wenn man die Karte ausreizen und grafische Schmankerl mitnehmen will. :-|
 

Xentinel

Komplett-PC-Aufrüster(in)
Also mir werden die 10GB bis rtx 5080 reichen. Im schlimmsten Fall geht man von Ultra Texturen einfach auf sehr hoch und das sollte dann eigentlich ausreichen.
 

Basileukum

Software-Overclocker(in)
Weise Entscheidung von Nvidia: Eine 20GB 3080 SKU würde bei 0 Mehrlesitung, sehr hohem Preis und unnötigem VRAM nur die RTX 3090 Verkäufe kannibalisieren. Sie für unter 999€ anzubieten, wäre nicht wirtschaflich. Gleichzeitig wäre eine 16GB 3070 ohne die 20GB RTX 3080 nicht vermittelbar. Es ist besser preislich gut positionierte Karten weiterzuverkaufen, um gleich um die Ecke mit einer RTX 4000er Serie daherzukommen, die sinnvolle Speicherbestückung erlaubt (12GB oder 16GB) und auf kleinerem/günstigerem Chip basiert.
Ich würde Dir zustimmen in dem Bereich, daß Nvidia gesteckte Ziele nicht erreicht. "Wirtschaftlich" sind die kleinen Plastikecken mit Sicherheit schon ab 500 Euronen, das gilt auch für eine 3090. Tritt n Schritt zurück atme tief durch, laß Deine Konditionierung und Dein Meinen zurück, und schau Dir einfach mal das Ding an.

Die Frage ist nicht ob wirtschaftlich so ein kleines Eck Elektroschrott bei ein paar hundert Euro angeboten werden können, sondern wo da in der Wertschöpfungskette mein Geld versandet.
 

wari

Software-Overclocker(in)
Das waren die einzigen Karten, die Sinn ergeben haben. 10GB ist viel zu wenig heutzutage, wo KI Tools überall aufpoppen und den GPU Speicher an seine Grenzen bringen.

Warum werden solche Kommentare hier eigentlich noch geduldet? Hier meldet sich irgendeiner zu Wort und behauptet einfach mal über die Köpfer aller Nvidia Ingenieure, 10 GB VRAM seien "viel zu wenig". Selbst heute sind 8 GB noch völlig ausreichend für 1440p in den gängigen Spielen, Ausnahmen gibts immer, die man mit entsprechenden Reglern bei minimalen Verlusten dann zu 100% genießen kann.

20 GB sind völliger Schwachsinn und überdimensioniert und ich sagte von Anfang an, dass diese GPU nie kommen wird weil sie keinen Sinn macht, fühle mich also mehr als bestätigt in meiner damaligen Behauptung. Gleiche Rohleistung und einfach nur mehr RAM? Really?

Viele User scheinen hier etwas den Hang zur Realität verloren zu haben. Ist ja schön, wenn man sich als Enthusiast zählt und jedes erdenkliche Spiel in 4k bei maximalen Reglern spielen will, aber bitte mal die Kirche im Dorf lassen, so langsam nervt es bzw. zeugt m.E. einfach nur von Ahnungslosigkeit.
 

Fox-RLP-

Komplett-PC-Käufer(in)
Also ich hab eigentlich nur auf die 20GB Version der 3080 gewartet. Wenn NVIDIA das jetz tatsächlich nicht bringt, können die mich mal und ich sage hallo AMD.
Und dieses Piperlapup von wegen überdimensioniert und blablabla. Manche meinen Sie haben die Weisheit mit Löffeln gefüttert und wissen was der Einzelne mit einem solchen Kauf bezweckt. Und das nervt mich! In 1 bis 2 Jahren wird ein solcher Speicher ohnehin locker ausgereizt. Aber dann kann man ja nochmal ne neue Karte kaufen. Und wieder schön blechen. Ich will ne Karte für die nächsten 6 oder 7 Jahre und das wäre in meinen Augen die 3080 20GB. Kommt die nichtwird NVIDIA nicht nur mich sondern viele Kunden verlieren.
 
Zuletzt bearbeitet:

g-13mrnice

Software-Overclocker(in)
Also mir werden die 10GB bis rtx 5080 reichen. Im schlimmsten Fall geht man von Ultra Texturen einfach auf sehr hoch und das sollte dann eigentlich ausreichen.

Bei Hardware zu einem doch eher stolzem Preis und der Eigenvermarktung mit " 4K Gaming"? Niemals! :)
2GB + sind zu mau. RTX3080 mit 16GB Ram wäre perfekt gewesen. Dann hätte das ganze Marketing_bla_bla auch besser gezogen. "Doppelte Performance" , "Doppelter Speicher", "Doppelter Stromverbrauch". ^^

Aber so jetzt? Das ist mM nach Taktik ala´ .. joar schnell isse... aber lieber Kunde, wir wollen dennoch das du nach 2 Jahren neu kaufst / kaufen musst.

Aktuell sehe ich damit keinen Grund von WQHD auf 4k Gaming zu wechseln. Was unterm Strich schade, aber kein Weltuntergang ist. beim nächsten Mal dann.
 

Kondar

BIOS-Overclocker(in)
...Du meinst also NVidia hat von AMD schonmal Karten erhalten, damit sie sich in den Schlaf weinen können?
Ja, ergibt total Sinn [nicht].

:-S
Jensen war mit ein paar Saufkumpanen auf der Kirmes und fanden dort ein Wahrsager welcher meinte in
dem China Imbiss gäbe es gaaaaanz tolle Glückskekse.
Essen war etwas teurer (XXXXXX €) aber dafür war man unter sich und in dem Glückskeks standen ganz tolle Dinge.

Alternativ kann man Deine LiLaLaune-nur-Gutmenschen These nehmen das es noch nie
Industrie-"Datenabgleiche" :-o gab.
Was es auch war; innerhalb von ~2 Wochen kann keine Firma ein neuen Chip entwickeln, den produzieren (lassen)
und versuchen den in den Markt zu drücken.
Wenn NV so sicher wäre AMD ohne Probleme (weiterhin) klein zu halten sähe die akt. Produktionsline von NV anders aus.

Beitrag könnte Spuren von Übertreibung, nicht ernst gemeinten Aussagen und Ironie enthalten.
 

fire2002de

Software-Overclocker(in)
glaube ich nicht, ihr sollt wahrscheinlich erst mal die "vermurksten" 10GB karten kaufen und später lieber noch mal eine mit mehr Speicher ;) ich glaube fest daran das eine zumindest 3070 16 gb ti/super kommen wird ^^
 

Kalaro

Komplett-PC-Käufer(in)
Warum werden solche Kommentare hier eigentlich noch geduldet? Hier meldet sich irgendeiner zu Wort und behauptet einfach mal über die Köpfer aller Nvidia Ingenieure, 10 GB VRAM seien "viel zu wenig". Selbst heute sind 8 GB noch völlig ausreichend für 1440p in den gängigen Spielen, Ausnahmen gibts immer, die man mit entsprechenden Reglern bei minimalen Verlusten dann zu 100% genießen kann.

20 GB sind völliger Schwachsinn und überdimensioniert und ich sagte von Anfang an, dass diese GPU nie kommen wird weil sie keinen Sinn macht, fühle mich also mehr als bestätigt in meiner damaligen Behauptung. Gleiche Rohleistung und einfach nur mehr RAM? Really?

Viele User scheinen hier etwas den Hang zur Realität verloren zu haben. Ist ja schön, wenn man sich als Enthusiast zählt und jedes erdenkliche Spiel in 4k bei maximalen Reglern spielen will, aber bitte mal die Kirche im Dorf lassen, so langsam nervt es bzw. zeugt m.E. einfach nur von Ahnungslosigkeit.
Weil dies ein freies Land ist.

Heute gibt es KI Tools zur Grafik/Videobearbeitung, bei denen 10GB komplett ausgelastet werden. Ich habe ein KI Tool, mit dem ich Videos in eine höhere Framerate upgraden kann, dass aber ab 720p schlapp macht, weil der Videospeicher voll ist. Image enhancement jeder Art lastet den Speicher heute vollkommen aus und es wird jetzt immer mehr Tools auf Basis von Deep Learning geben. Photoshop 2021 hat gerade gestern etliche KI image enhancement Filter hinzugefügt.

Die GPU ist für KI Berechnungen gedacht, nicht nur für Spiele. Deshalb gibt es Tensor Cores etc. Aber es hängt total am RAM und hier nicht mehr zu haben als in der letzten Generation ist nicht zeitgemäß.
 

Special_k

Schraubenverwechsler(in)
Warum werden solche Kommentare hier eigentlich noch geduldet? Hier meldet sich irgendeiner zu Wort und behauptet einfach mal über die Köpfer aller Nvidia Ingenieure, 10 GB VRAM seien "viel zu wenig". Selbst heute sind 8 GB noch völlig ausreichend für 1440p in den gängigen Spielen, Ausnahmen gibts immer, die man mit entsprechenden Reglern bei minimalen Verlusten dann zu 100% genießen kann.

20 GB sind völliger Schwachsinn und überdimensioniert und ich sagte von Anfang an, dass diese GPU nie kommen wird weil sie keinen Sinn macht, fühle mich also mehr als bestätigt in meiner damaligen Behauptung. Gleiche Rohleistung und einfach nur mehr RAM? Really?

Viele User scheinen hier etwas den Hang zur Realität verloren zu haben. Ist ja schön, wenn man sich als Enthusiast zählt und jedes erdenkliche Spiel in 4k bei maximalen Reglern spielen will, aber bitte mal die Kirche im Dorf lassen, so langsam nervt es bzw. zeugt m.E. einfach nur von Ahnungslosigkeit.
Sorry Kollesche aber der hat Leider Recht!

Scheinbar hast Du den Trend von Hochaufloesenden Texturen etwas verpennt, kann das Sein!? (und BTW, wir schreiben das Jahr 2020!)
Ich habe eine 1080Ti mit 11GB (Release 2017) die ich vor 2 Jahren schon in 2560x1080 (21:9) schnell auf ueber 8GB gertrieben hab.
Es als Logisch anzusehen mehr Als 3 Jahre spaeter eine Graka rauszubringen mit weniger VRAM als die VOR letzte Generation ist auch nicht ganz Gesund. Nvidia will nur Ihr DLSS pushen weil's VRAM schonend ist, ich moechte aber nicht gezwungen werden zu DLSS greifen zu muessen.
Und Du entscheidest hier schonmal garnicht in welchen Aufloesungen wir zu Spielen haben, klar!?
Zock weiter dein Fortnite und Minesweeper in FHD.
Aber wer bin ich schon mit meinen 38Jahren und 31 Jahren PC HW/SW Erfahrung... Ich bin nur ein Spacken wie alle anderen die von nix Ahnung haben.

EDIT: Mittwoch 28. Oktober 2020

Oh Nein!!! Was haben wir denn hier??? 8GB VRAM fuehren zu Engpaessen, Tja, Wer haette das denn bitteschoen Ahnen koennen??? Also das Ueberrascht micht jetzt voellig. Krass!!!

(von PCGH Getestet und sichtbar gemacht. [ BTW, PCGH ist DIE HW Site meines Vertrauens und meine Referenz. ])

 
Zuletzt bearbeitet:

xHaru

Software-Overclocker(in)
Weil dies ein freies Land ist.

Heute gibt es KI Tools zur Grafik/Videobearbeitung, bei denen 10GB komplett ausgelastet werden. Ich habe ein KI Tool, mit dem ich Videos in eine höhere Framerate upgraden kann, dass aber ab 720p schlapp macht, weil der Videospeicher voll ist. Image enhancement jeder Art lastet den Speicher heute vollkommen aus und es wird jetzt immer mehr Tools auf Basis von Deep Learning geben. Photoshop 2021 hat gerade gestern etliche KI image enhancement Filter hinzugefügt.

Die GPU ist für KI Berechnungen gedacht, nicht nur für Spiele. Deshalb gibt es Tensor Cores etc. Aber es hängt total am RAM und hier nicht mehr zu haben als in der letzten Generation ist nicht zeitgemäß.

Die 3080 ist aber auch keine Workstation Karte, das darf man nicht vergessen. Zumal dieser extreme Schub an VRam erst von der 980/Ti auf die 1080/Ti passiert ist.

Die 3090 soll quasi die Titan ersetzen, nicht jedoch die 3080. Bitte verwechsel das nicht. Nvidia hatte das damals zur Beschneidung der Dual Precision Leistung der normalen GTX im Gegensatz zur damaligen Titan eigentlich klar gemacht.

Ich möchte dazu sagen, dass Selbst Star Citizen in WQHD nur knapp 7-7,5GB VRam benötigt. Und die Texturen sind mMn. die besten, die ein Spiel jemals hatte.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Das 10 oder 8gb vram auf lange Sicht nicht reichen sagt einen die Erfahrung vergangener Konsolen gen wechsel.
Das war 2006 so 2013 und 2017 so.
2006 von üblichen 128mb musste auf 512mb erhöht werden ab 2007 mit 256mb war man Minimum bei neueren games.
2013 reichten 1gb vram ab 2014 musste es min 2gb sein und ab 2015 sogar 4gb
2017 min 4gb vram und 2018 min 6gb

Aktuell reichen die 8 oder 10gb vram für 1080p bis 1440p
Obwohl hier die Auflösung nebensächlich ist da games immer noch auf einen Auflösung hin designet werden.
Und nur diese wird auch engine intern berechnet
daher kommen solche wunder wie 4k mit 8gb vram her.
Weil man intern mit 720p rendert

Verwechselt nicht pixeldichte mit Geometrie oder texturbittiefe.
Letztere bringt bessere Grafik erstere weniger alaising.

DXR kann selbst bei 480p deutliche bessere optik bringen siehe quake2 rtx demo oder minecraft rtx.
Erst die neuen engine die auf XSX und PS5 designet werden zeigen neue Grafikgefilde und neue Möglichkeiten.
Was echt schade ist das man physx von nvidia aufgekauft wurde, Physik in games hätte einiges am gameplay geändert jetzt ist es nur noch optisch nett.
bei dxr allerdings könnten sich games deutlich früher den markt erreichejn weil man viel arbeit spart.
GI und Reflexionen sind quasi das optimum man muss nur dann die level dahingehend designen hat aber dnn keine Kontrolle mehr über die Beleuchtung.
Was auch Nachteilhaft sein kann. aber man spart sich shadowmaps lightmaps SSao maps und die suche nach bugs.
Darum wird sich auf dauer dxr durchsetzen. Es müssen sich nur noch die game engines darauf angepasst werden. Und UE5 macht den Anfang.~2024 kommen erste spiele.
Bis dahin wird turing sowie ampere Alteisen sein, wo ampere noch gerade ausreicht aber turing zu langsam sein wird.
Was vram angeht bin ich mir sicher das ab 2022 8gb vram arg eng werden.und quasi das Minimum darstellen wird.
Ideal wäre für mich 12gb vram mit einer rtx3060 was sicherlich irgendwann 2021 kommen wird
Die frage stellt sich mir nur noch kann ich solange warten oder beiße ichn Apfel und kaufe eine gpu mit 8gb vram
Den bis 2024 werden diese reichen für1080p allerdings nicht max textures.
Das wäre dieselbe situation wie 2013 wo 2 vs 4gb mir dann 3 Jahre herabgesetzte Texturen bedeutete.

bei gpu kauf geht es um Kommende spiele die derzeitigen laufen meist auf der vorhandenen GPu ausreichend gut und aktuell sogar meist in max Optik bei 1080p.
Das war nicht immer so von 2000 bis 2006 musste man quasi halbjährlich upgraden um die max Optik zu haben.
Dann kam tesla akä g80 als 8800gtx
Dann war ruhe bis 2009
Die preise von damals hätte ich gerne wieder
high end 499€ zwei sku tiefer gleicher chip 279€
Und das war das schnellste was man 2007 kaufen konnte
q3/2009 high end 399€ hd5870 kaum verfügbar bis Mitte 2010 gleicher chip hd5850 299€ auch kaum verfügbar.
Ich spreche hier von einer GPU klasse die ebenbürtig zu heutigen titan ist
Oder anders gesagt
Damals max 499€ heute 1499€
Der dollar war zu der zeit etwas unter druck 1-1,49$
Davon ab der Euro an Sich ist völlig unterbewertet dieser müsste bei 1,69$ sein
So nebenbei die Bankenkrise ist nicht vorbei.
Es wird auf lange Sicht ein reset geben müssen. Und nein es werden Staaten entschuldet sowie firmen aber privat Leuten geht alles verloren.
Man nennt es auch Währungsreform
 
Zuletzt bearbeitet:

Blackfirehawk

Freizeitschrauber(in)
Ich würde Mal böse behaupten das dass Hauptproblem Samsung ist... Die schaffen es nicht genug Chips in ausreichender Qualität herzustellen und selbst Nvidia läuft da hinterher.
Umsonst geistern hier nicht Gerüchte rum das Nvidia nächstes Jahr Ampere in 7nm von nem anderen Chip Hersteller rausbringen will.

Ich denke Mal das Nvidia mit Samsung ganz schön auf die Schnauze gefallen ist.. wenn man bedenkt das im Moment keine 10% der Bestellungen überhaupt ausgeliefert sind..
 

becool88

Komplett-PC-Käufer(in)
Vielleicht sollte man sich hier nicht direkt beefen sondern schön beim Thema bleiben. Für wen 10GB reichen ist wohl einfach nicht so einfach zu erklären. Persönlich finde ich es auch wenig, besonders in Hinblick für die Zukunft. Da will man ja seine 7-800€ gut angelegt haben.

@Topic
Also es sieht stark nach irgendwelchen Problemen in der Produktion oder sowas aus. Für alle 3080 Käufer bin ich irgendwie froh da es echt frech ist gleich nach release alle heiß gemacht zu haben und Käufer die schon lange upgraden wollten zu dem Kauf gelockt zu haben. Dann später aber eine 20gb Karte.. ok.. why...

Andersrum nervts natürlich auch die die dann auf die Karte spekuliert haben.
 

h_tobi

Lötkolbengott/-göttin
..................
Darüber hinaus klafft zwischen den 10 GiB und 24 GiB weiterhin eine große Lücke, in der AMD mit 16 GiB recht Mittig auf etwas zumindest SweetSpot-Ähnlichem sitzt, d. h. nVidia wird hier auf jeden Fall reagieren und noch Modelle mit mehr Speicher bringen. ..........................

Solange die Konsumlemminge wie bekloppt die 10GB Version zu horrenden Preisen kaufen,
sollte NV keinen Bedarf haben 10GB mehr zum "kleineren"² Preis zu verkaufen.
Lieber 1 mehr mit 10GB zum Vollpreis als 1 mit 20GB zum angepassten Preis. ;)


²im Verhältnis zur Rammenge.
 

shaboo

Freizeitschrauber(in)
"... Nachdem bereits die Geforce RTX 3070/Ti mit 16 GiByte Speicher gestrichen worden sein soll, dünnt sich das Angebot an Karten mit mehr Speicher bei Nvidia, über die wochenlang spekuliert wurde, merklich aus. ..."

Wenn es weder eine 16GB-3070 noch eine 20GB-3080 geben wird, dann dünnt sich das Angebot an Karten mit mehr Speicher bei Nvidia nicht aus, sondern es ist wohl eher komplett nicht mehr existent. "Ausdünnen" ist für mich was Anderes.

Die wahren Gründe hierfür wären natürlich schon interessant, aber die wird Nvidia ja wohl eher mit ins Firmengrab nehmen. Würde man diese Karten erstens für nötig halten, um gegen die Konkurrenz von AMD bestehen zu können, und würde sie zweitens auch in halbwegs vernünftigen Stückzahlen und zu akzeptablem Preis herstellen können, würde man sie wohl nicht streichen, also scheint es wohl an mindestens einem dieser beiden Punkte zu scheitern.

Vielleicht hat man ja bei Nvidia mittlerweile genauere Zahlen zur Big Navi-Performance und hält diese Varianten nicht mehr länger für nötig. Anderenfalls hätte es ja auch noch die Möglichkeit gegeben, die 8/10 GB-Modelle einfach komplett vom Markt zu nehmen und durch die 16/20 GB-Modelle zu ersetzen, aber das scheint man ja auch nicht vorzuhaben.

Mir egal, bei mir muss auf jeden Fall Anfang nächsten Jahres endlich was Neues ins Haus, das dann auch wieder ein paar Jahre halten muss. Gibt dann halt entweder 16 GB von AMD oder 10 GB von Nvidia und gegebenenfalls nur WQHD statt 4k, spart dann halt auch noch mal einen Batzen beim Monitorkauf. Noch mal ein Jahr länger auf einen Ampere-Refresh oder 40xx warten werde ich auf jeden Fall nicht. Das Leben ist einfach zu kurz, um das Warten ständig zu verlängern ...
 

xxRathalos

Freizeitschrauber(in)
Könnte auch sein das man mit einer 3080 mit 20GB keine P/L-Mäßige Konkurrenz zum AMD Produkt hat.

Die 20GB Version der 3080 wird alleine wegen dem Speicher um die 150€ teurer werden(mit selber Leistung und noch mehr Verbrauch?)

bsp.
AMD Karte mit 16GB auf ungefähr gleichem Level/Minimalst schlechter für 599€ UVP
oder die NVIDIA mit nur wenig Mehrleistung und 4GB mehr VRAM für 849€ UVP

Ob da viele den 250€ aufschlag für NVIDIA zahlen? Mit den 16GB hat AMD echt einen "Sweet Spot" was VRAM angeht.

mfg Ratha
 
Zuletzt bearbeitet:

C_17

Freizeitschrauber(in)
Solange die Konsumlemminge wie bekloppt die 10GB Version zu horrenden Preisen kaufen,
sollte NV keinen Bedarf haben 10GB mehr zum "kleineren"² Preis zu verkaufen.
Der größte Teil der Leute, welche eh auf eine RTX 3080 geschielt haben, hat sowieso in den ersten paar Tagen bestellt und sich noch gute Preise gesichert.
Die Leute wäre ja blöd, das jetzt zu stornieren. Ich hab auch eine TUF OC für 759 € bekommen. Wenn ich jetzt storniere kann ich gleich auf den refresh 2021 warten, denn für den preis bekomme ich die ja nicht nochmal.
 

BmwM3

PC-Selbstbauer(in)
Dann kann AMD für die 16 GB Karte 899 Euro verlangen, Straßenpreis dann ab 1199 Euro. Das ist nicht gut.
 

xDave78

Software-Overclocker(in)
Warum werden solche Kommentare hier eigentlich noch geduldet? Hier meldet sich irgendeiner zu Wort und behauptet einfach mal über die Köpfer aller Nvidia Ingenieure, 10 GB VRAM seien "viel zu wenig".
Also an Dir ist ja offensichtlich so Einiges vorbeigegangen - allem voran der Kelch mit Benimmregeln.
12GB wären noch ertragbar gewesen. 16GB habe ich eigentlich erwartet. 10GB ist das, was die kommenden Konsolen an VRAM haben und meiner Meinung nach sind deren Specs das untere Limit, was eine PC-Hardware in 2020 leisten muss damit es sich überhaupt lohnt sie in den Warenkorb zu packen. Wenn Du Dir 700€ Hardware kaufst um dann gleich mal zu schauen ob das Spiel endlich in Medium Details läuft -bitteschön, so anspruchslos muss man halt auch erstmal sein.
 

Albatros1

Freizeitschrauber(in)
Dann hoffe ich mal, dass die 20GB Karten bis Februar doch noch verfügbar werden, sonst wird es dieses mal wohl keine Nvidiakarte, auch wenn AMD mit 3 Jahren Garantie weit weg von den eigentlich angestrebten 10 Jahren von EVGA (zu blöd, dass die keine AMD Karten führen) ist.

Aber bei 10GB und 10 Jahren Garantie und 16GB und 3 Jahren Garantie gewinnen einfach die zusätzlichen 6GB, RTX und DLSS hin oder her. (wobei ich mal hoffe, dass AMD da irgendwann eine eigene KI Upscalinglösung im Programm hat).
Es kommt darauf an was in den Garantiebestimmungen steht. 10 Jahre können bei Defekt den meisten gar nichts bringen. Nachweis daß der Fehler von Anfang an existent war, nicht selbstverschuldet, kein OC, abzüglich Nutzungsdauer und zuletzt.....wird die Karte 10 Jahre lang überhaupt benutzt.
 

SLNC

Komplett-PC-Aufrüster(in)
Hi, dem kann ich nur zustimmten. Wollte auch die 3080 mit 20 GB kaufen. Aktuell die 3080 zu bekommen, ist wie Lotto spielen.
Eigentlich hatte ich für CP2077 gerne aufgerüstet, jetzt muss es erstmal die 2080 stemmen.
Die 2080 wird CP2077 locker stemmen, aber vllt nicht mit allen RT Features und natürlich nicht auf 4K ohne DLSS.
 

weisserteufel

Freizeitschrauber(in)
Das ist doch *********************. Jetzt kaufen uns die vielen Nvidianer noch die AMD Karten weg. :D
Spaß beiseite. Die 3070 16GB wäre die einzige Nvidia Karte, die für mich interessant erschien, wenn die wegfällt, brauch ich mir zum Thema Nvidia gar keine Gedanken machen.
Mir tut´s nur um die Leute Leid, die wegen ihres G-Sync Monitors bei Nvidia gefangen sind.
 

Bogo36

Freizeitschrauber(in)
Das wars dann für mich mit der aktuellen Nvidia Generation. Die 3080 mit 20 GB wäre perfekt gewesen. Nun wird auf AMD geschaut.
 

xHaru

Software-Overclocker(in)
Also an Dir ist ja offensichtlich so Einiges vorbeigegangen - allem voran der Kelch mit Benimmregeln.
12GB wären noch ertragbar gewesen. 16GB habe ich eigentlich erwartet. 10GB ist das, was die kommenden Konsolen an VRAM haben und meiner Meinung nach sind deren Specs das untere Limit, was eine PC-Hardware in 2020 leisten muss damit es sich überhaupt lohnt sie in den Warenkorb zu packen. Wenn Du Dir 700€ Hardware kaufst um dann gleich mal zu schauen ob das Spiel endlich in Medium Details läuft -bitteschön, so anspruchslos muss man halt auch erstmal sein.
Das wäre mir neu, dass die Konsolen fixe 10 GB VRam haben. Ich weiß nur, dass sie 16 GiB GDDR 6 haben, welcher wieder shared ist. Ich spekuliere da eher, dass es auf 6-8 GiB VRam heraus laufen wird, da der Rest als Ram wohl für die CPU drauf gehen wird, betrachtet man aktuelle Spiele mal etwas mehr.

Am PC werden teils ja schon 16 GB Ram knapp. Momentan ist da VRam deutlich einfacher einzusparen als System-Ram.
 

DARPA

Volt-Modder(in)
I heard a new spec of GA102, between 3080 and 3070.

Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

MTMnet

Freizeitschrauber(in)
2021,... abwarten....

hqdefault.jpg
 
Oben Unten