• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080: Weitere Bestätigung der 20-GiB-Version

-ElCritico-

Freizeitschrauber(in)
Aber erstmal andere Probleme fixen...


Immer mehr und mehr Berichte tauchen auf auf diversen Seiten. Die haben mal paar Seiten zusammengetragen.

Aber keine Sorge Leute, Abhilfe schafft man ja ganz leicht, indem ihr 100MHz runtertaktet und die GPU fast auf 2080Ti Niveau drosselt^^ Freue mich schon auf Big Navis Probleme zum Release, ärgerlich das Ganze aber keine Seltenheit.
Die Offsetgeschichte riecht zu sehr nach Netzteilproblemen. Kann sein, dass die Netzteile unterdimensioniert sind und Ampere mit dem gewaltigen Verbrauch die alten/schwachen Netzteile bloßlegt.
Ich wünsche niemandem Probleme mit ihren frischen Karten. Das wäre für mich eine Technotragödie.
 

Prozessorarchitektur

Lötkolbengott/-göttin
technisch ist eine rtx3080 mit 20gb mit der Platine nicht möglich
und nein die rtx3090 hat eine andere

Entweder die rtx3080 kommt q3 2021 mit 2gb ddr6x oder was möglich ist ein modell mit 12 statt 10gb mit vollen 384bit chip
Weil aber das letzte ehr Dumm wäre vermute ich das man eher
Ein rtx3090 Modell mit nur 320bit chip und 20gb als rtx2080ti für 1299€ gibt
 

gerX7a

Software-Overclocker(in)
technisch ist eine rtx3080 mit 20gb mit der Platine nicht möglich
und nein die rtx3090 hat eine andere

Entweder die rtx3080 kommt q3 2021 mit 2gb ddr6x oder was möglich ist ein modell mit 12 statt 10gb mit vollen 384bit chip
Weil aber das letzte ehr Dumm wäre vermute ich das man eher
Ein rtx3090 Modell mit nur 320bit chip und 20gb als rtx2080ti für 1299€ gibt

Wieso schreibst du wiederholt so einen Unsinn? Igor hat sich schon vor rund 1,5 Monaten die Existenz eines separaten PCBs für das 20 GIB-Modell bestätigen lassen. Die Frage stellt sich gar nicht. Und in "q3 2021" braucht keiner mehr eine 20 GiB-Karte, das ist viel zu spät, da AMD noch im Nov/Dez (in diesem Jahr!) mit 16 GiB aufwarten wird, so wie es aktuell aussieht. Entsprechend wird auch die 20 GiB-Variante von nVidia in dem gleichen Zeitrahmen folgen und hier können sie entweder 16Gb-BGAs Standard-GDDR6 verwenden und müssen die etwas geringere Bandbreite kompensieren oder sie werden, wie auch bei der 3090 schlicht 20 8Gb-OC-BGAs auf beiden Seiten des PCBs via Clamshell verbauen, was das deutlich wahrscheinlichere Szenario ist. Und das vor allem zeitnah, wie es zudem jetzt auch die ersten Leaks durch einige Dritthersteller zu bestätigen beginnen.
 

Zundnadel

Freizeitschrauber(in)
Wirr oder nur gewollt Verwirrend ? Aktuell wird halt alles gekauft wohl aus allen bekannten Gründen .Die GTX 3070 TI+ GTX 3080 20GB variante soll wohl eher die Turing/Ampere I Besitzer recht schnell unzufrieden mit der eigenen Errungenschaft werden lassen als nötig, unter Seriöser Nvidia Informationspolitik verstehe ich etwas anderes aber wer ist wo noch Seriös in Politik Wirtschaft Weltweit? Wen interessiert noch das eigene Geschwätz Geschreibe von Gestern ?
Hochreizen kann mich diese Branche dadurch nicht, eher das Gegentum so bleibt die Kohle auf dem Konto für echte Gelegenheiten oder Notfälle.
Das beste P /L verhältnis bietet bald eine Founders Edition zu anderer Zeit und Gelegenheit.
 

gerX7a

Software-Overclocker(in)
Mit (un)seriöser Kommunikation hat das nichts zu tun. ;-) Die 16 und 20 GiB-Modelle sind als Reaktion auf AMD gedacht, insofern kann und will nVidia hier natürlicherweise nichts vorher kommunizieren (ebenso wie AMD derzeit nichts durchsickern lässt). Darüber hinaus ist das aber auch kein echtes Problem, denn wer hier halbwegs am Ball geblieben ist, weiß schon länger von den Modellen mit dem größeren Speicher, aber was sollte da nVidia jetzt zu sagen. "Ja, da kommt noch was, nur wir sagen weder wie schnell wir diese Modelle auslegen werden noch wie viel die kosten werden." Wem sollte die Information nützen? Vertriebstechnisch wäre das völliger Unsinn. Die wollen erst auf AMD warten oder zumindest bis sie sich einigermaßen sicher sein können was kommen wird, um ihren Konter entsprechend auszurichten.
 

Bonja_Banana

PC-Selbstbauer(in)
Oh man,

ich möchte gar nicht daran denken was hier los ist wenn die 3080 mit 20 GB im Oktober eventuell vorgestellt wird und lieferbar ist. Und das für sagen wir mal 800 - 1000€. Dann geht das ganze Geheule wieder von vorne los und Nvidia ist wieder das große Problem. AMD hätte sowas ja nie getan. Ich sehs schon kommen.

Sollte die 20gb Version wirklich zwischen 800 - 1000€ landen, ist sie m. E. ein sehr guter Kompromiss was Leistung und Langzeitnutzen betrifft.
 

h_tobi

Lötkolbengott/-göttin
.......................
Und ja ich nenne DLSS2.0, weil Nvidia es hier nunmal schafft den VRAM-Bedarf um durchschnittlich 30% zu senken, bei einer Steigerung der Bildqualität. DLSS2.0 nutzt vorgerendertes 16K-Bildmaterial und integrierte Spezialfilter, die ein natives 4K-Bild im Vergleich zu einem DLSS-4K-Bild alt aussehen lassen. Das kann man shitstormen wie man will - es stimmt. Gleichzeitig steigt die Performance massiv an. Dank DLSS ist mittlerweile sogar 4K/120FPS-Gaming auf Ultra in AAA-Titeln möglich. Probiert das mal ohne DLSS.
.......................

Sei mir nicht böse, aber für mich liest es sich so, das NV DLSS benutzt, um die RAM beschnittenen Karten
weiterhin zum Vollpreis zu verkaufen. Die Leistung reicht ja, also kann ich in die Vollen gehen.
Wenn ich der Nachfolgegeneration weniger Speicher verpasse, müsste ich auch den Preis entsprechend senken.
Für 550,-€ würde ich evtl. über einen Kauf nachdenken, da ja evtl. noch ein neues NT dazu kommt,
aber die momentan künstlich erhöhten PReise für die 3080 gehen gar nicht in meinen Augen. Das steht
für mich in keinem Verhältnis zum aktuellen "Mehr"-Wert.
Da NV aber seit Jahren mit der Preispolitik durch kommt, wird sich leider in der Zukunft nichts ändern.
Ich bin gespannt, wo bei den Nutzern in Zukunft die Schmerzgrenze sitzt, das Maximum hat NV noch
nicht erreicht.
Da ich nur alle 4-5 Jahre die GPU aufrüste, wären 10GB für mich keine Option. Vor allem zu dem Preis....
 

SFT-GSG

Software-Overclocker(in)
Muss nicht an den Treibern liegen sondern eher an den zu schlechten Netzteilen.
Mit Nvidia Treibern hatte ich nur sehr selten Probleme, da konnte man dann immer den älteren nutzen.
Auch mit einer neuen Grafikkarte gehts.
Vielleicht habe auch Leute eine zu schlechte Gehäusebelüftung?

Genau, das Netzteil ist Schuld, wenn eine Karte Design bedingt Lastspitzen in Richtung 500W hat....die bösen Netzteilhersteller.....pfui sowas.:stupid::wall:

Vielleicht liegts auch am Wetter, dem Klimawandel oder Corona....aber ganz sicher nicht an Nvidia:lol:
 

Reaper896

Komplett-PC-Käufer(in)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

👀
 

SFT-GSG

Software-Overclocker(in)
Egal wie rum man es dreht ist die 3080 mit 10GB unrund. Ja, es kommt das Argument, für FHD braucht man nicht mehr Speicher. Ab WQHD kann ich aber sagen, 10GB sind auf Kante und definitiv nicht zukunftssicher.

Und wer jetzt wiederum Argumentiert 10 GB Reichen immer, DLSS blablabla dem sage ich: Dann reicht auch die 3070......
 
Zuletzt bearbeitet:

derneuemann

BIOS-Overclocker(in)
Mit (un)seriöser Kommunikation hat das nichts zu tun. ;-) Die 16 und 20 GiB-Modelle sind als Reaktion auf AMD gedacht, insofern kann und will nVidia hier natürlicherweise nichts vorher kommunizieren (ebenso wie AMD derzeit nichts durchsickern lässt). Darüber hinaus ist das aber auch kein echtes Problem, denn wer hier halbwegs am Ball geblieben ist, weiß schon länger von den Modellen mit dem größeren Speicher, aber was sollte da nVidia jetzt zu sagen. "Ja, da kommt noch was, nur wir sagen weder wie schnell wir diese Modelle auslegen werden noch wie viel die kosten werden." Wem sollte die Information nützen? Vertriebstechnisch wäre das völliger Unsinn. Die wollen erst auf AMD warten oder zumindest bis sie sich einigermaßen sicher sein können was kommen wird, um ihren Konter entsprechend auszurichten.

Hier hört mein Verständnis nach und nach aber auch auf.
Ich halte das auch schon, für eine Art und Weise, der Vermarktung, also wenn es o kommen würde, das Nvidia die Modelle mit verdoppelten Speicher bereits zwei, drei Monate nach Release der 3080 raus bringt, die nicht in Ordnung ist.

Da fängt es für mich auch an abzocke zu werden.
Wenn Nvidia auf AMD warten wollte, dann hätte man Ampere halt nach Big Navi bringen müssen. ODer eben jetzt die 3080 10GB (Beispiel) und direkt ankündigen, das man in drei Monaten halt ein 20GB Modell plant.

Anders ist es Abzocke (wenn es so gemacht wird)

Egal wie rum man es dreht ist die 3080 mit 10GB unrund. Ja, es kommt das Argument, für FHD braucht man nicht mehr Speicher. Ab WQHD kann ich aber sagen, 10GB sind auf Kante und definitiv nicht zukunftssicher.

Und wer jetzt wiederum Argumentiert 10 GB Reichen immer, DLSS blablabla dem sage ich: Dann reicht auch die 3070......

Es bleibt immer wieder, belegen ist nicht brauchen.
 

dgeigerd

Freizeitschrauber(in)
Die Offsetgeschichte riecht zu sehr nach Netzteilproblemen. Kann sein, dass die Netzteile unterdimensioniert sind und Ampere mit dem gewaltigen Verbrauch die alten/schwachen Netzteile bloßlegt.
Ich wünsche niemandem Probleme mit ihren frischen Karten. Das wäre für mich eine Technotragödie.
Jayztwocents hatte ein 1200W Netzteil dran. Das soll unterdimensioniert sein?
 

wolflux

Lötkolbengott/-göttin
Jeder der 800€+ für eine Grafikkarte ausgibt muss eins sein: Glücklich mit der Leistung und den Features die er damit bekommen hat. Nur weil du dich verarscht fühlst kann jemand anderes perfekt glücklich damit sein. Nicht jeder muss in absolut jeden Spiel das 8K Texturenpaket haben.
Man könnte es auch anders ausdrücken, jeder der 800.00€ ausgeben kann, der kann auch auf eine 3080Ti warten und sich dann das Topmodel kaufen.
Ich gehe davon aus, dass es hierbei auf 3xx.00€ mehr auch nicht mehr ankommt. ;)
Verrückt sind diese Summen trotzdem. :ugly:
Aber natürlich steckt hier durch Nvidia reine Verkaufstaktik dahinter und man sollte noch warten was hier hinterher kommt.
Wer auch vorher kaufen muss hat dann halt vorerst ........... aber hinterher kann man sich immer noch ärgern.
Das stinkt mir jedesmal, dass Nvidia nicht gleich alle Kartenmodelle offenlegt, bzw. gleichzeitig anbietet.
Hat schon etwas von Kundenverarsche.

Jetzt könnte jemand argumentieren, es liege an der Produktion bzw. je nach Ausschuss der Chipqualität.
Mag sein aber in dem heutigen Stand der Technik bezweifele ich das etwas.
 
Zuletzt bearbeitet:

SFT-GSG

Software-Overclocker(in)
Jayztwocents hatte ein 1200W Netzteil dran. Das soll unterdimensioniert sein?

Frag doch mal bei PCGH Nach, da hat doch die 3080 ein 750W Netzteil "überfordert". Und das war bestimmt kein Chinacracker.

Und unterdimensioniert ist sowas nicht. Die Frage ist doch: Warum muss ich ein 900-1000W Netzteil kaufen, nur weil die Grafikkarte für ms ein "Polster" von +200W braucht? Effizient oder Sinnvoll ist sowas nicht.

Was passiert jetzt eigentlich bei dem ALDI Stangenrechnern? Werden da nun teure 800W+ Markennetzteile verbaut? Wie siehts in Notebook aus? 240W Notebook Netzteil gibts im CAD Bereich, aber für Consumer Spielerechner?
 

Irian

Komplett-PC-Aufrüster(in)
Sei mir nicht böse, aber für mich liest es sich so, das NV DLSS benutzt, um die RAM beschnittenen Karten
weiterhin zum Vollpreis zu verkaufen.

"Unser Auto fährt zweimal so schnell mit der Hälfte an Benzin."
"Sei mir nicht böse, aber für mich liest es sich so, als würdet ihr das benutzen um Autos mit kleinerem Tank zum Vollpreis zu verkaufen."

Sorry, aber da bleibt nur noch Kopfschütteln bei der "Logik".
 

SFT-GSG

Software-Overclocker(in)
"Unser Auto fährt zweimal so schnell mit der Hälfte an Benzin."
"Sei mir nicht böse, aber für mich liest es sich so, als würdet ihr das benutzen um Autos mit kleinerem Tank zum Vollpreis zu verkaufen."

Sorry, aber da bleibt nur noch Kopfschütteln bei der "Logik".
Ja, bei deiner Logik....da Schüttel ich auch den Kopf.

Um mal bei deinem vergleich zu bleiben: Das Auto säuft genauso viel. Es ist nur so billig gebaut, das es überall scheppert und es sich doppelt so schnell anfühlt (bei gleichem Verbrauch). Und nebenbei ist der Kofferaum halbiert, so fühlt es sich noch schneller an....bis du mal was schweres laden musst und feststellst das die neue karre theoretisch genug power hat, aber praktisch dem Kofferaum eines Smarts hat.
 

criss vaughn

Volt-Modder(in)
Ich bin generell dafür, bei der Diskussion etwas besser zu differenzieren: Wie bereits erwähnt, sollte Speicher immer in Kombination mit Anbindung und Geschwindigkeite diskutiert werden.

Ich persönlich gehe davon aus, dass die 20 GB genutzt werden, um AMD ggf. zu kontern oder eine "4K-3080" im bezahlbaren Bereich zu platzieren.
 

derneuemann

BIOS-Overclocker(in)
Das mag für einige Spiele gelten, aber bei weitem nicht für alle. ;-)
Beweislastige Beispiele bitte ;)

Es geht nicht darum, das ich das ausschließe, aber es gibt immer wieder nur Behauptungen.
Darum wäre es sehr nützlich hier auch beweislastige Beispiele anzuführen, ggfs. sogar mit links zu den Quellen.
Für mögliche Käufer sollte das sehr interessant sein.


Man könnte es auch anders ausdrücken, jeder der 800.00€ ausgeben kann, der kann auch auf eine 3080Ti warten und sich dann das Topmodel kaufen.
Ich gehe davon aus, dass es hierbei auf 3xx.00€ mehr auch nicht mehr ankommt. ;)
Verrückt sind diese Summen trotzdem. :ugly:
Aber natürlich steckt hier durch Nvidia reine Verkaufstaktik dahinter und man sollte noch warten was hier hinterher kommt.
Wer auch vorher kaufen muss hat dann halt vorerst ........... aber hinterher kann man sich immer noch ärgern.
Das stinkt mir jedesmal, dass Nvidia nicht gleich alle Kartenmodelle offenlegt, bzw. gleichzeitig anbietet.
Hat schon etwas von Kundenverarsche.

Jetzt könnte jemand argumentieren, es liege an der Produktion bzw. je nach Ausschuss der Chipqualität.
Mag sein aber in dem heutigen Stand der Technik bezweifele ich das etwas.

Wenn Nvidia in einem halben Jahr die 3080 mit 20GB bringen wollen würde, dann ok, dann kann man auch jetzt eine kaufen und in einem halben Jahr mit nicht zu viel Verlust weiter verkaufen und auf 20GB umsatteln.

Oder eben, vielleicht bietet ja Big Navi ja wirklich etwas schönes
 
Zuletzt bearbeitet:

Irian

Komplett-PC-Aufrüster(in)
Um mal bei deinem vergleich zu bleiben: Das Auto säuft genauso viel. Es ist nur so billig gebaut, das es überall scheppert und es sich doppelt so schnell anfühlt (bei gleichem Verbrauch). Und nebenbei ist der Kofferaum halbiert, so fühlt es sich noch schneller an....bis du mal was schweres laden musst und feststellst das die neue karre theoretisch genug power hat, aber praktisch dem Kofferaum eines Smarts hat.

Die Tests zeigen doch sehr schön, dass DLSS sehr gut aussieht, manchmal sogar besser als natives 4K (manchmal aber auch schlechter, klar) und das bei deutlich höheren FPS. Es ist an sich also erstmal ne tolle Technologie, von der ich nicht sehe, wie man sich drüber beschweren kann. Und dann von "billig" zu reden, meine Güte. Es ist ziemlicher heißer High-Tech Scheiß, State of the Art, sozusagen.

Dein Beispiel hinkt dann auch völlig, weil es zur Zeit absolut nichts gibt, was nicht in den Kofferraum passt. Alle Spiele, die getestet wurden, kommen problemlos mit den 10GB aus. Klar, vielleicht gibt es in Zukunft mal Spiele, die gerne mehr hätten für 4K/Ultra, mag durchaus sein - aber selbst dann ist das ja nicht so, als würde die Kiste plötzlich explodieren, sondern man muß halt die Details ein wenig runterdrehen. Das wird aber kaum in den nächsten Monaten passieren - und was in nem Jahr ist, kann eh keiner sagen.
 

ZanDatsuFTW

Freizeitschrauber(in)
Keiner zwingt die Leute was zu kaufen. Aber hey, kauf du dir doch irgendeinen alten Server Xeon mit 2 TB RAM, da müsste ja alles viel schneller nun laufen, wer braucht schon moderne Architektur wenn er RAM haben kann ?


Na dann hast du ja voll in die ************************ gelangt oder nicht ? Warum keine Radeon VII geholt ? Viel zukunftssicherer als die 1080 Ti ! VIEL mehr VRAM und nur das zählt ja !

Und klar zukunftssicher muss es sein bei einem Produkt das ohnehin alle 2-3 Jahre getauscht wird, das muss 20 Jahre halten ! MINDESTENS !!!

Da du hier mitredest nehme ich an du bist potentiell interessiert an einer 3080, also nichtmal 3 Jahre nach Release der 1080Ti (und evtl. hast du sie ja auch erst 18 oder 19 gekauft?). Und welche Spiele der letzten Jahre wo du so wenig zukunftssicher gewesen wärst (wie damals schon alle geflennt haben) fallen dir ein wenn du jetzt eine 2080 in 2018 geholt hättest ? Mir eigentlich nur Doom Eternal.

Aber Hauptsache ZUKUNFTSSICHER ! Aus dem Munde des Mannes welcher selbst keine drei Jahre mit einer Karte verbringt besonders glaubwürdig vorgetragen. :lol:
Ganz ruhig...atme mal zwischendurch...Ich habe meine Karte seit fast 4 Jahren...und damals waren 11gb schon ordentlich und zukunftssicher (hat mir bis jetzt gereicht). 10gb sind es heute nunmal nicht wenn du in ultra settings@4k spielen willst und erst recht nicht wenn du Mods verwendest, vorallem wenn du die Karte über eine längere Zeit verwenden willst so wie ich.
Ich lasse generell meist 2 Generationen aus und kaufe mir dann immer die stärkste GK, in diesem Fall wäre das also die 3080 (3090 lohnt sich für mich nicht aus P/L Sicht) von Nvidia oder halt Big Navi von AMD.
Deshalb ist für mich mehr VRam sehr wichtig.

Die neuen Konsolen haben auch ordentlich VRam, weil sie einen rel. großen Lebenszyklus haben und man weiß, dass bei 4k in Zukunft mehr VRam benötigt wird.

Schau dir z.B. WD:Legion an, da wird schon von 11gb VRam gesprochen und ist nicht mal ein Next-Gen Spiel.

"3080, also nichtmal 3 Jahre nach Release der 1080Ti "...die 1080Ti ist schon fast 4 Jahren alt, nur zur Info.

Wenn du denkst dir reichen 10gb VRam dann ist das i.O., für mich reichen sie nicht, vorallem weil ich wie schon erwähnt 2 Generationen überspringe bis ich mir dann wieder eine neue Graka kaufe.
 
Zuletzt bearbeitet:

Methusalem

PC-Selbstbauer(in)
Persönlich kann ich nur auf meine eigenen Erfahrungen verweisen, bspw. mit X-Plane.

Und das kann ich jederzeit belegen, von mir aus notariell beglaubigt. ,;)

10 GB sind 2020 einfach nicht mehr angemessen.

edit: zumindest nicht für eine € 800 Karte.
 

hoffgang

BIOS-Overclocker(in)
"3080, also nichtmal 3 Jahre nach Release der 1080Ti "...die 1080Ti ist vor über 4 Jahren erschienen, nur zur Info.

Die 1080ti wurde im März 2017 Released, ist jetzt also 3 1/2 Jahre alt.
Ändert aber nichts daran, dass man in eben dieser Zeitspanne für denselben MSRP 1 GB Vram weniger bekommt. Und man sollte wirklich wirklich dringend davon abgehen Beispiele von heute oder gar gestern heranzuziehen um damit belegen zu wollen, dass 10GB Vram auch morgen noch mehr als ausreichend seien werden.
 

derneuemann

BIOS-Overclocker(in)
Persönlich kann ich nur auf meine eigenen Erfahrungen verweisen, bspw. mit X-Plane.

Und das kann ich jederzeit belegen, von mir aus notariell beglaubigt. ,;)

10 GB sind 2020 einfach nicht mehr angemessen.

edit: zumindest nicht für eine € 800 Karte.
Gibt es einen Test, in dem das aufgezeigt wird? Oder hast du Ruckeln, wegen Speicherüberlauf?
 

ZanDatsuFTW

Freizeitschrauber(in)
Die 1080ti wurde im März 2017 Released, ist jetzt also 3 1/2 Jahre alt.
Ändert aber nichts daran, dass man in eben dieser Zeitspanne für denselben MSRP 1 GB Vram weniger bekommt. Und man sollte wirklich wirklich dringend davon abgehen Beispiele von heute oder gar gestern heranzuziehen um damit belegen zu wollen, dass 10GB Vram auch morgen noch mehr als ausreichend seien werden.
Stimmt hast recht, habe da etwas verwechselt, habe es korrigiert :)
Trotzdem schon deutlich über 3 Jahre.
Manche reden sich diese mikrigen 10gb VRam bei dem "Flagship" Model halt schön und wenn man dagegen etwas sagt, wird man halt ausgelacht :lol:
 
Zuletzt bearbeitet:

RavionHD

PCGH-Community-Veteran(in)
Die neuen Konsolen haben auch ordentlich VRam...
Haben sie eigentlich nicht, sie haben 16GB gemeinsamen Speicher für Ram und Vram.
Das ist ziemlich wenig wenn man bedenkt dass die Generation davor mit 8 bzw 12GB (Xbox One X) ausgekommen ist und man diesmal 4K anvisiert,
Schau dir z.B. WD:Legion an, da wird schon von 11gb VRam gesprochen und ist nicht mal ein Next-Gen Spiel.
Watch Dogs Legion fordert eine RTX 2080ti für 4K/Uktra an, und die hat eben 11GB Vram.
Wenn du denkst dir reichen 10gb VRam dann ist das i.O., für mich reichen sie nicht, vorallem weil ich wie schon erwähnt 2 Generationen überspringe bis ich mir dann wieder eine neue Graka kaufe.
Der Punkt ist dass die allermeisten Engines den Vram pool mit Cache Daten befüllen bis zum geht nicht mehr wenn Speicher vorhanden ist, bei Horizon Zero Dawn können das schonmal 16GB sein.
Das heißt nicht dass man mit weniger Vram nicht flüssig spielen kann. Relevant ist nur wieviel Speicher Texturen und co. nehmen, und das sind tatsächlich nur 4-6GB in 4K/Ultra aktuell.
Daher ich glaube dass die RTX 3080, bevor sie zu wenig Vram hat, ihr die Leistung ausgeht.

Seltsam das die neuen Konsolen 16GB VRAM haben :nicken: und das mit dem ältern Speicher GDDR6 und komen nur auf eine Bandbreite 448GB/s
XBOX X hat auch nur 10 GB VRAM zur verfügung :ugly:
Sie haben 16GB gemeinsamen Speicher für Ram und Vram, am PC haben wir ja auch nicht 24GB Vram wenn Du eine 8GB GPU inkl. 16GB Ram nutzt.:ugly:
 

BlubberLord

Komplett-PC-Aufrüster(in)
Hui, geht ja heiß her hier :ugly:

Erinnert sich noch jemand an die letzte nVidia-Generation? Zufällig habe ich mir eine 2070 gekauft, kurz darauf wurde die Super-Serie auf den Markt gebracht. Die hat im Segment bis zur Ti jede Karte fast eine Stufe aufgewertet. Nicht umsonst vergleicht nVidia die 3080 mit der 2080 ohne Super. Die 2070 Super müsste in den Bereich der originalen 2080 langen.
Solche Geschichten sind natürlich längst vergessen. Die RAM-Thematik der 970 gar nicht zu erwähnen (die 970 hatte ich übrigens vor der 2070).
Trotz der zwei "Volltreffer" mit nVidia kaufe ich weiter von denen.
Warum? Ich bekomme viel Leistung für einen zwar hohen aber für die Qualität angemessenen Preis.
Gute Custom-Designs, nichts läuft heiß, kein Ärger mit Treibern und der primäre Grund: CUDA. Es gibt inzwischen so viele tolle Anwendungen, die dank Berechnungen auf der GPU Größenordnungen schneller sind – aber halt nVidia-exklusiv programmiert.

Soweit ich gesehen habe ist die 3080 auch mit 100 MHz weniger Takt und auch mit 80-100 Watt weniger Stromverbrauch die schnellste Grafikkarte überhaupt. Und das für 700-900€, ist doch gut oder nicht? Hat irgendjemand Probleme Spiele in 4k über 60 fps zu bekommen? Nö. Also scheint der Speicher auch zu reichen.
Natürlich taktieren nVidia und "Partner" um teurere Alternativen attraktiv zu machen und die Preise hoch zu halten – welcher Techriese handelt hier denn anders?
 

Methusalem

PC-Selbstbauer(in)
Ruckeln wegen fehlendem VRAM.

Den Beweis kann ich dadurch führen, dass bei gleichen Settings und Hardware (CPU, Sys-Ram, Mainboard) keine bzw. erheblich weniger Ruckler mit einer 16 GB-Karte (VII) vorkommen, als mit Modellen mit 6 bzw. 8 GB VRAM (GTX 780, GTX 1070).

Alles bewegt sich bei meinen Settings fast immer im CPU-Limit, das heisst, die Ruckler werden so gut wie ausschließlich durch fehlenden Speicher verursacht.

Vermutlich würde in dem Szenario sogar eine GTX 780 mit 16 GB mit der VII gleichziehen.
 

Nosferatu05

PC-Selbstbauer(in)
Ganz egal womit Nvidia jetzt kontert.
Alleine die Tatsache, kurz vorher eine beschnittene 3080 auf den Markt zu werfen um die hungrigen Bots und dessen Kunden am Ende mit überteuerten Karten zu füttern, ist eine bodenlose Frechheit.

Vor allem, weil im selben Atemzug schon die 20 gb Version im Raum stand. Kommt dann die Super und haben wir jetzt im Quartalswechsel stets Neuauflagen von Neuauflagen?
 

ZanDatsuFTW

Freizeitschrauber(in)
Haben sie eigentlich nicht, sie haben 16GB gemeinsamen Speicher für Ram und Vram.
Das ist ziemlich wenig wenn man bedenkt dass die Generation davor mit 8 bzw 12GB (Xbox One X) ausgekommen ist und man diesmal 4K anvisiert,

Watch Dogs Legion fordert eine RTX 2080ti für 4K/Uktra an, und die hat eben 11GB Vram.

Der Punkt ist dass die allermeisten Engines den Vram pool mit Cache Daten befüllen bis zum geht nicht mehr wenn Speicher vorhanden ist, bei Horizon Zero Dawn können das schonmal 16GB sein.
Das heißt nicht dass man mit weniger Vram nicht flüssig spielen kann. Relevant ist nur wieviel Speicher Texturen und co. nehmen, und das sind tatsächlich nur 4-6GB in 4K/Ultra aktuell.
Daher ich glaube dass die RTX 3080, bevor sie zu wenig Vram hat, ihr die Leistung ausgeht.


Sie haben 16GB gemeinsamen Speicher für Ram und Vram, am PC haben wir ja auch nicht 24GB Vram wenn Du eine 8GB GPU inkl. 16GB Ram nutzt.:ugly:
Stimmt, aber man darf nicht vergessen, das die Spiele für die Konsolen viel besser optimiert werden als für den PC, auch was VRam Belegung angeht.
Ausserdem kosten die neuen Konsolen zwischen 400 und 500 Euro als Gesamtsystem und die 3080 kostet min. 700 eher so um die 800 und dabei hat man auch nur die Graka sonst nichts.
Was WD:Legion angeht, das war nur ein Beispiel, erste Benchmarks werden schon zeigen wieviel VRam es benötigt bei Ultra@4k + RT.
Wenn man in geringeren Auflösungen Spielt dann mögen die 10GB ausreichend sein, aber die neuen Grakas (ab 3080) sind eigentlich für 4k gedacht und dafür ist der VRam zu knapp (wenig).
Eine fast 4 Jahre alte 1080Ti hat mehr VRam als die aktuelle auch wenn es nur 1gb ist.
Was mich auch stört ist, dass Nvidia erst die Leute eine 10GB Karte kaufen lässt um dann kurz danach eine mit 20 GB zu Releasen, das deutlich besser zu einer "4k Karte" passt, vorallem, wenn man sie ein paar Jahre nutzen möchte so wie ich z.B.
 
Zuletzt bearbeitet:

ZanDatsuFTW

Freizeitschrauber(in)
Ganz egal womit Nvidia jetzt kontert.
Alleine die Tatsache, kurz vorher eine beschnittene 3080 auf den Markt zu werfen um die hungrigen Bots und dessen Kunden am Ende mit überteuerten Karten zu füttern, ist eine bodenlose Frechheit.

Vor allem, weil im selben Atemzug schon die 20 gb Version im Raum stand. Kommt dann die Super und haben wir jetzt im Quartalswechsel stets Neuauflagen von Neuauflagen?
Genau das ist, was ich auch am meisten kritisiere bei Nvidia.
Erst die Karte mit 10GB VRam auf den Markt werfen um danach erst die deutlich bessere Variante mit 20GB VRam auf den Markt zu bringen.
Warum nicht gleich die mit 20GB Vram releasen!?
 

ThirdLife

Komplett-PC-Käufer(in)
1. Ganz ruhig...atme mal zwischendurch...

2. und damals waren 11gb schon ordentlich und zukunftssicher (hat mir bis jetzt gereicht).

3. 10gb sind es heute nunmal nicht wenn du in ultra settings@4k spielen willst

4. und erst recht nicht wenn du Mods verwendest,

5. vorallem wenn du die Karte über eine längere Zeit verwenden willst so wie ich.

6. Ich lasse generell meist 2 Generationen aus und kaufe mir dann immer die stärkste GK, in diesem Fall wäre das also die 3080 (3090 lohnt sich für mich nicht aus P/L Sicht) von Nvidia oder halt Big Navi von AMD.

7. Deshalb ist für mich mehr VRam sehr wichtig.

8. Die neuen Konsolen haben auch ordentlich VRam, weil sie einen rel. großen Lebenszyklus haben und man weiß, dass bei 4k in Zukunft mehr VRam benötigt wird.

9. Schau dir z.B. WD:Legion an, da wird schon von 11gb VRam gesprochen und ist nicht mal ein Next-Gen Spiel.

10. "3080, also nichtmal 3 Jahre nach Release der 1080Ti "...die 1080Ti ist vor über 4 Jahren erschienen, nur zur Info.
1. Wozu der Hinweis ? Fällt es dir ohne Erinnerung schwer ?

2. Also galt mehr ist besser damals noch nicht ? Warum hat es damals gereicht aber heute mit deutlich höheren Bandbreiten soll es nicht reichen ? Gibts dafür auch scientific facts statt irgendwelcher feelings ?

3. Welches Spiel macht dir denn konkret Probleme ? Und warum nicht einfach eine Radeon VII dann holen ? Die müsste doch alles stemmen oder nicht ? Geht ja nur ums Vram und nicht allgemeine Performance - die braucht ja kein Schwein.

4. Aaah, konstruierte Sonderfälle. Ja das macht natürlich Sinn dann. Bei der Entscheidung für Sinnhaftigkeit da hat man bei nVidia natürlich nicht an die 99,99% der Menschen gedacht die nicht basteln sondern an die 0,01% für die nur das zählt. Das sind die wo die dicke Kohle liegt.

5. Also etwas über drei Jahre ? Lang ist wohl Definitionsfrage.

6. Ob das viel Sinn macht ? Schlau wäre es für deutlich weniger Geld sich alle zwei Jahre ne anständige obere Mittelklasse GPU zu holen - 3070 z.B. und wenn in zwei, drei Jahren was neues kommt dann wieder das.

7. Ich seh schon. Weil VRam und nicht Leistung für dich zählt hast du damals lieber eine 11GB 1080 Ti genommen anstelle der 16GB Radeon VII. Unschlagbare Logik - sorry, da kann ich nicht mithalten. Für mich ist zählbare Leistung wichtig und keine esoterischen VRam Geschichten die man sich gerade zurechtbiegt wie es passt.

8. Die haben 16GB Shared Memory. Das ist im Regelfall deutlich weniger als bei uns dediziert vorhanen ist. Kannst du auch haben. Kauf dir ne APU und gib deinen RAM frei. Wirst dann schon sehen was du davon hast. Wäre doch genau dein Ding ? iGPU mit 32GB RAM. Viel Ram, wenig Leistung, wichtig ist nur das RAM, wozu weiter nachdenken.

9. Da wurde eine Folie zu einem Zeitpunkt präsentiert als die stärkste Karte 11GB hatte und das war die 2080 Ti. Völlig aus dem Zusammenhang, aber ok. Denke das ist dir auch bewusst aber man kann sich auch alles zurechtbiegen (mal wieder).

10. Vorstellung war am 10. März 2017. Das sind also über vier Jahre ? Ah stimmt - klar in deinem Universum wo RAM über Leistung geht, da könnte das hinkommen. Mit Mods und so. :D
 

RavionHD

PCGH-Community-Veteran(in)
Stimmt, aber man darf nicht vergessen, das die Spiele für die Konsolen viel besser optimiert werden als für die Konsolen, auch was VRam Belegung angeht.
Nö, für Texturen auf dem Level der aktuellen Konsolen (PS4 und Xbox One) reichen 2-3GB Vram.
Ausserdem kosten die neuen Konsolen zwischen 400 und 500 Euro als Gesamtsystem und die 3080 kostet min. 700 eher so um die 800 und dabei hat man auch nur die Graka sonst nichts.
Was WD:Legion angeht, das war nur ein Beispiel, erste Benchmarks werden schon zeigen wieviel VRam es benötigt bei Ultra@4k + RT.
Wenn man in geringeren Auflösungen Spielt dann mögen die 10GB ausreichend sein, aber die neuen Grakas (ab 3080) sind eigentlich für 4k gedacht und dafür ist der VRam zu knapp (wenig).
Eine fast 4 Jahre alte 1080Ti hat mehr VRam als die aktuelle auch wenn es nur 1gb ist.
Was mich auch stört ist, dass Nvidia erst die Leute eine 10GB Karte kaufen lässt um dann kurz danach eine mit 20 GB zu Releasen, das deutlich besser zu einer "4k Karte" passt, vorallem, wenn man sie ein paar Jahre nutzen möchte so wie ich z.B.
Du verstehst einfach nicht, Vram Belegung heißt nicht dass dieser für ein flüssiges Spielen auch notwendig ist, wenn ein Großteil mittlerweile von modernen Engines mit Cache befüllt wird. Solange texturspezifische Daten genug Platz haben, und diese benötigen nachweislich zumeist zwischen 4-6GB Vram in 4K/Ultra, sind 10GB mehr wie genug.
Du verwechselst ständig Vram Belegung mit notwendigem Vram. Dieser Logik nach müsste man für ein HZD mindestens 16GB Vram haben.
 

Methusalem

PC-Selbstbauer(in)
Wann ist viel VRAM notwendig?

Wenn man verhindern möchte, dass im VRAM cachebare Inhalte ansonsten über vergleichsweise extrem langsame Zugriffe via Hauptspeicher, Massenspeicher und Bussystem nachgeladen werden müssten.
 

dgeigerd

Freizeitschrauber(in)
Frag doch mal bei PCGH Nach, da hat doch die 3080 ein 750W Netzteil "überfordert". Und das war bestimmt kein Chinacracker.

Und unterdimensioniert ist sowas nicht. Die Frage ist doch: Warum muss ich ein 900-1000W Netzteil kaufen, nur weil die Grafikkarte für ms ein "Polster" von +200W braucht? Effizient oder Sinnvoll ist sowas nicht.

Was passiert jetzt eigentlich bei dem ALDI Stangenrechnern? Werden da nun teure 800W+ Markennetzteile verbaut? Wie siehts in Notebook aus? 240W Notebook Netzteil gibts im CAD Bereich, aber für Consumer Spielerechner?
Hab ich gelesen, war ein Seasonic. Hab ja selbst nur 750W welches so "OK" ist. Mal sehen woran das genau liegt.

Ich habe andere Möglichkeiten nicht ausgeschlossen. Aber, was für ein 1200W Netzteil hat er denn?
Asus ROG-Thor-1200P soweit ich weiß. Is jetzt nicht wirklich günstig.
 
Oben Unten