Geforce RTX 3080: Weitere Bestätigung der 20-GiB-Version

Ich bin generell dafür, bei der Diskussion etwas besser zu differenzieren: Wie bereits erwähnt, sollte Speicher immer in Kombination mit Anbindung und Geschwindigkeite diskutiert werden.

Ich persönlich gehe davon aus, dass die 20 GB genutzt werden, um AMD ggf. zu kontern oder eine "4K-3080" im bezahlbaren Bereich zu platzieren.
 
Das mag für einige Spiele gelten, aber bei weitem nicht für alle. ;-)
Beweislastige Beispiele bitte ;)

Es geht nicht darum, das ich das ausschließe, aber es gibt immer wieder nur Behauptungen.
Darum wäre es sehr nützlich hier auch beweislastige Beispiele anzuführen, ggfs. sogar mit links zu den Quellen.
Für mögliche Käufer sollte das sehr interessant sein.


Man könnte es auch anders ausdrücken, jeder der 800.00€ ausgeben kann, der kann auch auf eine 3080Ti warten und sich dann das Topmodel kaufen.
Ich gehe davon aus, dass es hierbei auf 3xx.00€ mehr auch nicht mehr ankommt. ;)
Verrückt sind diese Summen trotzdem. :ugly:
Aber natürlich steckt hier durch Nvidia reine Verkaufstaktik dahinter und man sollte noch warten was hier hinterher kommt.
Wer auch vorher kaufen muss hat dann halt vorerst ........... aber hinterher kann man sich immer noch ärgern.
Das stinkt mir jedesmal, dass Nvidia nicht gleich alle Kartenmodelle offenlegt, bzw. gleichzeitig anbietet.
Hat schon etwas von Kundenverarsche.

Jetzt könnte jemand argumentieren, es liege an der Produktion bzw. je nach Ausschuss der Chipqualität.
Mag sein aber in dem heutigen Stand der Technik bezweifele ich das etwas.

Wenn Nvidia in einem halben Jahr die 3080 mit 20GB bringen wollen würde, dann ok, dann kann man auch jetzt eine kaufen und in einem halben Jahr mit nicht zu viel Verlust weiter verkaufen und auf 20GB umsatteln.

Oder eben, vielleicht bietet ja Big Navi ja wirklich etwas schönes
 
Zuletzt bearbeitet:
Um mal bei deinem vergleich zu bleiben: Das Auto säuft genauso viel. Es ist nur so billig gebaut, das es überall scheppert und es sich doppelt so schnell anfühlt (bei gleichem Verbrauch). Und nebenbei ist der Kofferaum halbiert, so fühlt es sich noch schneller an....bis du mal was schweres laden musst und feststellst das die neue karre theoretisch genug power hat, aber praktisch dem Kofferaum eines Smarts hat.

Die Tests zeigen doch sehr schön, dass DLSS sehr gut aussieht, manchmal sogar besser als natives 4K (manchmal aber auch schlechter, klar) und das bei deutlich höheren FPS. Es ist an sich also erstmal ne tolle Technologie, von der ich nicht sehe, wie man sich drüber beschweren kann. Und dann von "billig" zu reden, meine Güte. Es ist ziemlicher heißer High-Tech Scheiß, State of the Art, sozusagen.

Dein Beispiel hinkt dann auch völlig, weil es zur Zeit absolut nichts gibt, was nicht in den Kofferraum passt. Alle Spiele, die getestet wurden, kommen problemlos mit den 10GB aus. Klar, vielleicht gibt es in Zukunft mal Spiele, die gerne mehr hätten für 4K/Ultra, mag durchaus sein - aber selbst dann ist das ja nicht so, als würde die Kiste plötzlich explodieren, sondern man muß halt die Details ein wenig runterdrehen. Das wird aber kaum in den nächsten Monaten passieren - und was in nem Jahr ist, kann eh keiner sagen.
 
Keiner zwingt die Leute was zu kaufen. Aber hey, kauf du dir doch irgendeinen alten Server Xeon mit 2 TB RAM, da müsste ja alles viel schneller nun laufen, wer braucht schon moderne Architektur wenn er RAM haben kann ?


Na dann hast du ja voll in die ************************ gelangt oder nicht ? Warum keine Radeon VII geholt ? Viel zukunftssicherer als die 1080 Ti ! VIEL mehr VRAM und nur das zählt ja !

Und klar zukunftssicher muss es sein bei einem Produkt das ohnehin alle 2-3 Jahre getauscht wird, das muss 20 Jahre halten ! MINDESTENS !!!

Da du hier mitredest nehme ich an du bist potentiell interessiert an einer 3080, also nichtmal 3 Jahre nach Release der 1080Ti (und evtl. hast du sie ja auch erst 18 oder 19 gekauft?). Und welche Spiele der letzten Jahre wo du so wenig zukunftssicher gewesen wärst (wie damals schon alle geflennt haben) fallen dir ein wenn du jetzt eine 2080 in 2018 geholt hättest ? Mir eigentlich nur Doom Eternal.

Aber Hauptsache ZUKUNFTSSICHER ! Aus dem Munde des Mannes welcher selbst keine drei Jahre mit einer Karte verbringt besonders glaubwürdig vorgetragen. :lol:
Ganz ruhig...atme mal zwischendurch...Ich habe meine Karte seit fast 4 Jahren...und damals waren 11gb schon ordentlich und zukunftssicher (hat mir bis jetzt gereicht). 10gb sind es heute nunmal nicht wenn du in ultra settings@4k spielen willst und erst recht nicht wenn du Mods verwendest, vorallem wenn du die Karte über eine längere Zeit verwenden willst so wie ich.
Ich lasse generell meist 2 Generationen aus und kaufe mir dann immer die stärkste GK, in diesem Fall wäre das also die 3080 (3090 lohnt sich für mich nicht aus P/L Sicht) von Nvidia oder halt Big Navi von AMD.
Deshalb ist für mich mehr VRam sehr wichtig.

Die neuen Konsolen haben auch ordentlich VRam, weil sie einen rel. großen Lebenszyklus haben und man weiß, dass bei 4k in Zukunft mehr VRam benötigt wird.

Schau dir z.B. WD:Legion an, da wird schon von 11gb VRam gesprochen und ist nicht mal ein Next-Gen Spiel.

"3080, also nichtmal 3 Jahre nach Release der 1080Ti "...die 1080Ti ist schon fast 4 Jahren alt, nur zur Info.

Wenn du denkst dir reichen 10gb VRam dann ist das i.O., für mich reichen sie nicht, vorallem weil ich wie schon erwähnt 2 Generationen überspringe bis ich mir dann wieder eine neue Graka kaufe.
 
Zuletzt bearbeitet:
Persönlich kann ich nur auf meine eigenen Erfahrungen verweisen, bspw. mit X-Plane.

Und das kann ich jederzeit belegen, von mir aus notariell beglaubigt. ,;)

10 GB sind 2020 einfach nicht mehr angemessen.

edit: zumindest nicht für eine € 800 Karte.
 
"3080, also nichtmal 3 Jahre nach Release der 1080Ti "...die 1080Ti ist vor über 4 Jahren erschienen, nur zur Info.

Die 1080ti wurde im März 2017 Released, ist jetzt also 3 1/2 Jahre alt.
Ändert aber nichts daran, dass man in eben dieser Zeitspanne für denselben MSRP 1 GB Vram weniger bekommt. Und man sollte wirklich wirklich dringend davon abgehen Beispiele von heute oder gar gestern heranzuziehen um damit belegen zu wollen, dass 10GB Vram auch morgen noch mehr als ausreichend seien werden.
 
Persönlich kann ich nur auf meine eigenen Erfahrungen verweisen, bspw. mit X-Plane.

Und das kann ich jederzeit belegen, von mir aus notariell beglaubigt. ,;)

10 GB sind 2020 einfach nicht mehr angemessen.

edit: zumindest nicht für eine € 800 Karte.
Gibt es einen Test, in dem das aufgezeigt wird? Oder hast du Ruckeln, wegen Speicherüberlauf?
 
Die 1080ti wurde im März 2017 Released, ist jetzt also 3 1/2 Jahre alt.
Ändert aber nichts daran, dass man in eben dieser Zeitspanne für denselben MSRP 1 GB Vram weniger bekommt. Und man sollte wirklich wirklich dringend davon abgehen Beispiele von heute oder gar gestern heranzuziehen um damit belegen zu wollen, dass 10GB Vram auch morgen noch mehr als ausreichend seien werden.
Stimmt hast recht, habe da etwas verwechselt, habe es korrigiert :)
Trotzdem schon deutlich über 3 Jahre.
Manche reden sich diese mikrigen 10gb VRam bei dem "Flagship" Model halt schön und wenn man dagegen etwas sagt, wird man halt ausgelacht :lol:
 
Zuletzt bearbeitet:
Die neuen Konsolen haben auch ordentlich VRam...
Haben sie eigentlich nicht, sie haben 16GB gemeinsamen Speicher für Ram und Vram.
Das ist ziemlich wenig wenn man bedenkt dass die Generation davor mit 8 bzw 12GB (Xbox One X) ausgekommen ist und man diesmal 4K anvisiert,
Schau dir z.B. WD:Legion an, da wird schon von 11gb VRam gesprochen und ist nicht mal ein Next-Gen Spiel.
Watch Dogs Legion fordert eine RTX 2080ti für 4K/Uktra an, und die hat eben 11GB Vram.
Wenn du denkst dir reichen 10gb VRam dann ist das i.O., für mich reichen sie nicht, vorallem weil ich wie schon erwähnt 2 Generationen überspringe bis ich mir dann wieder eine neue Graka kaufe.
Der Punkt ist dass die allermeisten Engines den Vram pool mit Cache Daten befüllen bis zum geht nicht mehr wenn Speicher vorhanden ist, bei Horizon Zero Dawn können das schonmal 16GB sein.
Das heißt nicht dass man mit weniger Vram nicht flüssig spielen kann. Relevant ist nur wieviel Speicher Texturen und co. nehmen, und das sind tatsächlich nur 4-6GB in 4K/Ultra aktuell.
Daher ich glaube dass die RTX 3080, bevor sie zu wenig Vram hat, ihr die Leistung ausgeht.

Seltsam das die neuen Konsolen 16GB VRAM haben :nicken: und das mit dem ältern Speicher GDDR6 und komen nur auf eine Bandbreite 448GB/s
XBOX X hat auch nur 10 GB VRAM zur verfügung :ugly:
Sie haben 16GB gemeinsamen Speicher für Ram und Vram, am PC haben wir ja auch nicht 24GB Vram wenn Du eine 8GB GPU inkl. 16GB Ram nutzt.:ugly:
 
Hui, geht ja heiß her hier :ugly:

Erinnert sich noch jemand an die letzte nVidia-Generation? Zufällig habe ich mir eine 2070 gekauft, kurz darauf wurde die Super-Serie auf den Markt gebracht. Die hat im Segment bis zur Ti jede Karte fast eine Stufe aufgewertet. Nicht umsonst vergleicht nVidia die 3080 mit der 2080 ohne Super. Die 2070 Super müsste in den Bereich der originalen 2080 langen.
Solche Geschichten sind natürlich längst vergessen. Die RAM-Thematik der 970 gar nicht zu erwähnen (die 970 hatte ich übrigens vor der 2070).
Trotz der zwei "Volltreffer" mit nVidia kaufe ich weiter von denen.
Warum? Ich bekomme viel Leistung für einen zwar hohen aber für die Qualität angemessenen Preis.
Gute Custom-Designs, nichts läuft heiß, kein Ärger mit Treibern und der primäre Grund: CUDA. Es gibt inzwischen so viele tolle Anwendungen, die dank Berechnungen auf der GPU Größenordnungen schneller sind – aber halt nVidia-exklusiv programmiert.

Soweit ich gesehen habe ist die 3080 auch mit 100 MHz weniger Takt und auch mit 80-100 Watt weniger Stromverbrauch die schnellste Grafikkarte überhaupt. Und das für 700-900€, ist doch gut oder nicht? Hat irgendjemand Probleme Spiele in 4k über 60 fps zu bekommen? Nö. Also scheint der Speicher auch zu reichen.
Natürlich taktieren nVidia und "Partner" um teurere Alternativen attraktiv zu machen und die Preise hoch zu halten – welcher Techriese handelt hier denn anders?
 
Ruckeln wegen fehlendem VRAM.

Den Beweis kann ich dadurch führen, dass bei gleichen Settings und Hardware (CPU, Sys-Ram, Mainboard) keine bzw. erheblich weniger Ruckler mit einer 16 GB-Karte (VII) vorkommen, als mit Modellen mit 6 bzw. 8 GB VRAM (GTX 780, GTX 1070).

Alles bewegt sich bei meinen Settings fast immer im CPU-Limit, das heisst, die Ruckler werden so gut wie ausschließlich durch fehlenden Speicher verursacht.

Vermutlich würde in dem Szenario sogar eine GTX 780 mit 16 GB mit der VII gleichziehen.
 
Ganz egal womit Nvidia jetzt kontert.
Alleine die Tatsache, kurz vorher eine beschnittene 3080 auf den Markt zu werfen um die hungrigen Bots und dessen Kunden am Ende mit überteuerten Karten zu füttern, ist eine bodenlose Frechheit.

Vor allem, weil im selben Atemzug schon die 20 gb Version im Raum stand. Kommt dann die Super und haben wir jetzt im Quartalswechsel stets Neuauflagen von Neuauflagen?
 
Haben sie eigentlich nicht, sie haben 16GB gemeinsamen Speicher für Ram und Vram.
Das ist ziemlich wenig wenn man bedenkt dass die Generation davor mit 8 bzw 12GB (Xbox One X) ausgekommen ist und man diesmal 4K anvisiert,

Watch Dogs Legion fordert eine RTX 2080ti für 4K/Uktra an, und die hat eben 11GB Vram.

Der Punkt ist dass die allermeisten Engines den Vram pool mit Cache Daten befüllen bis zum geht nicht mehr wenn Speicher vorhanden ist, bei Horizon Zero Dawn können das schonmal 16GB sein.
Das heißt nicht dass man mit weniger Vram nicht flüssig spielen kann. Relevant ist nur wieviel Speicher Texturen und co. nehmen, und das sind tatsächlich nur 4-6GB in 4K/Ultra aktuell.
Daher ich glaube dass die RTX 3080, bevor sie zu wenig Vram hat, ihr die Leistung ausgeht.


Sie haben 16GB gemeinsamen Speicher für Ram und Vram, am PC haben wir ja auch nicht 24GB Vram wenn Du eine 8GB GPU inkl. 16GB Ram nutzt.:ugly:
Stimmt, aber man darf nicht vergessen, das die Spiele für die Konsolen viel besser optimiert werden als für den PC, auch was VRam Belegung angeht.
Ausserdem kosten die neuen Konsolen zwischen 400 und 500 Euro als Gesamtsystem und die 3080 kostet min. 700 eher so um die 800 und dabei hat man auch nur die Graka sonst nichts.
Was WD:Legion angeht, das war nur ein Beispiel, erste Benchmarks werden schon zeigen wieviel VRam es benötigt bei Ultra@4k + RT.
Wenn man in geringeren Auflösungen Spielt dann mögen die 10GB ausreichend sein, aber die neuen Grakas (ab 3080) sind eigentlich für 4k gedacht und dafür ist der VRam zu knapp (wenig).
Eine fast 4 Jahre alte 1080Ti hat mehr VRam als die aktuelle auch wenn es nur 1gb ist.
Was mich auch stört ist, dass Nvidia erst die Leute eine 10GB Karte kaufen lässt um dann kurz danach eine mit 20 GB zu Releasen, das deutlich besser zu einer "4k Karte" passt, vorallem, wenn man sie ein paar Jahre nutzen möchte so wie ich z.B.
 
Zuletzt bearbeitet:
Ganz egal womit Nvidia jetzt kontert.
Alleine die Tatsache, kurz vorher eine beschnittene 3080 auf den Markt zu werfen um die hungrigen Bots und dessen Kunden am Ende mit überteuerten Karten zu füttern, ist eine bodenlose Frechheit.

Vor allem, weil im selben Atemzug schon die 20 gb Version im Raum stand. Kommt dann die Super und haben wir jetzt im Quartalswechsel stets Neuauflagen von Neuauflagen?
Genau das ist, was ich auch am meisten kritisiere bei Nvidia.
Erst die Karte mit 10GB VRam auf den Markt werfen um danach erst die deutlich bessere Variante mit 20GB VRam auf den Markt zu bringen.
Warum nicht gleich die mit 20GB Vram releasen!?
 
1. Ganz ruhig...atme mal zwischendurch...

2. und damals waren 11gb schon ordentlich und zukunftssicher (hat mir bis jetzt gereicht).

3. 10gb sind es heute nunmal nicht wenn du in ultra settings@4k spielen willst

4. und erst recht nicht wenn du Mods verwendest,

5. vorallem wenn du die Karte über eine längere Zeit verwenden willst so wie ich.

6. Ich lasse generell meist 2 Generationen aus und kaufe mir dann immer die stärkste GK, in diesem Fall wäre das also die 3080 (3090 lohnt sich für mich nicht aus P/L Sicht) von Nvidia oder halt Big Navi von AMD.

7. Deshalb ist für mich mehr VRam sehr wichtig.

8. Die neuen Konsolen haben auch ordentlich VRam, weil sie einen rel. großen Lebenszyklus haben und man weiß, dass bei 4k in Zukunft mehr VRam benötigt wird.

9. Schau dir z.B. WD:Legion an, da wird schon von 11gb VRam gesprochen und ist nicht mal ein Next-Gen Spiel.

10. "3080, also nichtmal 3 Jahre nach Release der 1080Ti "...die 1080Ti ist vor über 4 Jahren erschienen, nur zur Info.
1. Wozu der Hinweis ? Fällt es dir ohne Erinnerung schwer ?

2. Also galt mehr ist besser damals noch nicht ? Warum hat es damals gereicht aber heute mit deutlich höheren Bandbreiten soll es nicht reichen ? Gibts dafür auch scientific facts statt irgendwelcher feelings ?

3. Welches Spiel macht dir denn konkret Probleme ? Und warum nicht einfach eine Radeon VII dann holen ? Die müsste doch alles stemmen oder nicht ? Geht ja nur ums Vram und nicht allgemeine Performance - die braucht ja kein Schwein.

4. Aaah, konstruierte Sonderfälle. Ja das macht natürlich Sinn dann. Bei der Entscheidung für Sinnhaftigkeit da hat man bei nVidia natürlich nicht an die 99,99% der Menschen gedacht die nicht basteln sondern an die 0,01% für die nur das zählt. Das sind die wo die dicke Kohle liegt.

5. Also etwas über drei Jahre ? Lang ist wohl Definitionsfrage.

6. Ob das viel Sinn macht ? Schlau wäre es für deutlich weniger Geld sich alle zwei Jahre ne anständige obere Mittelklasse GPU zu holen - 3070 z.B. und wenn in zwei, drei Jahren was neues kommt dann wieder das.

7. Ich seh schon. Weil VRam und nicht Leistung für dich zählt hast du damals lieber eine 11GB 1080 Ti genommen anstelle der 16GB Radeon VII. Unschlagbare Logik - sorry, da kann ich nicht mithalten. Für mich ist zählbare Leistung wichtig und keine esoterischen VRam Geschichten die man sich gerade zurechtbiegt wie es passt.

8. Die haben 16GB Shared Memory. Das ist im Regelfall deutlich weniger als bei uns dediziert vorhanen ist. Kannst du auch haben. Kauf dir ne APU und gib deinen RAM frei. Wirst dann schon sehen was du davon hast. Wäre doch genau dein Ding ? iGPU mit 32GB RAM. Viel Ram, wenig Leistung, wichtig ist nur das RAM, wozu weiter nachdenken.

9. Da wurde eine Folie zu einem Zeitpunkt präsentiert als die stärkste Karte 11GB hatte und das war die 2080 Ti. Völlig aus dem Zusammenhang, aber ok. Denke das ist dir auch bewusst aber man kann sich auch alles zurechtbiegen (mal wieder).

10. Vorstellung war am 10. März 2017. Das sind also über vier Jahre ? Ah stimmt - klar in deinem Universum wo RAM über Leistung geht, da könnte das hinkommen. Mit Mods und so. :D
 
Stimmt, aber man darf nicht vergessen, das die Spiele für die Konsolen viel besser optimiert werden als für die Konsolen, auch was VRam Belegung angeht.
Nö, für Texturen auf dem Level der aktuellen Konsolen (PS4 und Xbox One) reichen 2-3GB Vram.
Ausserdem kosten die neuen Konsolen zwischen 400 und 500 Euro als Gesamtsystem und die 3080 kostet min. 700 eher so um die 800 und dabei hat man auch nur die Graka sonst nichts.
Was WD:Legion angeht, das war nur ein Beispiel, erste Benchmarks werden schon zeigen wieviel VRam es benötigt bei Ultra@4k + RT.
Wenn man in geringeren Auflösungen Spielt dann mögen die 10GB ausreichend sein, aber die neuen Grakas (ab 3080) sind eigentlich für 4k gedacht und dafür ist der VRam zu knapp (wenig).
Eine fast 4 Jahre alte 1080Ti hat mehr VRam als die aktuelle auch wenn es nur 1gb ist.
Was mich auch stört ist, dass Nvidia erst die Leute eine 10GB Karte kaufen lässt um dann kurz danach eine mit 20 GB zu Releasen, das deutlich besser zu einer "4k Karte" passt, vorallem, wenn man sie ein paar Jahre nutzen möchte so wie ich z.B.
Du verstehst einfach nicht, Vram Belegung heißt nicht dass dieser für ein flüssiges Spielen auch notwendig ist, wenn ein Großteil mittlerweile von modernen Engines mit Cache befüllt wird. Solange texturspezifische Daten genug Platz haben, und diese benötigen nachweislich zumeist zwischen 4-6GB Vram in 4K/Ultra, sind 10GB mehr wie genug.
Du verwechselst ständig Vram Belegung mit notwendigem Vram. Dieser Logik nach müsste man für ein HZD mindestens 16GB Vram haben.
 
Wann ist viel VRAM notwendig?

Wenn man verhindern möchte, dass im VRAM cachebare Inhalte ansonsten über vergleichsweise extrem langsame Zugriffe via Hauptspeicher, Massenspeicher und Bussystem nachgeladen werden müssten.
 
Frag doch mal bei PCGH Nach, da hat doch die 3080 ein 750W Netzteil "überfordert". Und das war bestimmt kein Chinacracker.

Und unterdimensioniert ist sowas nicht. Die Frage ist doch: Warum muss ich ein 900-1000W Netzteil kaufen, nur weil die Grafikkarte für ms ein "Polster" von +200W braucht? Effizient oder Sinnvoll ist sowas nicht.

Was passiert jetzt eigentlich bei dem ALDI Stangenrechnern? Werden da nun teure 800W+ Markennetzteile verbaut? Wie siehts in Notebook aus? 240W Notebook Netzteil gibts im CAD Bereich, aber für Consumer Spielerechner?
Hab ich gelesen, war ein Seasonic. Hab ja selbst nur 750W welches so "OK" ist. Mal sehen woran das genau liegt.

Ich habe andere Möglichkeiten nicht ausgeschlossen. Aber, was für ein 1200W Netzteil hat er denn?
Asus ROG-Thor-1200P soweit ich weiß. Is jetzt nicht wirklich günstig.
 
Zurück