Geforce RTX 3080: Weitere Bestätigung der 20-GiB-Version

Nö, für Texturen auf dem Level der aktuellen Konsolen (PS4 und Xbox One) reichen 2-3GB Vram.

Du verstehst einfach nicht, Vram Belegung heißt nicht dass dieser für ein flüssiges Spielen auch notwendig ist, wenn ein Großteil mittlerweile von modernen Engines mit Cache befüllt wird. Solange texturspezifische Daten genug Platz haben, und diese benötigen nachweislich zumeist zwischen 4-6GB Vram in 4K/Ultra, sind 10GB mehr wie genug.
Du verwechselst ständig Vram Belegung mit notwendigem Vram. Dieser Logik nach müsste man für ein HZD mindestens 16GB Vram haben.
Division 2 z.B. hat auch eine rel. hohe VRam Belegung auf dem PC und dabei sehen die Texturen in TLOU 2 besser aus.
Ich weiß schon von was ich rede und das was du sagst ist mir auch klar.
Aber diese wenn dies... und wenn das trifft halt nich immer zu.
Es gibt nunmal einige Engines die das was du erwähnt hast nicht berücksichtigen, vorallem wenn man Mods verwendet.
Dann brauch man nunmal mehr VRam sonst hat man halt Ruckeln.
Es gibt genügend Videos auf Youtube oder Tests im Internet die das belegen.
Klar, wenn die Engine "smart" genug ist, dann können 10GB VRam ausreichend sein ohne das man ein Ruckeln bemerkt.
Das ist aber nicht immer der Fall.
 
Division 2 z.B. hat auch eine rel. hohe VRam Belegung auf dem PC und dabei sehen die Texturen in TLOU 2 besser aus.
Ich weiß schon von was ich rede und das was du sagst ist mir auch klar.
Aber diese wenn dies... und wenn das trifft halt nich immer zu.
Es gibt nunmal einige Engines die das was du erwähnt hast nicht berücksichtigen, vorallem wenn man Mods verwendet.
Dann brauch man nunmal mehr VRam sonst hat man halt Ruckeln.
Es gibt genügend Videos auf Youtube oder Tests im Internet die das belegen.
Klar, wenn die Engine "smart" genug ist, dann können 10GB VRam ausreichend sein ohne das man ein Ruckeln bemerkt.
Das ist aber nicht immer der Fall.
Ich habe es Dir jetzt 2 mal erklärt, und Du kommst wieder mit Vram Belegung.
Du solltest Dich besser informieren, nur weil X GB Vram zugewiesen werden, heißt das nicht X GB Vram genutzt werden wenn ein Großteil davon mit Cache Daten befüllt wird.
Auch in The Division 2 wird mit Sicherheit sehr viel Vram zugewiesen, aber womöglich deutlich weniger genutzt, und daher auch mit wenig Vram wunderbar spielbar.
Ich habe CoD:Warzone davor probemlos flüssig mit einer GTX 980ti gespielt (6GB Vram), und nun mit der GTX 1070 wird mit gleichen Settings alle 8GB aufgefüllt, einfach weil das Spiel fast alles was es an Vram bekommt mit Cache Daten und Ähnlichem befüllt.
Unterschiedliche Spiele in Bezug auf die Texturqualität und einem möglichem Vram Bedarf zu vergleichen macht auch keinen Sinn.
 
Es sind keine Cachedaten. Eine gute Engine nutzt den verfügbaren VRAM aus, denn im Zweifel ist es besser Daten im VRAM zu haben und nicht zu brauchen, als sie zu brauchen und nicht im VRAM zu haben.
 
1. Wozu der Hinweis ? Fällt es dir ohne Erinnerung schwer ?

2. Also galt mehr ist besser damals noch nicht ? Warum hat es damals gereicht aber heute mit deutlich höheren Bandbreiten soll es nicht reichen ? Gibts dafür auch scientific facts statt irgendwelcher feelings ?

3. Welches Spiel macht dir denn konkret Probleme ? Und warum nicht einfach eine Radeon VII dann holen ? Die müsste doch alles stemmen oder nicht ? Geht ja nur ums Vram und nicht allgemeine Performance - die braucht ja kein Schwein.

4. Aaah, konstruierte Sonderfälle. Ja das macht natürlich Sinn dann. Bei der Entscheidung für Sinnhaftigkeit da hat man bei nVidia natürlich nicht an die 99,99% der Menschen gedacht die nicht basteln sondern an die 0,01% für die nur das zählt. Das sind die wo die dicke Kohle liegt.

5. Also etwas über drei Jahre ? Lang ist wohl Definitionsfrage.

6. Ob das viel Sinn macht ? Schlau wäre es für deutlich weniger Geld sich alle zwei Jahre ne anständige obere Mittelklasse GPU zu holen - 3070 z.B. und wenn in zwei, drei Jahren was neues kommt dann wieder das.

7. Ich seh schon. Weil VRam und nicht Leistung für dich zählt hast du damals lieber eine 11GB 1080 Ti genommen anstelle der 16GB Radeon VII. Unschlagbare Logik - sorry, da kann ich nicht mithalten. Für mich ist zählbare Leistung wichtig und keine esoterischen VRam Geschichten die man sich gerade zurechtbiegt wie es passt.

8. Die haben 16GB Shared Memory. Das ist im Regelfall deutlich weniger als bei uns dediziert vorhanen ist. Kannst du auch haben. Kauf dir ne APU und gib deinen RAM frei. Wirst dann schon sehen was du davon hast. Wäre doch genau dein Ding ? iGPU mit 32GB RAM. Viel Ram, wenig Leistung, wichtig ist nur das RAM, wozu weiter nachdenken.

9. Da wurde eine Folie zu einem Zeitpunkt präsentiert als die stärkste Karte 11GB hatte und das war die 2080 Ti. Völlig aus dem Zusammenhang, aber ok. Denke das ist dir auch bewusst aber man kann sich auch alles zurechtbiegen (mal wieder).

10. Vorstellung war am 10. März 2017. Das sind also über vier Jahre ? Ah stimmt - klar in deinem Universum wo RAM über Leistung geht, da könnte das hinkommen. Mit Mods und so. :D
Schöner Vortag...

Du hast etwas von nichtmal 3 Jahren gefaselt, also checke erstmal deine Aussagen bevor du meine kritisierst.

Ausserdem wo habe ich geschrieben oder behauptet dass bei mir VRam über Leistung steht?

Warum ich nicht die Radeon 7 geholt habe? Dann schau mal wann diese erschienen und wann die 1080Ti erschienen ist.

Du interpretierst das was ich sage so wie du es verstehen willst.
Mit Nvidia Jüngern kann man halt nicht diskutieren, kaum kritisiert man etwas an Nvidia und schon geht ihr an die Decke.
 
Ich habe es Dir jetzt 2 mal erklärt, und Du kommst wieder mit Vram Belegung.
Du solltest Dich besser informieren, nur weil X GB Vram zugewiesen werden, heißt das nicht X GB Vram genutzt werden wenn ein Großteil davon mit Cache Daten befüllt wird.
Auch in The Division 2 wird mit Sicherheit sehr viel Vram zugewiesen, aber womöglich deutlich weniger genutzt, und daher auch mit wenig Vram wunderbar spielbar.
Ich habe CoD:Warzone davor probemlos flüssig mit einer GTX 980ti gespielt (6GB Vram), und nun mit der GTX 1070 wird mit gleichen Settings alle 8GB aufgefüllt, einfach weil das Spiel fast alles was es an Vram bekommt mit Cache Daten und Ähnlichem befüllt.
Unterschiedliche Spiele in Bezug auf die Texturqualität und einem möglichem Vram Bedarf zu vergleichen macht auch keinen Sinn.
Lass es gut sein, du hast recht, Diskussion beendet.
 
Eine Sache verschimmt hier immer wieder.
Annahmen und Tatsachen. Es wird Behauptung A aufgestellt, die sich aber hinterher als annahme herausstellt. So lässt sich nur schwer diskutieren.

Es macht einen Unterschied, ob ich sage, "es ist so", oder sage, "ich denke es ist so".



Haben sie eigentlich nicht, sie haben 16GB gemeinsamen Speicher für Ram und Vram.
Das ist ziemlich wenig wenn man bedenkt dass die Generation davor mit 8 bzw 12GB (Xbox One X) ausgekommen ist und man diesmal 4K anvisiert,

Watch Dogs Legion fordert eine RTX 2080ti für 4K/Uktra an, und die hat eben 11GB Vram.

Der Punkt ist dass die allermeisten Engines den Vram pool mit Cache Daten befüllen bis zum geht nicht mehr wenn Speicher vorhanden ist, bei Horizon Zero Dawn können das schonmal 16GB sein.
Das heißt nicht dass man mit weniger Vram nicht flüssig spielen kann. Relevant ist nur wieviel Speicher Texturen und co. nehmen, und das sind tatsächlich nur 4-6GB in 4K/Ultra aktuell.
Daher ich glaube dass die RTX 3080, bevor sie zu wenig Vram hat, ihr die Leistung ausgeht.


Sie haben 16GB gemeinsamen Speicher für Ram und Vram, am PC haben wir ja auch nicht 24GB Vram wenn Du eine 8GB GPU inkl. 16GB Ram nutzt.:ugly:
Eben! ;)

Wir werden mit 10Gb schon schöne Texturen zu sehen bekommen, wenn die 10GB sinnvoll genutzt werden.


Es sind keine Cachedaten. Eine gute Engine nutzt den verfügbaren VRAM aus, denn im Zweifel ist es besser Daten im VRAM zu haben und nicht zu brauchen, als sie zu brauchen und nicht im VRAM zu haben.
Ist halt die Frage, wie intelligent das von statten geht.
 
Bestimmt.

Aber mit 16 GB plus möglicherweise noch prächtigere. (Fast) Ganz ohne ruckeln. ;-)
Abwarten, wir werden ja sehen, wie sich das verhält.

Am Rande habe ich gerade gedacht, das für die, die eine GPU die nächsten 4 Jahre nutzen wollen, ja auch der Aufpreis zu einer 3090 nur ein Schnäppchen ist, sind ja nur 16 Euro im Monat mehr ;) Aber dann hat man ja 24GB, die auch wieder länger ausreichen, als 16GB

(BITTE NICHT ZU ERNST NEHMEN)
 
.......................
Was mich auch stört ist, dass Nvidia erst die Leute eine 10GB Karte kaufen lässt um dann kurz danach eine mit 20 GB zu Releasen, das deutlich besser zu einer "4k Karte" passt, vorallem, wenn man sie ein paar Jahre nutzen möchte so wie ich z.B.

Solange die Befürworter dann ihre alte Karte verkaufen um die Neue zu kaufen hat NV nichts verkehrt gemacht. :schief:
So wie ich das hier bei einigen lese, scheint man da relativ lernresistent zu sein.
Jedes Jahr mal eben 700+ € raushauen könnte ich mir auch leisten, will ich aber der Vernunft wegen nicht. :stupid:
Sehe nicht ein, jedes Jahr ein paar hundert Euro zu verlieren, nur weil NV die Nutzer melkt wie ......
Vor allem würde ich dann keine 10GB Version kaufen, wenn die 20GB Version released wird, da spare ich
lieber bis nächstes Jahr und zahle nur den Aufpreis und nicht den Aufpreis + Verlust der alten Karte. :ugly:

Aber jedem das Seine :)
 
1. Du hast etwas von nichtmal 3 Jahren gefaselt, also checke erstmal deine Aussagen bevor du meine kritisierst.

2. Ausserdem wo habe ich geschrieben oder behauptet dass bei mir VRam über Leistung steht?

3. Warum ich nicht die Radeon 7 geholt habe? Dann schau mal wann diese erschienen und wann die 1080Ti erschienen ist.

4. Du interpretierst das was ich sage so wie du es verstehen willst.

5. Mit Nvidia Jüngern kann man halt nicht diskutieren, kaum kritisiert man etwas an Nvidia und schon geht ihr an die Decke.
1. Deutlich näher dran als über vier Jahre. :D

2. Du hast gesagt das sei zu wenig VRam. Warum zu wenig ? Zu wenig wofür ? Wo geht Performance verloren ? Konkrete Zahlen und Beispiele wären hilfreicher als deine Glaskugel.

3. Völlig egal, gleich umsteigen. Ist ja ZUKUNFTSSICHER ! :haha:

4. Ne du hast einfach keine echten Argumente höchstens vaage Vermutungen und Behauptungen.

5. Wieso sollte ich ein Jünger von irgendwas sein ? Mir ist doch völlig Wurst wer Hardware liefert solange sie anständig Bumms hat. Jeder der dich nicht supported muss also Fanboy sein. Is klar. Einfaches Gemüt das du da hast.

Ich hab seit jeher gesagt: abwarten und zusehen. Während in sämtlichen Foren richtiggehend hyperventiliert wird und sich alle überstürzen mit Behauptungen und Gerüchten sag ich wartets doch einfach ab. AMD kommt noch, div. WaküBlock Tests kommen noch, vor Ende Jahr kauf ich sicher nichts. Egal ob NV oder AMD.
 
Hier hört mein Verständnis nach und nach aber auch auf. Ich halte das auch schon, für eine Art und Weise, der Vermarktung [...]

Also grundlegend ist es erst mal so, dass die Hersteller AMD, Intel, nVidia & Co grundsätzlich machen können was sie wollen, da wir hier eine freie Marktwirtschaft und kleine Planwirtschaft haben. Sie dürfen "blöde" Konfigurationen oder gar obsolete Produkte , überhöhte Preise und geringe Stückzahlen auf den Markt werfen wie sie wollen und das ist auch gut so. Und dir als Konsumenten steht ebenso eine Handlungsfreiheit zu, d. h. niemand kann dich zwingen oder davon abhalten deren Produkte (nicht) zu kaufen.
Es ist recht anmaßend zu meinem einem Gewerbetreibenden vorschreiben zu wollen wie er sein Geschäft zu führen hat und ihm damit handfeste vertriebstechnische Nachteile aufzuzwingen, nur weil man "vorab etwas bzgl. dieses konkreten Händlers wissen möchte". Interne Roadmaps und Planungnen werden nicht ohne Grund unter Verschluss gehalten und mit welchem Recht sollte man diesen Gewerbetreibenden jetzt zwingen die Daten vorzeitig offenzulegen und somit sein Geschäft schädigen?
Wenn du danach gehst, war das Verhalten von AMD gar noch verwerflicher, denn die wussten bereits seit 2017/18, dass es keine Raytracing-Hardware von denen vor Ende 2020 geben wird, aber spätestens seit dem Turing-Launch, als auch sie regelmäßig mit Fragen diesbezüglich gelöchert wurden, kam nur heiße Luft und ausweichende Antworten. Mit welchem Recht hätte man AMD hier zwingen sollen die Karten auf den Tisch zu legen (mitsamt allen Konsequenzen?): "Es wird kein Raytracing von uns in den nächsten 2,5 Jahren geben, vergesset es, ihr könnte alle bedenkenlos bei Turing zugreifen" ? **)

Derartige Beschwerden sind grundsätzlich überflüssig, da man sich als mündiger Konsument selbst ohne tieferes Wissen ausrechen kann, dass nVidia in der neuen Konkurrenzsituation irgendwie reagieren wird um sich nicht die Butter vom Brot nehmen zu lassen. Und da AMD erst anderthalb Monate später agiert, ist ebenso absehbar, dass nVidia erst frühestens um diesen Zeitpunkt herum reagieren kann. ;-)
Und schlussendlich kann man noch nicht einmal von mangelndem Wissen reden (zumindest nicht hier in diesem Forum), denn die 16/20 GiB-Versionen geistern schon lange umher und Igor hat gar konkrete PCBs zu diesen vorab bestätigt, d. h. es war schon vor längerer Zeit klar, dass die kommen werden *). Und bspw. die indirekte Bestätigung zur Existenz der 16GB-Version der 3070 kam gar noch vor dem Launch-Event von Lenovo.
Wenn man hier schnappatmungsgleich beim Erscheinen der erstbesten Karte unüberlegt zugreift, als wenn übermorgen der Weltuntergang bevorstünde, dann braucht man wohl nicht lange nach einem Schuldigen zu suchen, wenn man nachfolgend "derart überrascht" wird ... ;-)

*) Von etwas (markt)technischem Sachverstand will ich hier erst gar nicht anfangen, denn es war offensichtlich dass die Auslegung des SI und die VRAM-Ausbaustufen 8, 10 GB und 24 GB auf der anderen Seite nur einem Zweck dienten ...

**) Das gleiche übrigens bei den APUs. Seit Ende 2018 hat man eine modernere Grafik-IP, jedoch stattet man Renoir in 2020 und auch Cezanne in 2021 mit weiterhin der alten Technik aus und hat diese behelfsmäßig überarbeitet. Ist das jetzt verwerflich oder gar glatter Betrug? Wohl eher nicht. AMD handelt hier, wie jedes Unternehmen, zu seinem persönlichen Vorteil und der sah in diesem Falle nun einmal so aus, dass die IP nicht frühzeitig genutzt werden darf. Dass kann man als Konsument "blöd" finden, betrügerische Machenschaften o. ä. kann man der Firma damit aber nicht vorwerfen. Es ist einfach wie es ist und man wird schließlich nicht gezwungen deren Produkte zu kaufen.
 
Zuletzt bearbeitet:
Grundsätzlich gbe ich dir Recht, aber bei einem Release einer neuen Gen und dann zwei, drei Monate später besser ausgestattet, ist bei einem Produktzyklus von 24 Monaten eben nicht ganz so deutlich für mich.

Wenn es bei zwei Monaten bleiben würde, dann würde ich auch den Unmut verstehen.

Da es hier dann auch um die Sicht, der Privatkunden geht, verstehe ich auch dann Begrifflichkeiten, wie "Abzocke", oder "melken".

Das ein Unternehmen einzig sich selbst verpflichtet ist, steht außer Frage. Abre je nach dem, wie sehr man den Bogen Spannt, kann man auch Kunden verlieren.

Grafikkarten wurden die letzten 10 Jahre auch nicht zeitgleich, von AMD und Nvidia veröffentlicht.

Keiner kann hier wem anders die Meinung vorschreiben.
Leaks sind auch ein zweischneidiges Schwert. Wie groß die Konkurrenz ist, muss isch erst beweisen. Wir können uns meiner Meinung nach, sicher sein, das Nvidia schon relativ lange weiß, wie viel Speicher AMD bringen wird und auch was in etwa an Leistung raus springt.

Nochmal, grundsätzlich sollen die Hersteller machen, was die wollen. Aber in der Kürze (zwei, oder drei Monate), hat das auch für mich(was meine Meinung ist) einen negativen Beigeschmack. Wofür sonst, als für den Austausch von Erfahrungen, Informationen, wie auch Meinungen soll ein Forum sonst gut sein.

Eine Frage noch, wann gab es das zuletzt, das einer der beiden Hersteller eine neue Gen veröffentlicht hat, der Konkurrent quasi nur einen Monat später, woraufhin der erste Hersteller nochmal direkt nachlegt. Nur aus Neugier, fällt mir gerade nicht ein.
 
Zurück