• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

Pu244

Lötkolbengott/-göttin
Tja es gibt User die auch eigene Erfahrung gemacht haben, aber das ignorierst Du ja bewusst, weil nur Deine eigene Erfahrung die einzig wahre ist. Seltendämlich ist eigentlich nur, wenn man anderen die eine Grafikkarte mit 10GB Speicher kaufen unterstellt, die Grafikkarte nur kurze Zeit zu nutzen.

Du hast doch gesagt, dass du deine Karten nur relativ kurz nutzt und du sagst es in diesem Post dann auch nochmal.


Der VRam wird die nächsten 4.Jahre sicherlich überhaupt kein Problem und dann kaufen die meisten User sich sowieso wieder eine neue Grafikkartengeneration, vor allem die User, die sich für Innovation und fortschreitende Technik interessieren und davon gibt es in Foren wie diesem hier, sehr viele.

Das Steam Survey sagt irgendwie das Gegenteil, sehr viel Pascal, einiges an Maxwell, AMD ist auch vertreten, vorallem mit den RX 400/500ern und Vega. Die alten Karten halten sich da ganz gut.

Ob der VRAM in 4 Jahren ein Problem darstellt, hängt von den Ansprüchen ab. Sehr viele weigern sich hier strikt Details herunter zu stellen und bezeichnen alles unter Ultra als unspielbar. Die Leute dürften eine böse Überraschung erleben.

Das mit dem VRam habe ich nach dem Kauf meiner GTX 1070 damals auch immer wieder gehört, aber das vergeht und nach 3 bis 4. Jahren sind alle diese Kritiker verstummt.

Da hast du dich vermutlich verhört, denn deine GTX 1070 gehörte damals zu den Karten, die am zweitmeisten RAM hatten. Nur die GTX Titan X war mit 12GB besser bestückt. Die GTX 1070 war eine absolut hervorragende Karte, mit üppigem Speicher (6GB gingen nicht, 4GB wären zu popelig, da blieben nur noch 8GB).

Ich vermute mal, du hast das falsch in Erinnerung, deshalb hast du auch nichtsmehr von den Kritikern gehört.

Da bin ich ja froh, dass Du niemals eine Grafikkarte wie eine RTX 3080 kaufen wirst, weil Deine Erwartungen Nvidia sicherlich nie erfüllen wird.

Nvidia hat sehr viele Karten, mit üppiger VRAM Ausstattung rausgebracht. Die GTX 1070 und 1080 sowie die GTX 1080Ti, die GTX 980Ti, GTX 960 4GB, GTX 470 und 480 sowie 570 und 580, besonders mit 3GB. Jetzt sind es die RTX 3090 und auch 3060. Nur der Rest läßt teilweise doch manchmal sehr zu wünschen übrig.


Zum Glück gibt es ja regelmäßig neue Grafikkartengenerationen und so geht dann das Spiel mit dem zu geringen VRam alle zwei Jahre aufs Neue los. Mittlerweile belächelt man diese User nur noch und schmunzelt, weil die Diskussion einfach nur ermüdend ist und immer an der Realität gescheitert ist!

Eigentlich hatten sie jedes mal recht. Ein geringer VRAM kann einer ansonsten guten Karte vorzeitig das Genick brechen. GTX 670/680 2GB, GTX 780(Ti), Fury X, GTX 1060 3GB um nur einige zu nennen. Wer seine Karten gerne lange nutzt, sollte darum möglichst einen Bogen machen.


In Foren wie diesem hier bezweifle ich, dass die meisten User Ihre Grafikkarte 9. bis 10. Jahre im Rechner haben, aber wir können ja in 10.Jahre nochmals Diskutieren, dann dürfte für Dich ja die RTX 3080 erschwinglich sein und noch genügend Leistung haben.

Es ist ja keine Pflicht, die Karte so lange zu nutzen, aber wenn die Möglichkeit besteht, dann nimmt man die gerne mit. Vor 10 Jahren hätte ich nicht gedacht, dass es dazu einmal kommen könnte, aber die R9 290X 8GB hat mich eines besseren belehrt. Die ist 8 Jahre alt und noch kein Ende in Sicht, genau, wie bei der ersten Titan. Mit R9 390(X) gibt es die erste Karte, die das schaffen könnte, die keine Sonderkarte ist, die Seltenheitswert besitzt (vorher kämen noch die HD 7970 6GB und die GTX 670/680 4GB dran).

Es ist nicht so, dass ich sie mir nicht leisten könnte, das wäre momentan auch bei RTX 3090 der Fall. Ich bin nur eben nicht bereit 3000€ für so eine überteuerte Karte auszugeben.


Ja, weil DLSS nur den Ultra Performance Mode bietet. Aber verständlich, wenn man nie eine RTX 3080 im eigenen Rechner hatte, da kennt man sich dann fachlich bei den Settings nicht so aus!

Der Haß zerfrißt dein Hirn.

Ich habe nirgendwo behauptet, dass das der einzige Modus wäre (im Gegenteil), es der beste Modus, wenn man seine Karte lange möglichst gut nutzen möchte.


Nochmals, das Brett welches bei Dir von Post zu Post immer dicker wird, sitz ganz allein vor Deinem eigenen ich. Nur weil Du Dir nicht alle zwei oder vier Jahre eine neue Grafikkarte kaufen möchtest oder nicht leisten kannst, haben alle die mit der Zeit gehen und Technikaffin sind und gerne mit der Technik gehen, ein Brett vor dem Kopf.

Der Punkt, den du einfach nicht verstehst, ist, dass es noch Leute gibt, die eine andere Einstellung zu der Sache haben als du und ihre Karte gerne etwas länger nutzen wollen. Für diese Leute sind dann auch andere Dinge wichtig.

Wer seine Karte sowieso jede Generation ersetzt, der wird mit den 8, 10 und 12GB eher wenig Probleme haben und wenn, dann ist in kurzer Zeit sowieso die nächste Karte fällig.

Wer seine Karte jedoch länger nutzt, der wird mit viel VRAM wesentlich besser und weiter fahren, als mit einer Karte, die da sehr knausrig ist (wie z.B. die RTX 3070, 3080 und auch noch 3080Ti). Das sollte man dann besonders berücksichtigen.

Da du dies nicht verstehen willst und offenbar annimmst, wenn du keine Probleme hast, dann haben alle anderen auch keins, hast du ein Brett vorm Kopf. Du siehst die Probleme der andern.


Ich weiß gar nicht, was Du mit dieser Einstellung eigentlich in einem so Technikaffinem Forum wir hier willst, Du wärst sicherlich in einem Retro Style Forum, wo man immer nur der Meinung ist, früher war alles viel besser, doch deutlich besser aufgehoben!

Ich wußte gar nicht, dass Technikaffin bedeutet, dass man sein Geld zum Fenster rausschmeißen und sich alle zwei Jahre eine neue Karte zulegen muß.

Mea Culpa
[/Ironie Off]

Ja, wenn man nur auf den Speicher fixiert ist, kann das schon mal passieren, vielleicht auch ein wenig die Qualität der Grafikkarten und deren Komponenten im Auge behalten, auch wenn es dann vielleicht den ein oder anderen Euro mehr kostet!

Ich habe mir eine von EVGA geholt, keine von deinem Namensgeber und sie hat auch mehr als nur ein paar Euro mehr gekostet. Der einzige Fehler, den ich gemacht habe, war keine 10 Jahre Garantie abzuschließen.


Ja, das hättest Du gerne!

Wäre doch ein echt feiner Zug von dir und du könntest umgekehrt Erfahrungen mit alten karten sammeln.


Aber selber kaufen ist angesagt, vielleicht änderst Du ja dann Deine Meinung, weil eine High End Grafikkarte selber zu finanzieren und zu betreiben, vielleicht Deine Wertschätzung verändert.​

Tja wollte ich, allerdings habe ich auf die Amperekarten und HD 6000er sowie Ryzen 5000 gewartet und darauf warte ich noch immer. Ich bin doch nicht blöd und zahle 900€ für eine RTX 3060 oder 1500€ für eine RX 6800XT. Sich gebraucht für 400€ eine RTX 2080Ti der Panikverkäufer zu sicher, das wäre die Königslösung gewesen, aber wollte ja eine lange Garantie...

Manche Dinge hätte man eben vorher wissen müssen.


Wo ich was zu melden habe oder nicht, das kannst Du getrost mir überlassen, noch leben wir in einem freien Land mit einer Demokratie und freier Meinungsäußerung!

Du meintest ich ich hätte nichts zu melden, weil ich nur eine alte Karte habe, dann hast du im Umkehrschluß auch nichts zu melden, wenn es um eine lange Nutzungsdauer geht.

Wenn du ein ad hominem Argument bringt, dann mußt du damit leben, dass es gegen dich verwendet wird.


Oh, verdrehen wir jetzt wieder die Tatsachen und Argumente, mir ist es im Gegensatz zu Dir völlig wurscht, wer welche Grafikkarte wie lange nutzt. Warum sollte mich das auch interessieren, das muss jeder für sich selbst entscheiden.

Offensichtlich ist es dir nicht wurscht, dann ansonsten würdest du nicht allen erzählen, dass ein großer VRAM angeblich so unnötig ist.


Und wieder verdrehen wir die Tatsachen, mir ist es völlig egal wie lange jemand seine Grafikkarte nutzt oder auch nicht, was habe ich damit zu tun. Andere zu belehren macht hier nur einer, der nicht akzeptiert, wenn sich User Grafikkarten mit 10GB kaufen und damit zufrieden sind. Nur weil er keine andere Meinung und Erfahrung außer seiner eigenen akzeptiert!

Jetzt verdrehst du wieder die Tatsachen. Du hast behauptet es bräuchte keinen großen VRAM und die Leute würden sich (angeblich) sowieso permanent neue Karten holen. Beides ist eben falsch.

Wer sich hingegen sowieso jede Generation eine neue Karte holt, auch mit niedrigen Details zurecht kommt oder als High FPS Gamer sowieso in niedrig unterwegs ist, der wird wohl auch mit den 8,10 und 12GB glücklich, der Rest sollte es sich zumindest überlegen.
 

shaboo

Software-Overclocker(in)
Ob der VRAM in 4 Jahren ein Problem darstellt, hängt von den Ansprüchen ab. Sehr viele weigern sich hier strikt Details herunter zu stellen und bezeichnen alles unter Ultra als unspielbar. Die Leute dürften eine böse Überraschung erleben.
Mir ist der Speicher bei der 3070 und der 3080 ja auch zu knapp, aber am Ende ist Leistung halt doch wichtiger.

Müsste ich mir jetzt einen neuen Rechner kaufen und wäre bereit, die aktuellen Preise zu zahlen, dann würde ich trotz der "nur 10 GB" zur 3080 greifen und nicht zur 3060, einfach weil der 3060 die Leistung früher ausgeht als der 3080 der Speicher. Wenn der 3080 der Speicher ausgeht, kann ich vieles machen: DLSS aktivieren, Raytracing deaktivieren, auf eine niedrigere Auflösung wechseln oder sonstige Einstellungen runterdrehen. Wenn es der 3060 aber grundsätzlich an Leistung mangelt, ist der Spielraum, dort einen Titel irgendwie zum Laufen zu bekommen, deutlich geringer.
 

Cohen

PC-Selbstbauer(in)
Die zwei Launches von Turing und Ampere sind aber halt auch Not gegen Elend in der Tabelle. Wir wissen was Nvidia gemacht hat um bei Turing das Blatt zu wenden und das war eine aggressive Preispolitik, viele und neue Produkte im Sektor unter 300€, eine hohe Verfügbarkeit und jede Menge Werbung.

Die 1600er Serie ging im Februar 2019 los. Die wird in der Liste noch nicht erscheinen, aber im Vergleich mit April '21, wusste man wenigstens in der letzten Generation, dass da etwas passiert. Nvidia hinkt hier entweder hinterher, oder sie haben derzeit nichts. Die Gerüchte gehen ja schon wieder in Richtung 4000er Serie und nicht in Richtung 200€ Modelle.

Bisher ist der prozentuale Anteil im Steam-Survey nach 6 Monaten bei Ampere höher als bei Kepler, Maxwell und Turing nach jeweils 6 Monaten... trotz schwieriger Produktion durch die Pandemie und trotz Minern.

Und wir dürfen auch nicht vergessen, dass der "Steam-Kuchen" über die Jahre stetig gewachsen ist.
Ende 2020 hatte Steam 120 Mio. "monthly active users", 2018 waren es noch 90 Mio. "monthly active users", zum Pascal-Start noch deutlich weniger.

Knapp 3 Prozent von 120 Millionen sind z. B. mehr Stückzahlen als 5 Prozent von 60 Millionen.
 

RedDragon20

BIOS-Overclocker(in)
Da ich sowieso nur in WQHD zocke und das auch noch einige Jahre so bleiben wird, wären 12GB VRAM für mich völlig ausreichend. Seit nun fast 5 Jahren werkelt bei mir schon eine GTX1080 Speicherkrüppel aka 8GB rum. Der VRAM wurde bisher nie komplett voll.

Ich vermute mal, das würde sich auch mit ner RTX3080Ti nicht ändern, wenn ich weiter in WQHD spiele. Wäre der Preis angenehm bezahlbar, wäre so ne 3080 Ti wohl das Ding, was ich mir kaufen würde.
 

shaboo

Software-Overclocker(in)
Seit nun fast 5 Jahren werkelt bei mir schon eine GTX1080 Speicherkrüppel aka 8GB rum. Der VRAM wurde bisher nie komplett voll.
Ich glaube nicht, dass jemals irgend jemand die GTX1080 als Speicherkrüppel bezeichnet hat.

Ist halt erstens ein Unterschied, ob man 8 GB 2016 oder 2021 verbaut, und zweitens, wie viel man dafür bezahlt.

Ansonsten gebe ich dir Recht: Gegen eine halbwegs bezahlbare 3080Ti in Kombination mit WQHD hätte ich auch nichts einzuwenden und würde mir da auch keine ernsthaften Sorgen um den Speicher machen. Ich kann allerdings Regler auch nach links drehen ...
 

DaHell63

BIOS-Overclocker(in)
Da du dies nicht verstehen willst und offenbar annimmst, wenn du keine Probleme hast, dann haben alle anderen auch keins, hast du ein Brett vorm Kopf. Du siehst die Probleme der andern.
Wenn er oder ich mit 8-10GB Vram keine Probleme haben was soll man da nicht verstehen? Was jucken mich Probleme anderer Spieler? Wenn sie Probleme haben ist das deren Sache, die auch nur sie alleine beheben konnen.
Ich entscheide für mich ganz alleine nach welchen Kriterien ich kaufe, da brauche ich keinen Schlaumeier der mir sagt wie doff ich bin, oder welch dickes Brett ich vorm Kopf habe. Gesteh doch einfach jedem seine eigene Kaufentscheidung zu, anstatt sich um Sachen zu kümmern die Dich nichts angehen. Der einzige der hier angebliche Probleme anderer sieht bist ja wohl Du.
Ist halt erstens ein Unterschied, ob man 8 GB 2016 oder 2021 verbaut, und zweitens, wie viel man dafür bezahlt.
Welcher Unterschied? 8GB sind 8GB. Nur das die RTX 3070 erheblich mehr Power hat als die GTX 1080...die auch noch teuerer war
 

raPid-81

Freizeitschrauber(in)
@ raPid-81

Verstehe ich dich richtig, dass die sagen möchtest das DLSS 2.0 besser is als die native Auflösung?
Du weisst schon, dass das falsch ist?
Wenn Du Dich mit der Materie auseinander setzt wirst Du feststellen dass dem in den meisten Fällen tatsächlich so ist. Pu244 hat es ja bereits erklärt.

1. Ja die Liste. Is schön. Und Du weisst schon, das Spielentwicklung kostest, vor allem Zeit! Zeig mir die Spiele mit RT auf einer Liste und ich zeig Dir ne längere Liste mit Spielen ohne RT. Und zeig mir Spiele wo das Feature das Spiel an sich besser macht (qualitativ).
2. Nur wenn die Spiele verpflichtend RT unterstützt haben müssen, dann müssen es AMD-Karten können (werden es aber wohl schon früher).
3. Solange ich den Mist abstellen kann, den ich nicht brauch, werd ich ihn abstellen.
4.Nur weil Engines RT können, entstehen nicht über Nacht hunderte Usecases und sprießen wie Pilze aus dem Boden. Siehe Punkt eins. Anscheinend ist es in der Entwicklung nicht so ein Killerfeature. Wenn es schnell zu implementieren wäre, könnten wir uns vor RT-fähigen Spielen nicht retten.
1. Hier eine Liste, und sie ist tatsächlich schon deutlich länger geworden als so mancher hier behauptet hat: Link
Neue Grafik-Features machen ein Spiel NIE besser, nur schöner. Tatsächlich hat RT-Reflections aber Einfluß auf das Spielgeschehen da es in Spiegeln das darstellt was physikalisch korrekt dort angezeigt werden sollte. Aber Du bist ja anscheinend gegen jegliche Grafik-Innovation, also bleib ruhig bei deinen Rasterization und Screen-Space-Reflection Games.

2. + 3. Na dann spiel Du halt ohne RT. Die vor kurzem veröffentlichte RT + DLSS Tech Demo zeigt sehr schön wie stark RT die Spiele Entwicklung vereinfacht (Ausleuchtung, Reflektionen, Schatten per Knopfdruck). Jedem das seine, ich finde die RT Darstellung und DLSS sind Meilensteine in der Grafik-Entwicklung, und damit bin ich nicht allein.

4. Wenn Engines mit so großem Verbreitungsgrad (gerade UE und Unity) RT und DLSS nativ unterstützen, und das per Knopfdruck, dann kann man davon ausgehen dass die Anzahl der Spiele mit RT und DLSS rasant steigen wird. Die Konsolen unterstützen ja auch RT. Heißt die Spiele Entwickler nehmen eine Engine, per DX12 und native RT Unterstützung schalten sie RT natürlich an (because why not), es läuft ja sowohl auf den Konsolen als auch auf dem PC. Auf dem PC kann man dann ein paar mehr RT Effekte und DLSS aktivieren da die NV Karten hier ordentlich Leistung bringen.


Ja stimmt, hast recht. Die kopieren ja nur... Was haben die schon hinbekommen, außer den Schweineverein ATI zu kaufen und daran fast pleite zu gehen. Ja und CPU mäßig sind die ja auch nur an die x86 Lizenz beim Strippoker gekommen.
Tatsächlich ist das so im GPU Bereich. Nenn mir doch mal eine Innovation die AMD gebracht hat. "SAM" zählt nicht, das hat nichts mit neuen Effekten zu tun.


Wenn man es kann, dann sollte man es auch machen. DLSS verändert einfach die Art, wie man Auflösungen wahrnimmt. Wenn die Karte nur stark genug ist, das Spiel in 720p zu rendern und man die Wahl hat, es auf 4K aufzublasen oder auf WQHD bzw. Full HD, dann sollte man 4K nehmen, wenn man so einen Monitor besitzt.

Warum sollte man so blöd sein und diese tolle Funktion nicht nutzen, wenn es sie gibt? Das ist auch ein gutes Beispiel, weshalb AMD ein massives Problem hat, das sie angehen sollten, ehe es größer wird. Eine 330€ Karte kann ihre 1000€ Karte überholen, das sagt eigentlich alles.

Im übrigen: die GT 1030 ist Low End Karte, die RTX 3060 ist hingegen obere Mittelklasse. Das zeigt sehr deutlich wie abgehoben du bist. (Nimm es nicht persönlich, das ist einfach so. Viele Leute haben einfach keinen Bezug zu Realität anderer, etwa der Vorsitzende der Jungen Union, Tilman Kuban, der allen ernstes die Obdachlosigkeit, mit Wohneigentum bekämpfen wollte, als ob irgendeine Bank einem Penner einen 400.000€ Kredit geben würde. Du kannst es dir eben nicht vorstellen, dass es auch Leute gibt, die unterhalb einer RTX 3070 zocken und die ihre Karten länger als zwei Jahre nutzen, da liegt das Problem begraben).
Du hast es aber so dargestellt dass man DLSS jetzt schon "braucht". Das finde ich im Zusammenhang 3060 + 4K einfach Unfug, das ist doch nicht der normale use-case. Wer in 4K spielen möchte der sollte sich keine 3060 kaufen. Das hat auch nichts mit "abgehoben sein" zu tun, wer im Enthusiasten Bereich spielen will der muss eben auch Enthusiasten Hardware anschaffen. Von mir aus ist eine 3060 untere Mid-Range, ändert nichts daran dass diese Karten definitiv nicht 4K als Target-Resolution haben.

Wenn ich für jede Technik, die so angeblich die 3D Leistung der Grakas revolutionieren sollte und dann gefloppt ist, 1€ bekommen hätte, dann wäre ich zwar nicht reich, aber 100-200€ wären drin.

Bei PC liegt es durchaus nahe, einmal den üppigen RAM zu bemühen, es gab auch die letzten 25 Jahre viele Versuche, nur sind die allesamt gescheitert. Die Möglichkeit, sowas zu nutzen, wäre da, aber abseits von homogenen Plattformen, wie den Konsolen, glaube ich nicht wirklich dran. Der VRAM ist durch nichts zu ersetzen und es deutet fast alles darauf hin, dass das auch die nächsten10 Jahre, am PC, so bleiben wird.
Die Konsolen haben auch ziemlich genau 10 GB Grafikspeicher, siehe hier: Link
Da es immer mehr plattformübergreifende Spiele gibt, und die meisten PC Spieler wie Du vorher so schön dargelegt hast keine High-End Grafikkarten haben, ist der Target-VRAM Verbrauch garantiert nicht 16 GB. Eine 6700XT hat ja z.B. auch "nur" 12 GB.

Aber wie gesagt: fast alles, d.h. es gibt ein paar Spiele, für die es nicht reicht (und ja, die werden immer mehr).
Welche denn? Immer wenn man danach fragt kommen hier dieselben 1-2 Beispiele die nur mit ganz besonderen Settings den VRAM stark belegen. Und da bin ich auch nicht sicher ob es allocated oder needed VRAM ist, siehe Link

Wo lebst du denn, dass alle 2 Jahre neue Grafikkarten mit mehr VRam rauskommen? Die 8GB sind seit locker 6 Jahren Standard. Also über welchen Zeitraum sprechen wir? Den Sprung von 256 auf 512MB?
Und, haben 256 noch jahrelang gehalten?

Und falls es dich interessiert: Cities Skyline sprengt bei mir inzwischen die 8GB locker bei Spielstart. Das kann durchaus auch 14 GB belegen. Heute schon. Schon ok wenn du so etwas nicht spielst und dir 10 GB auf jeden Fall reichen.
Anderen aber nicht.
14 GB belegen oder allocaten? Das Gros der Spiele wird sich sowieso am VRAM der Konsolen orientieren, und da sind es nun mal 10 GB. Siehe hier.

But there is an inherent issue with RTSS, and almost every single other monitoring program on your computer, from GPU-Z, to EVGA Precision, to even HWiNFO64. All of these tools report "Allocated VRAM", which is not the same as "VRAM Usage", thus why we see a number that is far higher than the reality.
The XSX has 13.5GB of VRAM to allocate to games, and must share this amount with the CPU. Also only 10GB of the XSX's VRAM has the faster bandwidth of 560GB/s, the other 3.5 GB runs at 336 GB/s. Developers will not likely be allocating more than 10GB to the GPU, otherwise they run into a bandwidth penalty.

Die zwei Launches von Turing und Ampere sind aber halt auch Not gegen Elend in der Tabelle. Wir wissen was Nvidia gemacht hat um bei Turing das Blatt zu wenden und das war eine aggressive Preispolitik, viele und neue Produkte im Sektor unter 300€, eine hohe Verfügbarkeit und jede Menge Werbung.

Die 1600er Serie ging im Februar 2019 los. Die wird in der Liste noch nicht erscheinen, aber im Vergleich mit April '21, wusste man wenigstens in der letzten Generation, dass da etwas passiert. Nvidia hinkt hier entweder hinterher, oder sie haben derzeit nichts. Die Gerüchte gehen ja schon wieder in Richtung 4000er Serie und nicht in Richtung 200€ Modelle.
Sekunde, zuerst kommst Du mit dem Vergleich Turing / Ampere, sagst dass Ampere ja eine deutlich schlechtere Verbreitung in derselben Zeit hat, es wird widerlegt und jetzt ist das doch kein guter Vergleich!? Wie ein Fähnchen im Wind schwingen die Argumente hin und her so dass es passt...
 
Zuletzt bearbeitet:

RedDragon20

BIOS-Overclocker(in)
Ich glaube nicht, dass jemals irgend jemand die GTX1080 als Speicherkrüppel bezeichnet hat.

Ist halt erstens ein Unterschied, ob man 8 GB 2016 oder 2021 verbaut, und zweitens, wie viel man dafür bezahlt.

Ansonsten gebe ich dir Recht: Gegen eine halbwegs bezahlbare 3080Ti in Kombination mit WQHD hätte ich auch nichts einzuwenden und würde mir da auch keine ernsthaften Sorgen um den Speicher machen. Ich kann allerdings Regler auch nach links drehen ...
Ich wollte damit auch nur sagen, dass selbst 8GB noch ausreichend wären. Ich drehe, wann immer ich ein neues Spiel kaufe, IMMER erstmal alle Regler nach rechts und baller hoch, was geht, bevor ich schaue, welche Settings optimal wären. Bis auf die Auflösung, die bei WQHD bleibt. Manchmal war es grenzwertig hinsichtlich VRAM, aber stets ausreichend.

10, bzw. 12GB VRAM dürften also vollkommen ausreichen. 24GB wie bei der 3090 sind vollkommen überdimensioniert, selbst für 4K/UHD.
 

doedelmeister

Freizeitschrauber(in)
Das Problem sind weniger die 12 GB Speicher als Leute ,die meinen es wäre ne gute Idee über zwei DinA4 Seiten andere Beiträge zu quoten. Das ist einfach lästig und unübersichtlich. Versucht doch bitte eure aussagen auf den Punkt zu formulieren und hier nicht das Forum zu zu spammen. Danke!
 

Pu244

Lötkolbengott/-göttin
Wenn er oder ich mit 8-10GB Vram keine Probleme haben was soll man da nicht verstehen? Was jucken mich Probleme anderer Spieler? Wenn sie Probleme haben ist das deren Sache, die auch nur sie alleine beheben konnen.

Der Punkt ist, dass er seine Sicht für allgemeingültig erklärt und nicht erkennen will, dass es auch noch Leute gibt, die andere Prioritäten haben.

Ich entscheide für mich ganz alleine nach welchen Kriterien ich kaufe, da brauche ich keinen Schlaumeier der mir sagt wie doff ich bin, oder welch dickes Brett ich vorm Kopf habe. Gesteh doch einfach jedem seine eigene Kaufentscheidung zu, anstatt sich um Sachen zu kümmern die Dich nichts angehen. Der einzige der hier angebliche Probleme anderer sieht bist ja wohl Du.

Mache ich ja, wer damit kein Problem hat, der soll damit glücklich werden und sie kaufen. Nur sollte er aufhören krankhaft zu leugnen, dass ein geringer VRAM ein Problem sein kann, bzw. eines wird, wenn man die Karte möglichst lange nutzen möchte.

Er oktroyiert anderen seine Sicht der Dinge auf, er gesteht anderen nicht zu, dass sie sich anders entscheiden könnten, wenn, dann kümmert er sich um Dinge, die ihn nichts angehen (wobei das in einem Hardwareforum eine steile These ist, da es um Meinungsaustausch geht). Ich habe kein Problem damit, wenn sich jemand eine Karte mit wenig VRAM kauft und damit kein Problem hat, wohl aber, wenn derjenige seine Sicht zur einzigen Wahrheit erklären will.

Seit nun fast 5 Jahren werkelt bei mir schon eine GTX1080 Speicherkrüppel aka 8GB rum. Der VRAM wurde bisher nie komplett voll.

Die GTX 1080 war nie ein Speicherkrüppel, im Gegenteil, sie war die Nvidiakarte, mit der verhältnismäßig üppigsten VRAM Ausstattung seit der 8800GTX (die Titanen außen vor gelassen), bis die GTX 1080Ti kam.

Mir ist der Speicher bei der 3070 und der 3080 ja auch zu knapp, aber am Ende ist Leistung halt doch wichtiger.

Mir persönlich wäre beides recht, die Hoffnung auf eine RTX 3070 16GB ist noch nicht gestorben.
 

DaHell63

BIOS-Overclocker(in)
Eben, sie kann also mehr Daten gleichzeitig verarbeiten. Und wo nimmt sie die Daten her? Richtig, aus dem Vram -> mehr Power sollte auch mehr Vram bekommen.
Sicher hätte ich gegen mehr VRam auf der RTX 3070 nichts gesagt. Für QHD ist sie für mich völlig ausreichend.
Und wischt nebenbei mit der GTX 1080Ti 11GB, die ich verkauft habe, den Boden auf. Die RX 6800 habe ich auch nicht wegen den 16 GB gekauft, sondern weil ich einfach von der Karte ansich überzeugt bin. Da könnte man auch die geringere Raytracing Leistung ins Spiel bringen. Aber muß ich RT unbedingt anstellen? Wenns geht..gut. Wenn nicht dann nicht. Wer am wenigsten Kompromisse machen will, der muß sich halt ne RTX 3090 kaufen. Genug VRam und die höchste RT Leistung...was nur noch vom Preis übertroffen wird :ugly:.
 
Zuletzt bearbeitet:

IngenieursLP

PC-Selbstbauer(in)
Du meinst ernsthaft dass man mit diesen Karten aktuelle Spiele gut zocken kann? Wir sprechen da von 6+ Jahren, sorry, aber das ist doch lächerlich. Hier wird über aktuelle High-End Performance gesprochen (3080 / 6800XT aufwärts), die meisten wechseln hier doch ihre Grafikkarte spätestens alle 2 Generationen.
Du musst den Beitrag auch schon richtig lesen :D
Ich habe gesagt, man kann besser mit den AMD Karten spielen. Das bedeutet nicht, dass man damit heutzutage gut spielen kann.

Aber sieh dir mal die R9 390(x) an. Mit einer GTX 980 kannst du mit 4GB nix mehr anfangen, das reicht nichtmal für FullHD. Die R9 390(X) hingegen schon. Jetzt endlich mal die Intention von mir verstanden?

Wir erinnern uns: Die RX 480 / 580 rechnet in der gleichen Leistungsklasse. Und jetzt erzähl mir nicht, mit einer RX 580 könnte man heutzutage nicht mehr gut zocken.
Dass AMD sein DLSS Pendant ein Jahr verschiebt? Egal, braucht keiner.
DLSS bringt massiv FPS? Aber DLSS 1.0 sah mies aus.
DLSS 2.0 macht es besser? Im Quality Mode kein Unterschied zu nativ erkennbar? Egal, nativ > all. Wen interessieren FPS?
Richtig! Was bringen mir die meisten FPS, wenn das Spiel danach aussieht wie Matsche?
Aber das bekommen User wie deine Wenigkeit ja nicht mit. Die kaufen sich alle 2 Jahre eine neue GPU und das wars dann.
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Du hast es aber so dargestellt dass man DLSS jetzt schon "braucht". Das finde ich im Zusammenhang 3060 + 4K einfach Unfug, das ist doch nicht der normale use-case. Wer in 4K spielen möchte der sollte sich keine 3060 kaufen. Das hat auch nichts mit "abgehoben sein" zu tun, wer im Enthusiasten Bereich spielen will der muss eben auch Enthusiasten Hardware anschaffen. Von mir aus ist eine 3060 untere Mid-Range, ändert nichts daran dass diese Karten definitiv nicht 4K als Target-Resolution haben.

Wenn man so einen Monitor hat, dann sollte man ihn auch nutzen, das ist ja gerade das geniale an DLSS. Es wäre einfach nur dämlich, von z.B. 720p auf 1440p hoch zu skalieren, wenn man auch auf 4K gehen kann. Kostet sehr wenig Leistung, bringt aber sehr viel. Man kann nun auch von einer hohen Auflösung profitieren, selbst wenn man eine Karte hat, die nicht ganz so gut ist.

Untere Mittelklasse wäre wohl die GTX 1660, die obere Unterklasse hingegen die GTX 1650 Super. Die RTX 3060 ist schon ein gutes Stück drüber. Ich Persönlich würde noch die RTX 3060Ti zur oberen Mittelklasse zählen.

Die Konsolen haben auch ziemlich genau 10 GB Grafikspeicher, siehe hier: Link
Da es immer mehr plattformübergreifende Spiele gibt, und die meisten PC Spieler wie Du vorher so schön dargelegt hast keine High-End Grafikkarten haben, ist der Target-VRAM Verbrauch garantiert nicht 16 GB. Eine 6700XT hat ja z.B. auch "nur" 12 GB.

Auf dem PC bietet man sehr gerne große Texturpacks an. Die PS4 und X-Box One haben nur 8GB, dennoch gab es Spiele sie 6GB+ belegen konnten und damit mehr, als die Konsolen den Spielen insgesamt zur Verfügung gestellt haben. Hinzu kommt die Tatsache, dass der PC nicht so effizient mit den Ressourcen umgeht, wie eine Konsole.
 

raPid-81

Freizeitschrauber(in)
Du musst den Beitrag auch schon richtig lesen :D
Ich habe gesagt, man kann besser mit den AMD Karten spielen. Das bedeutet nicht, dass man damit heutzutage gut spielen kann.

Aber sieh dir mal die R9 390(x) an. Mit einer GTX 980 kannst du mit 4GB nix mehr anfangen, das reicht nichtmal für FullHD. Die R9 390(X) hingegen schon. Jetzt endlich mal die Intention von mir verstanden?

Wir erinnern uns: Die RX 480 / 580 rechnet in der gleichen Leistungsklasse. Und jetzt erzähl mir nicht, mit einer RX 580 könnte man heutzutage nicht mehr gut zocken.

Richtig! Was bringen mir die meisten FPS, wenn das Spiel danach aussieht wie Matsche?
Aber das bekommen User wie deine Wenigkeit ja nicht mit. Die kaufen sich alle 2 Jahre eine neue GPU und das wars dann.
Ich halte diesen Vergleich trotzdem für Unfug weil es keinen Unterschied macht ob ich mit einer 6+ Jahre alten Grafikkarte die Details runterschrauben muss weil der VRAM oder die Rohleistung zu klein ist. Flüssiges zocken ist halt erst ab 60+ FPS gegeben, also sollte man das nicht außen vor lassen.

Was bringt mir 16 GB Speicher wenn ich den nur in 4K / 8K voll bekomme (und selbst das ist aktuell schwer hinzukriegen in 4K) wenn das Spiel dann mit <30 FPS abruckelt? Richtig, nichts.
 

raPid-81

Freizeitschrauber(in)
Wenn man so einen Monitor hat, dann sollte man ihn auch nutzen, das ist ja gerade das geniale an DLSS. Es wäre einfach nur dämlich, von z.B. 720p auf 1440p hoch zu skalieren, wenn man auch auf 4K gehen kann. Kostet sehr wenig Leistung, bringt aber sehr viel. Man kann nun auch von einer hohen Auflösung profitieren, selbst wenn man eine Karte hat, die nicht ganz so gut ist.

Untere Mittelklasse wäre wohl die GTX 1660, die obere Unterklasse hingegen die GTX 1650 Super. Die RTX 3060 ist schon ein gutes Stück drüber. Ich Persönlich würde noch die RTX 3060Ti zur oberen Mittelklasse zählen.
Ich meinte die Klasseneinteilung im Verhältnis zur neuen Generation, nicht allgemein über die Bevölkerung verteilt. Da ist laut aktueller Steam Umfrage die 1060 8 GB mit Abstand der Spitzenreiter, und 8 GB VRAM auch. Also werden die Spiele Entwickler garantiert nicht anfangen mit 16 GB zu planen wenn selbst die neuen Konsolen nur 10 GB VRAM haben.

Auf dem PC bietet man sehr gerne große Texturpacks an. Die PS4 und X-Box One haben nur 8GB, dennoch gab es Spiele sie 6GB+ belegen konnten und damit mehr, als die Konsolen den Spielen insgesamt zur Verfügung gestellt haben. Hinzu kommt die Tatsache, dass der PC nicht so effizient mit den Ressourcen umgeht, wie eine Konsole.
Sehr gerne? Ach komm, die Spiele mit HD-Texture-Packs kann man an einer Hand abzählen.
Neue Kompressions-Techniken, Sampler Feedback Streaming und DirectStorage ignorierst Du auch komplett. Und dieselbe Textur verbraucht auf PC und Konsole auch genau gleich viel VRAM, was willst Du mir hier erzählen? :lol:
 

pietcux

Software-Overclocker(in)
Wo lebst du denn, dass alle 2 Jahre neue Grafikkarten mit mehr VRam rauskommen? Die 8GB sind seit locker 6 Jahren Standard. Also über welchen Zeitraum sprechen wir? Den Sprung von 256 auf 512MB?
Und, haben 256 noch jahrelang gehalten?

Und falls es dich interessiert: Cities Skyline sprengt bei mir inzwischen die 8GB locker bei Spielstart. Das kann durchaus auch 14 GB belegen. Heute schon. Schon ok wenn du so etwas nicht spielst und dir 10 GB auf jeden Fall reichen.
Anderen aber nicht.
Auf welcher Karte spielst du denn Cities Skyline?
 

RtZk

Lötkolbengott/-göttin
Ohne jeden Zweifel reichen 8-12 GiB heute ganz ganz locker aus in den hauptsächlich gespielten Auflösungen.
Mit meinen 11 GiB in WQHD und UHD die selbst meine Karte noch grad packen komme ich aber in vielen ein (P)aar Jahre alten Titeln schon langsam ins limit locker auf 9-10 GiB ist häufig. manche ins limit.

9-10 GB belegt heißt erst mal gar nichts (ist eher positiv) und wird oft einfach genommen obwohl der Speicher nicht gebraucht wird.
Hast du ein Beispiel für ein Spiel bei dem die VRAM Größe deiner Karte bei spielbaren FPS limitiert?
 

seahawk

Volt-Modder(in)
Wenn die Miningbremse wirklich funktioniert, dann wird die Karte durchaus interessant. Kann man sie einfach aushebeln, ist die Karte perfekt fürs Mining.

Grundsätzlich gilt beim VRAM: Benötigen ist nicht gleich belegen. Eine gute Gameengine belegt vorhandenen VRAM, selbst wenn es für die Performance nicht benötigt wird. Die Obergrenze der belegung orientiert sich dabei halt an bei der Entwicklung relevanten Größen. Wir sehen dadurch 12GB oder 16GB viel häufiger als über 16GB.
 

4thVariety

Software-Overclocker(in)
Sekunde, zuerst kommst Du mit dem Vergleich Turing / Ampere, sagst dass Ampere ja eine deutlich schlechtere Verbreitung in derselben Zeit hat, es wird widerlegt und jetzt ist das doch kein guter Vergleich!? Wie ein Fähnchen im Wind schwingen die Argumente hin und her so dass es passt...
Wäre es besser, wenn ich die Fakten ignoriere? Wenn jemand zeigen kann, dass die Steamstats bei Turing nicht besser waren, dann akzeptiere ich das als ein Argument in der Kategorie "Situation weniger schlecht als angenommen". Zeitgleich ist das natürlich auch interessant weil man sagen kann "das ist was Nvidia nach dem letzten Schauerstart gemacht hat". Man kann dann Vergleiche ziehen zu dem was derzeit passiert.

Ist Nvidia chronischer Langsamstarter? Hat Steam eine Verzögerung in den Daten? Entwickelt sich das Ampere Portfolio in die gleiche Richtung wie Turing? Alles gut, wegschauen und weiter wie bisher ist nicht gut genug. Ich denke es lohnt schon weiter auf die Situation zu piksen.
 

raPid-81

Freizeitschrauber(in)
Wäre es besser, wenn ich die Fakten ignoriere? Wenn jemand zeigen kann, dass die Steamstats bei Turing nicht besser waren, dann akzeptiere ich das als ein Argument in der Kategorie "Situation weniger schlecht als angenommen". Zeitgleich ist das natürlich auch interessant weil man sagen kann "das ist was Nvidia nach dem letzten Schauerstart gemacht hat". Man kann dann Vergleiche ziehen zu dem was derzeit passiert.

Ist Nvidia chronischer Langsamstarter? Hat Steam eine Verzögerung in den Daten? Entwickelt sich das Ampere Portfolio in die gleiche Richtung wie Turing? Alles gut, wegschauen und weiter wie bisher ist nicht gut genug. Ich denke es lohnt schon weiter auf die Situation zu piksen.
Was soll das denn bringen? Fakt ist: weder AMD noch NV Karten sind aktuell zur UVP breit verfügbar. Somit lässt sich der Start der aktuellen Generation sowieso nicht vergleichen mit Turing / RDNA 1, die waren weder von Minern noch von der Corona Situation beeinflusst.
 
T

-THOR-

Guest
Ich halte diesen Vergleich trotzdem für Unfug weil es keinen Unterschied macht ob ich mit einer 6+ Jahre alten Grafikkarte die Details runterschrauben muss weil der VRAM oder die Rohleistung zu klein ist. Flüssiges zocken ist halt erst ab 60+ FPS gegeben, also sollte man das nicht außen vor lassen.

Was bringt mir 16 GB Speicher wenn ich den nur in 4K / 8K voll bekomme (und selbst das ist aktuell schwer hinzukriegen in 4K) wenn das Spiel dann mit <30 FPS abruckelt? Richtig, nichts.

Das ist ein guter Punkt, den leider viele ignorieren.

Sobald man aus Performancegründen Settings wie z.B. die Objektsichtweite oder die Schatten um ne Stufe reduziert, sinkt in vielen Spielen zugleich der VRAM bedarf sehr stark. Man muss in den meisten Fällen überhaupt nicht auf die maximale Texturstufe verzichten, da nicht selten andere Settings noch mehr VRAM brauchen können bzw. die Texturen in Wahrheit sogar vergleichsweise wenig brauchen. Pauschalisieren kann man das nicht.

Ich weiß grade nicht mehr welches Spiel es war, aber dort hat der Wechsel von der maximalen Schattenstufe auf die nächst niedrigere 2 GB VRAM eingespart. Da das Setting auch viel GPU Power brauchte, wäre das im Falle von zu wenig GPU Leistung das erste was ich reduzieren würde. Und zack , das VRAM Thema ist womöglich gar kein Problem mehr, wenn die Karte altert...


Das grundlegende Problem ist, dass sich die meisten Leute die Benchmarks ansehen, die bei PCGH und co. online gestellt werden. Dort wird fast immer mit maximalen Details getestet und da sieht man eben dann meist auch dass ne ältere Karte mit wenig VRAM stärker wegbricht als ne ältere Karte mit mehr VRAM. Teilweise 20-50% unterschied, obwohl die Karten damals gleich schnell waren. Ja heftig.
Aber dass man sich hier dann im ~30 FPS Bereich bewegt und auf diesen Karten die Settings in der Praxis deutlich reduzieren würde - ja daran denkt keiner. Dass eine Karte deren VRAM bei angemessenen Settings nicht überquillt vielleicht sogar besser performt, als eine vergleichbare Karte mit mehr VRAM, daran denkt erstrecht keiner.


Ne gewisse Skepsis und Kritik darf sich Nvidia ja durchaus wegen der VRAM Ausstattung gefallen lassen, eben weil wir als Käufer keine richtigen Schlüsse ziehen können, was z.B. mit DX12 Ultimate noch ansteht. Aber dass in nem PC Forum die überwiegende Mehrheit derart undifferenzierte Meinungen hat, und ständig nur gröhlt, dass es viel zu wenig VRAM sei, finde ich ziemlich enttäuschend.

Klar kann ich falsch liegen und ihr recht haben. Vielleicht kann ich meine 3060ti nächstes Jahr rausschmeißen, weil der VRAM nicht mehr reicht. Es gibt aber zu viele unbekannte Variablen und Gegebenheiten (wie eingangs erläutert), die man bei ner Diskussion zumindest mit einbeziehen muss. Leider werden diese von den meisten ignoriert. Entweder aus Unwissenheit oder eben Ignoranz. Ich weiß es nicht. Zielführend ist das aber nicht. So viel weiß ich.
 

Vitali84

Komplett-PC-Aufrüster(in)
Ich bin mit meiner 6900xt so weit zufrieden, nur ist mein betagter Ryzen 1700@3,8 GHz teilweise einfach zu lahm. In The Witcher 3 wird die Karte zum Beispiel unter WQHD nur zu Hälfte ausgelastet. Zum Glück kommt bald der 5800x
 

raPid-81

Freizeitschrauber(in)
Richtig! Was bringen mir die meisten FPS, wenn das Spiel danach aussieht wie Matsche?
Aber das bekommen User wie deine Wenigkeit ja nicht mit. Die kaufen sich alle 2 Jahre eine neue GPU und das wars dann.
Bitte liefere uns doch eine Quelle / ein Beispiel zu Deiner Behauptung dass mit DLSS alles "wie Matsche" aussieht. Ich habe ja bereits diverse Quellen geliefert die 4K + DLSS Quality als besser empfinden als 4K nativ anhand des Beispiels "Death Stranding" und CP2077. DLSS Quality verdoppelt mal eben die FPS in meinem CP2077 Beispiel weiter oben, bei gleicher Bildqualität...
 

WoFNuLL

Komplett-PC-Aufrüster(in)
Das beste ist keinem Aufgefallen ... MSI Produziert wieder GT 710 Karten in Mengen > über RTX 3080 / 3080 TI / 3090 und liefert aus ... das heißt Endlich wieder Systeme mit Grafikkarten verbauen die verfügbar sind ... ein Traum.
 

shaboo

Software-Overclocker(in)
Ne gewisse Skepsis und Kritik darf sich Nvidia ja durchaus wegen der VRAM Ausstattung gefallen lassen, eben weil wir als Käufer keine richtigen Schlüsse ziehen können, was z.B. mit DX12 Ultimate noch ansteht. Aber dass in nem PC Forum die überwiegende Mehrheit derart undifferenzierte Meinungen hat, und ständig nur gröhlt, dass es viel zu wenig VRAM sei, finde ich ziemlich enttäuschend.
Naja, es ist eben nicht nur undifferenziert und auch nicht nur Gegröhle.

Wenn ich beispielsweise bei CB in den Test der 3060 schaue, lese ich da: "... Ein Blick in die einzelnen Spiele verrät, warum die GeForce RTX 3060 bei aktiviertem Raytracing besser als bei reinen Rasterizer-Titeln abschneidet: ... In Cyberpunk 2077 bietet die GeForce RTX 3060 nicht nur bessere Perzentil-FPS als die GeForce RTX 2070 Super und die GeForce RTX 2080 Super, auch der GeForce RTX 3060 Ti und gar der GeForce RTX 3070 ist die neue Einsteiger-Grafikkarte überlegen. Nur knapp, aber das gibt es sonst nicht. In Cold War ist das Bild noch deutlicher. Dort hat die GeForce RTX 3060 sogar 24 Prozent bessere Frametimes als die GeForce RTX 3070! ... Damit lässt sich sagen, dass 8 GB nicht mehr in allen Titeln ausreichend dimensioniert sind, um die RT-Rohleistung der GPU voll ausnutzen zu können. Natürlich können auch Grafikkarten mit nur 8 GB diese RT-Spiele flüssig wiedergeben, aber dafür müssen die Texturdetails reduziert werden. ..."

Und das sind aktuelle Benchmarks mit aktuellen Titeln und keine Anforderungen, mit denen erst irgendwann in den nächsten Jahren zu rechnen wäre. Entsprechendes gilt im Falle leicht ansteigender Anforderungen auch für eine 3080, die ja auch nur 2 GB mehr Speicher hat als eine 3070.

Beispiele wie diese zeigen, dass 3070/3080 durch ihren - im Vergleich zur 3060 - kleineren Speicher unnötig ausgebremst werden, und das ist angesichts selbst des Preises, der für diese Karten unter normalen Umständen gezahlt werden müsste, einfach ärgerlich.

Klar kann man RT deaktivieren, DLSS einschalten oder Regler nach links drehen, keine Frage. Man könnte seiner Oberklasse/High End-Riege aber eben auch einfach mehr Speicher spendieren.
 
Zuletzt bearbeitet:

Buchseite

PC-Selbstbauer(in)
Bitte erstmal die" Vorgängermodelle" ausreichend liefern....Was nützen mich da neue? :stupid:
Die werden doch auch knapp sein ??!!
 
Zuletzt bearbeitet:

DaHell63

BIOS-Overclocker(in)
Klar kann man RT deaktivieren, DLSS einschalten oder Regler nach links drehen, keine Frage. Man könnte seiner Oberklasse/High End-Riege aber eben auch einfach mehr Speicher spendieren.
Was nützt der ganze Speicher, wenn einfach die Power fehlt. Und das in 1440p. Da muß man eben zurückschrauben, oder wenn man kann DLSS nutzen.
Medium.PNG


CP.PNG
 

Opprobrium

PC-Selbstbauer(in)
Ja, Nvidia wollte sich von der Konkurrenz abheben, indem sie alle Boardpartner zwingen wollten gut eingeführte bekannte Markennamen nur noch für Nvidia zu verwenden. Alles völlig legitim und normales Geschäftsgebaren das viel über eine Firma aussagt. :fresse:
Ja, das ist völlig normal, die Boardpartner hatten ja die Wahl da mitzumachen oder nicht.
Partnerprogramme sind in der Wirtschaft was völlig normales.
Dort hat die GeForce RTX 3060 sogar 24 Prozent bessere Frametimes als die GeForce RTX 3070! ... Damit lässt sich sagen, dass 8 GB nicht mehr in allen Titeln ausreichend dimensioniert sind, um die RT-Rohleistung der GPU voll ausnutzen zu können.
Das liegt dort nicht am Speicher, sondern an dem Treiber.
Wenn der 3070 der RAM ausgehen würde, müsste man das auch an den AVG FPS sehen.
 
Zuletzt bearbeitet:

Lamaan

Freizeitschrauber(in)
Ja, das ist völlig normal, die Boardpartner hatten ja die Wahl da mitzumachen oder nicht.
Partnerprogramme sind in der Wirtschaft was völlig normales.

Das liegt dort nicht am Speicher, sondern an dem Treiber.
Wenn der 3070 der RAM ausgehen würde, müsste man das auch an den AVG FPS sehen.
Jetzt muss sogar schon der Nvidatreiber als Prügelknabe herhalten, ich dachte das wäre einfach AMDs Schuld.
Was nützt der ganze Speicher, wenn einfach die Power fehlt. Und das in 1440p. Da muß man eben zurückschrauben, oder wenn man kann DLSS nutzen.
Anhang anzeigen 1361310

Anhang anzeigen 1361311
Was sind das für Messungen ? Die 6900xt ist doch fast überall besser als nvidias Aufgebot (Ausgenommen RTX und sehr alte Games)
 

DaHell63

BIOS-Overclocker(in)


Es ging ja darum warum Regler nach links, oder RT aus und DLSS anstellen. Da sind 2 Gründe warum man das machen sollte.
 

raPid-81

Freizeitschrauber(in)
Was sind das für Messungen ? Die 6900xt ist doch fast überall besser als nvidias Aufgebot (Ausgenommen RTX und sehr alte Games)
Die Messungen sind insofern relevant weil das Argument: "Der Speicher wird knapp bei aktiviertem RT" nun mal nicht zieht wenn man dann eh bei ~30FPS landet aufgrund fehlender Rohleistung. Der Speicher wird ja in dem genannten Beispiel nur knapp durch das zuschalten von RT. Würde man nun auch DLSS aktivieren (was man sollte um wieder bei 60+ FPS zu landen), dann spart man wiederum ungefähr dieselbe Menge an VRAM ein die man durch RT zusätzlich verbraucht hat. Habe ich weiter oben auch anhand von CP2077 Screenshots gezeigt, RT Psycho "kostet" ~800 MB VRAM, DLSS Quality spart ungefähr dieselbe Menge VRAM wieder ein.
 

shaboo

Software-Overclocker(in)
Was nützt der ganze Speicher, wenn einfach die Power fehlt. Und das in 1440p. Da muß man eben zurückschrauben, oder wenn man kann DLSS nutzen.
Stimmt, Speicher nützt nichts, wenn die Power fehlt. Ausreichende Power kann andererseits aber auch durch Speichermangel ausgebremst werden. Genau darum geht's in dem von mir zitierten CB-Test. In RT (und leider nicht nur dort) wird die 3060 durch ihre Power ausgebremst, die 3070 durch ihren Speicher. Ärgerlich ist beides.
 
T

-THOR-

Guest
Naja, es ist eben nicht nur undifferenziert und auch nicht nur Gegröhle.

Wenn ich beispielsweise bei CB in den Test der 3060 schaue, lese ich da: "... Ein Blick in die einzelnen Spiele verrät, warum die GeForce RTX 3060 bei aktiviertem Raytracing besser als bei reinen Rasterizer-Titeln abschneidet: ... In Cyberpunk 2077 bietet die GeForce RTX 3060 nicht nur bessere Perzentil-FPS als die GeForce RTX 2070 Super und die GeForce RTX 2080 Super, auch der GeForce RTX 3060 Ti und gar der GeForce RTX 3070 ist die neue Einsteiger-Grafikkarte überlegen. Nur knapp, aber das gibt es sonst nicht. In Cold War ist das Bild noch deutlicher. Dort hat die GeForce RTX 3060 sogar 24 Prozent bessere Frametimes als die GeForce RTX 3070! ... Damit lässt sich sagen, dass 8 GB nicht mehr in allen Titeln ausreichend dimensioniert sind, um die RT-Rohleistung der GPU voll ausnutzen zu können. Natürlich können auch Grafikkarten mit nur 8 GB diese RT-Spiele flüssig wiedergeben, aber dafür müssen die Texturdetails reduziert werden. ..."

Und das sind aktuelle Benchmarks mit aktuellen Titeln und keine Anforderungen, mit denen erst irgendwann in den nächsten Jahren zu rechnen wäre. Entsprechendes gilt im Falle leicht ansteigender Anforderungen auch für eine 3080, die ja auch nur 2 GB mehr Speicher hat als eine 3070.

Beispiele wie diese zeigen, dass 3070/3080 durch ihren - im Vergleich zur 3060 - kleineren Speicher unnötig ausgebremst werden, und das ist angesichts selbst des Preises, der für diese Karten unter normalen Umständen gezahlt werden müsste, einfach ärgerlich.

Klar kann man RT deaktivieren, DLSS einschalten oder Regler nach links drehen, keine Frage. Man könnte seiner Oberklasse/High End-Riege aber eben auch einfach mehr Speicher spendieren.

Mit dem letzten Satz gerade noch gerettet.

Denn mit DLSS ist der Speicherverbrauch kein Problem und die von CB erwähnten Symptome sind nicht mehr vorhanden. Kein Mensch spielt Cyberpunk ohne DLSS bei ~20-30 FPS.

Willst du 60 FPS, reicht auch der Speicher locker aus. Und genau das ist der Knackpunkt. Es bringt nichts, über Settings zu diskutieren, die so oder so nicht ausreichend flüssig laufen.

Bei den Karten, die gerade noch so knapp spielbare FPS ohne DLSS erzielen wie RTX3080 oder 3090 reicht der Speicher in der entsprechenden Auflösung aus.


Und was die Zukunft bringt, wissen wir nicht. Man darf nicht vergessen, dass die Konsolen auch unter Speicherknappheit leiden. Gerade mal 16 GB Gesamtsystemspeicher sind lächerlich wenig und nur eine Verdoppelung zum Vorgänger. So wenig fortschritt gabs glaube ich noch nie. Trotzdem will man damit next-gen Grafik erreichen.

Wahrscheinlich werdens Sampler Feedback Streaming und MeshShader richten. Microsoft und Sony haben beide erläutert und demonstriert, dass das die VRAM Effizienz dramatisch verbessert.

Klar kann man das als PC User so wie die meisten hier einfach mal stur ignorieren und sich einreden, dass der VRAM trotzdem nicht reichen wird.
Man könnte aber angesichts dieser Ankündigung und der Ausstattung der Konsolen, die auch mit diesem "Problem" umgehen müssen einfach mal entspannt abwarten, bevor man alles verteufelt und über Sachen urteilt die noch zu viele unbekannte Variablen enthalten.

Dass ich hier die VRAM Ausstattung mehr oder weniger "verteidige" liegt alleine an der Tatsache, dass die Leute hier seit Monaten konsequent ignorieren, was durch die neuen Konsolen sowie Microsoft und Nvidia für PC an neuen Features angekündigt wurde.
 
Zuletzt bearbeitet von einem Moderator:

Bl4ckR4v3n

Freizeitschrauber(in)
Absolut es kommt auf das richtige verhältnis an. Es bringt einem der viele Speicher kaum was wenn man dafür fast alles andere runterschrauben muss um die fps einigermaßen zu erreichen. Es nimmt den Spielen dann auch gerne die Atmosphäre und dann helfen auch Texturen nicht mehr.
Und nach meiner Erfahrung altert eine GPU wesentlich schlechter als der VRAM insbesondere wenn man berücksichtigt das Streaming immer besser wird und man teilweise selbst bei mehreren hunder mbyte über den VRAM Limit keine Ruckler oder große Texturnachlader mehr sieht.
Dennoch schafft die 3080 und 3070 nicht das Verhältnis in einem vernünftigen Maße umzusetzen. Klar hat man ggf. DLSS aber ich glaube nicht dass es der Sinn sein kann, zu hoffen dass ein Spiel es unterstützt damit ich es mit max. Settings spielen kann.
 
T

-THOR-

Guest
Dennoch schafft die 3080 und 3070 nicht das Verhältnis in einem vernünftigen Maße umzusetzen.

Ob das Verhältnis vernünftig ist oder nicht ist rein subjektiv und hängt von der Software ab. Bei einigen aktuellen Spielen sieht das Verhältnis nicht gut aus, da gebe ich dir recht.
Aber wie sieht es bei künftigen Spielen aus?

Wie ich schon sagte. Gears 5 also moderner DX12 Titel mit UE4 kann vielleicht zeigen wo es hin geht.

4,5 GB VRAM usage, knapp über 4 GB VRAM für den Prozess selbst und das trotz HD Texture Pack getestet im "Open World" gebiet des Spiels. Und das ist eben nur Allocation. Wie viel wirklich benötigt wird ist ja nicht bekannt. Wobei das delta hier vermutlich klein ist. Aber man weiß es nicht...
 
Oben Unten