News Warum 8 GiB VRAM nicht mehr reichen: Das Ruckelfest im Video

Eigentlich kann man auch nur sagen no generational leap und gleichzeitig ist es auch noch teurer geworden :stupid:
:haha:

ADA ist so eine gute Architektur und nvidia verwurstelt es weil die Investoren noch nach den mining Zeiten nachhächeln. Jeder cent muss gespart werden. Aber nun ist der Breaking point erreicht.

Im best case ist die karte ganz ganz selten 15% schneller als die 3060 ti manchmal sogar langsamer. Kostet aber mehr als die 3060ti zum launch.:ugly: Also dazu fällt mir nix mehr ein. Dagegen war die 970 eine bomben karte weil der vram trotzdem locker gereicht hat damals und die Karte bot viel Leistungs fürs Geld. Aber die 4060 bietet nichts nada null komma josef.

So ich muss das ding wieder vergessen aber bin immer noch fassungslos was nvidia sich dabei gedacht hat vor jahren beim entwerfen der Karte. wenn wieder eine super revivison kommt dann bitte hier. Schneller, billiger und mehr vram!! und ich bin Ghandi.
 
Wer immer den neuesten Kram in den höchsten Einstellungen spielen muss, ist mit der Mittelklasse einfach nicht gewappnet und ich finde es ein bisschen ungünstig, zu implizieren, dass man mehr braucht, um Spaß am Hobby zu haben.
Das passiert leider, wenn man sich auf das Niveau der Leute herabziehen lässt, die das Thema eindimensional und unfachmännisch betrachten. Ich finde auch, Raff hätte das etwas mehr herausstellen können. Vielen fehlt eine Grundverständnis für die Thematik und wenn man denen sagt "8GB reichen nicht", dann nehmen die das so hin, auch wenn es faktisch falsch ist, denn mindestens der Großteil der Spiele (wenn nicht alle zum jetzigen Zeitpunkt) sind mit 8GB VRAM spielbar.
Und letztlich muss man immer Kompromisse eingehen, egal ob an PC oder Konsole. Top Hardware war noch nie eine Garantie für uneingeschränkten Spielegenuss. Selbst eine 4090 ist nicht kompromisslos (außer vielleicht beim Verkaufspreis), denn in einigen RT oder VR Titeln bekommt man die ganz schnell klein.
 
Zuletzt bearbeitet:
Das passiert leider, wenn man sich auf das Niveau der Leute herabziehen lässt, die das Thema eindimensional und unfachmännisch betrachten. Ich finde auch, Raff hätte das etwas mehr herausstellen können. Vielen fehlt eine Grundverständnis für die Thematik und wenn man denen sagt "8GB reichen nicht", dann nehmen die das so hin, auch wenn es faktisch falsch ist, denn mindestens der Großteil der Spiele (wenn nicht alle zum jetzigen Zeitpunkt) sind mit 8GB VRAM spielbar.
Ich verstehe echt nicht, was es daran nicht nachzuvollziehen gibt: Es geht bei dem Beitrag (und anderen, die die 8GB VRAM kritisieren) m.M.n. absolut nicht um 2..3 Jahre alte Grafikkarten, die damals "nur" 8 GB VRAM spendiert bekommen haben - und trotzdem heute noch bei sorgsamem Bedienen der Einstellungsparameter für aktuelle Titel locker verwendbar bleiben.
Sondern es geht darum, dass insbesondere ein Hersteller, nämlich "name it - blame it" NVIDIA, brandaktuelle Grafikhardware zu Preisen deutlich über älterer Hardware auf den Markt wirft, die quasi DoA (Tot bei Veröffentlichung) ist, gemessen am Preis-Leistungsverhältnis. Da hätten sie sich den ganzen Driss eigentlich gleich sparen können und unterhalb einer 4070 (man könnte den Cut eigentlich sogar bei der 4080 ziehen) nur Rebrands der alten Chips rauswerfen können. Denn, so wie sie die Architektur jetzt angelegt haben, kommen damit nicht einmal die so toll beworbenen neuen Software/Hardware-Features wie DLSS3 oder Frame Generation wirklich zur Geltung, weil sich die restliche Hardware selbst ausbremst. Deshalb heisst es: 8 GB reichen heutzutage nicht mehr aus, wenn sie auf als Mittelklasse (zu Oberklasse-Preisen) gepriesener Hardware verbaut sind - plus nur 8 Lanes am PCI-E, plus massiv kastriertes Speicher-Interface und nur geringfügig verbesserter Cache, der immer auch nur so gut ist, wie sich Daten überhaupt cachen lassen bzw. was der Algorithmus dazu hergibt. Mit einer >400€ Grafikkarte Baujahr 2023 quasi nur sinnvoll FHD mit 60FPS auszureizen ist schon reichlich erbärmlich und quasi ein Fehlinvest, wenn ich deutlich besser ausgestattete für wenig mehr oder quasi genauso leistungsfähige 3 Jahre alte Hardware für deutlich weniger aktuell kaufen kann.
Dass dies aber viele außerhalb der Enthusiasten-Blase hier gar nicht mitbekommen werden, ist das eigentlich traurige an der Entwicklung ... aber das ist eine andere Geschichte - und dazu passt dies hier m.M.n. perfekt:
 
Zuletzt bearbeitet:
Ich verstehe echt nicht, was es daran nicht nachzuvollziehen gibt: Es geht bei dem Beitrag (und anderen, die die 8GB VRAM kritisieren) m.M.n. absolut nicht um 2..3 Jahre alte Grafikkarten, die damals "nur" 8 GB VRAM spendiert bekommen haben - und trotzdem heute noch bei sorgsamem Bedienen der Einstellungsparameter für aktuelle Titel locker verwendbar bleiben.
Sondern es geht darum, dass insbesondere ein Hersteller, nämlich "name it - blame it" NVIDIA, brandaktuelle Grafikhardware zu Preisen deutlich über älterer Hardware auf den Markt wirft, die quasi DoA (Tot bei Veröffentlichung) ist, gemessen am Preis-Leistungsverhältnis. Da hätten sie sich den ganzen Driss eigentlich gleich sparen können und unterhalb einer 4070 (man könnte den Cut eigentlich sogar bei der 4080 ziehen) nur Rebrands der alten Chips rauswerfen können. Denn, so wie sie die Architektur jetzt angelegt haben, kommen damit nicht einmal die so toll beworbenen neuen Software/Hardware-Features wie DLSS3 oder Frame Generation wirklich zur Geltung, weil sich die restliche Hardware selbst ausbremst. Deshalb heisst es: 8 GB reichen heutzutage nicht mehr aus, wenn sie auf als Mittelklasse (zu Oberklasse-Preisen) gepriesener Hardware verbaut sind - plus nur 8 Lanes am PCI-E, plus massiv kastriertes Speicher-Interface und nur geringfügig verbesserter Cache, der immer auch nur so gut ist, wie sich Daten überhaupt cachen lassen bzw. was der Algorithmus dazu hergibt. Mit einer >400€ Grafikkarte Baujahr 2023 quasi nur sinnvoll FHD mit 60FPS auszureizen ist schon reichlich erbärmlich und quasi ein Fehlinvest, wenn ich deutlich besser ausgestattete für wenig mehr oder quasi genauso leistungsfähige 3 Jahre alte Hardware für deutlich weniger aktuell kaufen kann.
Dass dies aber viele außerhalb der Enthusiasten-Blase hier gar nicht mitbekommen werden, ist das eigentlich traurige an der Entwicklung ... aber das ist eine andere Geschichte - und dazu passt dies hier m.M.n. perfekt:
Ohne Nvidia verteidigen zu wollen: Cache und SI sollten nicht isoliert betrachet werden, sondern die tatsächliche Leistung, die erbracht wird. Karten mit kleinen SI, so wie es bei nicht-Top Karten eben anzufinden ist und war, brechen mit steigender Auflösung in der Regel stärker ein. Das ist ein alter Schuh und eben der Kompromiss, der damit einhergeht. Dein Argument dreht sich also hauptsächlich um den Preis, denn spielbar ist, entgegen dem grundsätzlichen Tenor von Raffs Beitrag, alles, was er gezeigt hat, aber mit angepassten Einstellungen.
Nvidia bietet einfach ein schlechtes €/ FPS verhältnis, dass sich seit 2016 nicht oder nicht nennenswert verbessert hat.
 
Zuletzt bearbeitet:
RTX4080, RTX4090 (egal welche Auflösung), oder wenn die Auflösung nur bis WQHD ist auch die 4070ti, dann aber auch 7900XTX (für 4k mit RT halte ich die XTX für zu lahm, genau wie die 4070ti).
Also meine Priorisierte Auflösung wäre/ist FHD/WQHD, von mir aus 4K!
Kann den die 7900XTX Raytracing, ist das nicht ein Geforce gestützes Programm/Eigenschaft?
 
Ich verstehe echt nicht, was es daran nicht nachzuvollziehen gibt: Es geht bei dem Beitrag (und anderen, die die 8GB VRAM kritisieren) m.M.n. absolut nicht um 2..3 Jahre alte Grafikkarten, die damals "nur" 8 GB VRAM spendiert bekommen haben - und trotzdem heute noch bei sorgsamem Bedienen der Einstellungsparameter für aktuelle Titel locker verwendbar bleiben.
Sondern es geht darum, dass insbesondere ein Hersteller, nämlich "name it - blame it" NVIDIA, brandaktuelle Grafikhardware zu Preisen deutlich über älterer Hardware auf den Markt wirft, die quasi DoA (Tot bei Veröffentlichung) ist, gemessen am Preis-Leistungsverhältnis.
Das ist irgendwie komplett an mir vorbeigegangen. Wenn man das Video ohne Kontext sieht und keine Ahnung hat, nimmt man meiner Auffassung nach nur mit, dass man mit 8GB VRAM das Zocken auch gleich sein lassen kann.

Und was heißt schon DoA, es ist doch nicht erst seit gestern Gang und Gäbe, dass die Preise zu Release zu hoch sind. Momentan sieht sie entsprechend mies positioniert aus. Dann bleibt sie halt liegen, bis sich das ändert. Wer kann in der aktuellen Situation schon voraussagen, wo sich die Preise über die Zeit einpendeln? Und auch wenn Nvidia bei der Benennung schon sehr weit geht, ist es doch beachtlich, was sie aus so wenig Hardware rausholen. Davon hat der Kunde natürlich bis auf die niedrigere Leistungsaufnahme nichts.
Da hätten sie sich den ganzen Driss eigentlich gleich sparen können und unterhalb einer 4070 (man könnte den Cut eigentlich sogar bei der 4080 ziehen) nur Rebrands der alten Chips rauswerfen können.
Oder einfach gar nichts. In einer zunehmend von Ressourcenknappheit geprägten Zeit, wäre das vielleicht gar nicht so schlecht. Es lebe der Gebrauchtmarkt. Gibt natürlich auch Argumente dagegen, aber es ist ein Gedanke, der mir schon vorher mal gekommen ist.
 
Also wird mir bei "jedem" Spiel die möglichkeit gegeben auch Raytracing zu aktivieren/nutzen zu können? (Ohne das ich was einstellen/umstellen muss, sytemintern)
Dachtest du bis eben echt, dass Raytracing Nvidia-Exklusiv ist? :haeh: (Da sieht man mal, was das Marketing anrichtet.)
Raytracing gibt es schon seit den 60er-Jahren, natürlich nicht in der Form, wie wir sie heute in Spielen sehen. Nvidia dagegen wurde erst 1993 gegründet.
 
Mal ein Screen aus einer echten Minecraft Spielwelt mit RTX on - DLSS off, 24 chunks, alles max 1900x1200
 

Anhänge

  • Untitled-1.jpg
    Untitled-1.jpg
    1,6 MB · Aufrufe: 25
Wie günstig willst du die denn noch? Bekommst ja alles nachgeschmissen.
Es wird in Zukunft eher tendenziell etwas teurer werden und nicht noch günstiger, speziell auch hinsichtlich VRAM von Micron. Ich denke nach wie vor AMD und Nvidia hätten jetzt Karten in dem Segment mit 5x 2 GiB an 160 Bit bringen müssen.

Trotz Inflation wären zu stark steigende Preise ein falsches Signal an einen stagnierenden Markt.
 
Zuletzt bearbeitet:
Hab mir gestern ne 6700Xt gekauft und die 5700 (ohne XT) ersetzt heute, als Sie kam.
Die 5700 ist bei TLou nach spätestens 30 min ausgestiegen-einfach Freeze ohne Blackscreen u.ä.
Nach 40 min Shaderdingens ist die 6700XT bisher fehlerfrei.
Aber ich hab dann mal Borderlands 3 gespielt (mal wieder).
Mit der 5700 hatte ich dauernd Nachlader bei den Texturen-also paar Sekunden Texturmatsch.
ZB. wenn man an den Automaten geht, läd es die Texturen erst noch.
Mit der 6700XT sind die Texturen sofort da, es fühlt sich auch flüssiger an.
Ach so, vergessen: Ich bin Der, Der noch in FullHD mit 60FSP spielt.
Da der Sprung von der 5700 auf die 6700XT ja nu kein Riesensprung ist, könnte es ja vielleicht unter Umständen sogar am Vram liegen, das TLOU und Borderlands besser (oder überhaupt)laufen.
Und das mit Untervolten auf 130-140 Watt.
Gruß Yojinbo
 
Dachtest du bis eben echt, dass Raytracing Nvidia-Exklusiv ist? :haeh: (Da sieht man mal, was das Marketing anrichtet.)
Raytracing gibt es schon seit den 60er-Jahren, natürlich nicht in der Form, wie wir sie heute in Spielen sehen. Nvidia dagegen wurde erst 1993 gegründet.
Wie sieht das denn mit Pathtracing aus, das ist aber von NVIDIA (also können das auch nur NVIDIA Grakas?) oder?
 
Mal ein Screen aus einer echten Minecraft Spielwelt mit RTX on - DLSS off, 24 chunks, alles max 1900x1200
Warum hast du denn nicht einfach "Of Temples and Totems" geladen? Weil die Zahl links oben dann nicht mehr zur Aussage passt? :D "Echte" Spielwelt ist bei einem Spiel, das quasi alles erlaubt, schwer zu definieren.

MfG
Raff
 
Warum hast du denn nicht einfach "Of Temples and Totems" geladen? Weil die Zahl links oben dann nicht mehr zur Aussage passt? :D "Echte" Spielwelt ist bei einem Spiel, das quasi alles erlaubt, schwer zu definieren.

MfG
Raff
Wer spielt schon "Of Temples and Totems"? Deine Messung wollte ich auch gar nicht in Frage stellen, da sie richtig ist, ich wollte nur die Praxisrelevanz für das echte Spielen in Minecraft etwas relativieren.

Als ich das erste Mal ne RTX Karte ausprobiert habe, hatte ich mir auch die Demolevels geholt, aber sinnvoll spielen kann man da nicht. Holt man sich nur einen RTX Resource Pack und spielt eine normale Random-Seed World mit RTX on, dürften 8GB in den allermeisten Fällen gut reichen.
 
Nein...
Man kann auch mal google oder wikipedia Fragen ^^

Danke für den Link auch wenn er nur auf engl. so ausführlich beschrieben ist! Auf Dt. ist da nämlich kein Wort von AMD, NVIDIA (Geforce)! Auf english steht nur das Tim Purcell, 2002 erstmals einen globalen Beleuchtungsalgorithmus vorstellte, Februar 2009 demonstrierte Austin Robison von Nvidia die Implementierung eines Path-Tracers, der auf einer GPU läuft und weitere Implementierungen folgten ...

Zu was würdet Ihr den eher Greifen zu FSR 2 (evtl. zugar schon FSR 3?) (also AMD [Radoen]) oder zu DLSS 2.0 (evtl. zugar schon 3.0?) (NVIDIA [Geforce]? Preisunabhängig gesehen!
 
Zuletzt bearbeitet:
Zurück