8 Gigabyte Grafikspeicher ... - Das meinen die PCGH-Redakteure zu einem aktuellen Thema

Hm. Nach 7 bzw. 8 Jahren in denen PS3 und Xbox 360 die Marschrichtung vorgegeben haben, war es doch klar, dass es jetzt endlich technisch mal weitergeht.
Ich persönlich finde das weder lustig, noch sehe ich da einen Hype. Im Gegenteil, ich begrüsse es sogar außerordentlich, dass die Entwicklung weitergeht.
Und ich kann auch nicht nachvollziehen, warum da jetzt gejammert und gemeckert wird. Da wird hier im Forum seit Jahren über die Konsolenbremsen in Form der PS3 und 360 gemeckert, und jetzt, wo die Evolution, weitergeht heulen plötzlich alle rum. Echt bescheuert.

Es sind halt die Spiele Entwickler einfach mehr gefordert iwelche "bescheiden" Konsolenports an den PC anzupassen. Wenn das geschehen würde wäre die Diskussion über zb. 8GB VRAM total überflüssig. Aber so hat das Internet wieder etwas mehr wo sich Leute aus flamen können :lol::lol::lol:Ich begrüße Evolution, sehr sogar. Aber bitte optimiert und nicht so dahin geklatscht wie in dem Fall hier.
 
ohne dass die Leistung der GPU nicht im gleichen Maße wächst, finde ich relativ sinnfrei. In den meisten Fällen ist eine schnellere GPU mit halb so viel Speicher die deutlich bessere Lösung

Word!
Was bringen mir 8 GB Speicher auf dem Pixelschubser, wenn die Features, für die ich diese Menge an Speicher brauche, nicht die Leistung bringen, um es flüssig darzustellen?
Ich hab meine 4 GB GTX 970 und bin recht zufrieden. Alles was nicht WoW ist, kann ich eh nicht flüssig in 4K-Downsampling spielen, ohne unter die für mich flüssigen 40-60 FPS zu kommen. Kantenglättungen aller Art fressen auch, je nach Funktionsprinzip, extrem viel Leistung, so dass auch dort recht schnell bei (kommenden) anspruchsvollen Titeln wie AC:U oder The Witcher 3 die FPS einbrechen werden.

Einzig, wo ich den Einsatz von "je mehr desto besser" als sinnvoll erachte, sind Mods wie für Fallout oder Skyrim.

Von daher: Ich hab seit ein paar Wochen zum ersten Mal mir eine 4GB-Karte gegönnt und werde so schnell nicht mehr haben und auch nicht brauchen.
 
8gb halte ich fr einigermasen bertrieben...
ich denke meine nächste karte wird noch 6gb haben weil es reicht... auserdem wirds eh wieder n sli :P...
hoffe das die nächste nv version auch die x70 und x80 versionen 6gb haben^^ kein bock 1000€ fr ne titan 2 rauszukloppen
 
Die Konsolen haben zwar 8GB shared memory, aber das bedeutet ja nicht, dass man den kompletten Speicher für Texturen und Co. verbraten kann. Wäre intessant zu wissen, wieviel die gängigen Spiele wirklich als Grafikspeicher verwenden.
Nach einigen Berichten können Spieleentwickler nur 4,5 GB nutzen und der Rest ist fürs System reserviert (falls sich das nicht inzwischen geändert hat). Von den 4,5GB kann man sicher auch nicht alles nur als Grafikspeicher verwenden. Demnach sollten 8GB Grafikspeicher nur nötig sein, wenn man die Spiele in viel höheren Auflösungen und Details spielen kann als auf den Konsolen. Es wäre zukunftssicherer, aber bei den Speicherpreisen kann ich die Zurückhaltung verstehen.
 
8gb halte ich fr einigermasen bertrieben...
ich denke meine nächste karte wird noch 6gb haben weil es reicht... auserdem wirds eh wieder n sli :P...
hoffe das die nächste nv version auch die x70 und x80 versionen 6gb haben^^ kein bock 1000€ fr ne titan 2 rauszukloppen

Bei der Titan2 rechne ich mit 8-12 GiB. Die erste Titan hatte ja damals auch die dreifache Speichermenge der Standardkarten.
 
Wie wäre es mit mehr "Hirn statt Hardware" beim Programmieren? Ich habe das Gefühl, dass die Hardwareentwicklung der letzten 10 Jahre nur dazu dient die Nachlässigkeit bei der Programmierung (auf sämtlichen Gebieten der Programmierung) auszugleichen.
Naja, die Grenzen zwischen "Nachlässigkeit" und "Kompfort" sind wie so häufig fließend.
Natürlich kann man auch 400.000 Polygone per Hand setzten---oder man schreibt sich halt schnell was Code zusammen, der dann in Echtzeit die eigentlichen LowPoly-Modelle umtesseliert und nutzt nur noch Finetunings, um das Resultat dem gewünschten Ziel anzupassen.
Beim Speicher wird es nicht anders sein; entweder man achtet zwanghaft auf jedes MiB---oder man verschwendet halt mal 50 MiB und hat dann mehr Zeit für Tweaks im Bereich der Shader, des Cullings oder des Postprozessing!
Die "Explosion" beim Grafikspeicherverbrauch ist akutell nicht mehr schön. Auch Betriebssysteme und Standardanwendungen verbrauchen "gefühlt" deutlich mehr Arbeitsspeicher, als sie eigentlich bräuchten (auch unter Berücksichtigung von Buffering und Prefetching).
Was heißt das schon? In meinen Augen sind 5% Geschwindigkeitsgewinn auch mal 100% mehr Ram-Auslastung wert---solange man genügend hat bleibt das immer ein guter Tradeoff! :daumen:
Vielleicht schwelge ich aber auch zu tief in den Erinnerungen an die "gute, alte Zeit". Immerhin startet mein PC mit SSD und 16 GB RAM das Win 8.1 fast so schnell, wie damals mein Amiga 4000 mit IDE-HDD und 10 MB RAM seine Workbench 3.1 :-)
Hätte nicht gedacht, dass ein PC mit Baujahr 1992/93 in unter 10 Sekunden vom ausgeschalteten Zustand in den produktivmodus wechseln und direkt einsatzbereit sein konnte...
...da wär man ja als Nutzer eines heutigen PCs bis vor kurzem noch neidisch drauf gewesen! :sabber:
 
auch beim neuen Call of Duty Advanced Warfare sind 4 GB Vram als empfohlene Systemvorraussetzung angeben. Daher wird meine nächste Grafikkarte eine mit 8 GB Vram sein.
 
Hm. Nach 7 bzw. 8 Jahren in denen PS3 und Xbox 360 die Marschrichtung vorgegeben haben, war es doch klar, dass es jetzt endlich technisch mal weitergeht.
Ich persönlich finde das weder lustig, noch sehe ich da einen Hype. Im Gegenteil, ich begrüsse es sogar außerordentlich, dass die Entwicklung weitergeht.
Und ich kann auch nicht nachvollziehen, warum da jetzt gejammert und gemeckert wird. Da wird hier im Forum seit Jahren über die Konsolenbremsen in Form der PS3 und 360 gemeckert, und jetzt, wo die Evolution, weitergeht heulen plötzlich alle rum. Echt bescheuert.

Deine Aussage in diesem Thema hat mich doch enttäuscht! Klar möchte ich auch dass es technisch weiter geht, die Frage sollte man sich nur stellen ab dies der Fall ist und ob eine Speichervergrösserung hier die richtige Richtung ist.

Im Moment habe ich das Gefühlt, dass "Next-Gen" einfach nur heisst, 4K Texturen welche unkomprimiert einfach in den VRam geladen werden...

Wenn ich einfach nun mal Schadow of Mordor nehme: Grafisch gesehen kein grosser unterschied zu älteren Titeln, wie z.b. Batman AC/AO und die Ultra Texturen rechtfertigen niemals 6gb VRam, die würden für mich höchstens 2gb rechtfertigen.

Es würden genug Möglichkeiten geben die Grafik aufzuwerten, ohne den VRam so stark zu belasten, oder besser gesagt, die GPU zum schwitzen zu bringen ehe der VRam der Grafikkarte voll ist.

Und warum zum Teufel wird nicht endlich mehr vom normalen Systemram profitiert?
Dass wärend einem Spiel (ohne viel Hintergrundprogramme), die heutzutage doch üblichen 8gb Ram nicht annähernd auslasten und es noch immer im Spiel keinen wirklichen Vorteil gibt ob mann nun 1333mhz Ram oder 3100mhz Ram hat. Nur sehr selten hat man hier einen Vorteil.

Für mich ist es im moment so:
Next-Gen Konsolen müssen Optisch einen Mehrwert bieten. Die GPUs in diesen sind nicht sonderlich stark, haben aber wie jede morderne Grafikkarte keine Probleme hochauflösende Texturen darzustellen, dazu stehen den Next-Gen Konsolen grosse Speichermengen zu verfügung... Durch hochauflösende Texturen kann man Optisch ganz einfach und schnell ein Spiel stark aufwerten.

Kurz: die sozusagen Next-Gen Titel sind eigentlich noch immer Last-Gen Titel mit besseren Texturen.

Und genau dieses Problem bedeutet eigentlich, dass wir noch immer technischen Stillstand haben.

Wenn das so weiter geht bekommen wir nächstes Jahr eine GTX1080ti mit 12gb Vram, welche in FullHD sogar bei aktuellen Titeln nicht mehr ausgelastet wird, wir aber Ruckler in Kauf nehmen müssen, weil sogar dieser grosse VRam vollläuft...

Wäre es nun sinnvoll den VRam immer wieder in die Höhe schiessen zu lassen, und diesen Stillstand zu fördern?

Die XBox One ist hier meine kleine Hoffnung, durch deren vergleichsweise langsamen DDR3 Ram, lassen sich die Entwickler vielleicht effizientere Texture-Streaming Methoden einfallen, welche dann dem PC auch zu gute kommen (vielleicht geht ja auch DX12 weiter in diese Richtung)...
 
Cooles Paradoxon:
Die Schmalspur Hardware der Konsolen treibt die Hardwareanforderungen beim PC ins Unermessliche.
Und das noch bei den Recycling Aufgüssen der Recycling Spieleentwicklungen.
 
Deine Aussage in diesem Thema hat mich doch enttäuscht!

Warum enttäuscht? Im Moment ist es nun mal so, dass PC Gamer an allen Ecken und Enden jammern. Siehe AC Unity. Ubisoft gibt Systemanforderungen an, das Spiel ist jedoch noch nicht mal erschienen und alle jammern pro forma schon mal über die hohen Anforderungen, obwohl nicht mal klar ist, ob sich diese überhaupt bewahrheiten.
Dann wird über den hohen VRAM Verbrauch von Mordors Schatten gemeckert. Aber na ja, dann dreht man eben die Texturqualität runter, denn zwischen ultra und hoch sieht man eh keine Unterschied, und schon rennt das Spiel butterweich und mit moderatem VRAM Verbrauch.
Und würde eine Umsetzung für den PC keine 4K-Texturen bieten, dann wären auch wieder alle am Meckern.

Was den VRAM angeht ist doch so: Auf dem PC spielen die meisten in höheren Auflösungen, als die Konsolen bieten. Konsole oftmals 900p, PC ab 1080p aufwärts. Auf dem PC bekommt man meistens höher aufgelöste Texturen geboten. Und dazu bietet der PC auch noch meistens das deutlich höhere Anti Aliasing. Drei schwerwiegende Gründe, warum auf dem PC oftmals deutlich mehr VRAM verbrutzelt wird. Und das sollte jedem klar sein.

Und das ist eben das, was ich mit meinem Post kritisiere. Mir geht einfach das Gejammere auf die Nerven. ;)
 
Zuletzt bearbeitet:
Warum enttäuscht? Im Moment ist es nun mal so, dass PC Gamer an allen Ecken und Enden jammern. Siehe AC Unity. Ubisoft gibt Systemanforderungen an, das Spiel ist jedoch noch nicht mal erschienen und alle jammern pro forma schon mal über die hohen Anforderungen, obwohl nicht mal klar ist, ob sich diese überhaupt bewahrheiten.
Dann wird über den hohen VRAM Verbrauch von Mordors Schatten gemeckert. Aber na ja, dann dreht man eben die Texturqualität runter, denn zwischen ultra und hoch sieht man eh keine Unterschied, und schon rennt das Spiel butterweich und mit moderatem VRAM Verbrauch.
Und würde eine Umsetzung für den PC keine 4K-Texturen bieten, dann wären auch wieder alle am Meckern.

Was den VRAM angeht ist doch so: Auf dem PC spielen die meisten in höheren Auflösungen, als die Konsolen bieten. Konsole oftmals 900p, PC ab 1080p aufwärts. Auf dem PC bekommt man meistens höher aufgelöste Texturen geboten. Und dazu bietet der PC auch noch meistens das deutlich höhere Anti Aliasing. Drei schwerwiegende Gründe, warum auf dem PC oftmals deutlich mehr VRAM verbrutzelt wird. Und das sollte jedem klar sein.

Und das ist eben das, was ich mit meinem Post kritisiere. Mir geht einfach das Gejammere auf die Nerven. ;)

Dein Posting welcher mich enttäuscht hat, hatte ich so verstanden dass du es begrüsst, dass wir immer mehr einer übertriebenen VRam Ausnutzung zusteuern.

Jammern tu ich z.b. nicht wenn z.b. AC Unity hohe Systemanforderungen hat, wenn man dafür auch was geboten bekommt (Wo ich sogar sehr zuversichtlich bin). Ich hoffe sogar, dass ich einmal alle meine CPU-Kerne ausgelastet sehe in einem Spiel.

Was Mordors Schatten angeht und 4K Texturen, so geben ich dir teils recht. Ich habe auch keine Probleme die Hoch-Texturen an statt der Ultra zu nehmen, da wie du sagst man keinen Unterschied sieht (vielleicht sieht man auf einem 30+ Zoll 4K Schirm einen, wer weiss). Deshalb bin ich auch einverstanden wenn es bei anderen neuen Spielen genausogeht und werde mit meinen 4gb Vram trotzdem glücklich bleiben.

Ganz Speziel hat Modors Schatten aber ein gravierendes Problem und das ist die Allgemeine Qualität der Texturen, die steht in keinem Verhältnis zum VRam Verbrauch und genau hier wurde geschlampt.

Zudem sind andere Spiele, welche unnutzes Zeug in den VRam laden, war es nicht Thief wo die Intros in den VRam geladen wurden und danach drinn blieben? Was soll das zum Beispiel?

Sollen wir wegen solcher Software schlampereien nun einfach den VRam endlos erhöhen, bis die Software Entwickler sich überhaupt keine Gedanken mehr machen müssen?

Kurz ich habe kein Problem für hohe Anforderungen und begrüsse diese ebenfalls, allerdings soll man dafür auch einen Mehrwert bekommen. Vielleicht schwirrt mir aber nur noch immer Ultima 9 im Kopf herum (ist das heute überhaupt schon flüssig Spielbar?)
 
Dein Posting welcher mich enttäuscht hat, hatte ich so verstanden dass du es begrüsst, dass wir immer mehr einer übertriebenen VRam Ausnutzung zusteuern.

Dann kam das falsch rüber.;)
Wenn der VRAM Verbrauch übertrieben ist (wie bei Mordor Ultra) dann heiße ich das natürlich nicht gut.

Ich denke halt, wenn die PS3 mickrige 256 MB VRAM hatte und auf dem PC 2-3 GB VRAM bei Multi-Plattformtiteln @ultra verbrutzelt wurden, nun aber die neuen Konsolen deutlich mehr Speicher als die PS3 haben, dann ist die logische Konsequenz daraus, dass auch auf dem PC der VRAM Verbrauch deutlich ansteigen wird. Und das ist nun mal Teil des Fortschritts bzw. der Evolution, die wir jetzt im Zuge der neuen Konsolen erleben.
 
Hiho ;)
Das Wie ?? ,Warum???Wieso???Weshalb ?? überlass ich den FanBoys ;),
für mich steht nur fest das, egal ob wir es...
wollen/für nötig oder unnötig halten/PC vs. Konsole...
es darauf hinausläuft!
Es gibt doch keine Nvidia GTX9XX unter 4GiB Ram...somit sind 4 doch schon Standard!!...
Damit muss sich doch jeder der eine "NEUE" Grafikkarte braucht Fragen ob 4 oder eben schon 8Gib!!
Und wenn es soweit isst...entscheidet eh wieder der GeldBeutel...und das Herz ;)
Soo long
 
Nur war ich eigentlich zuversichtlich, dass die neuen Portierungen erheblich besser sein werden/würden, als die der Last Gen Konsolen, wenn man bedenkt, dass jetzt auf die gleiche Hardwarebasis gesetzt wird. So gesehen bin ich bisher was das angeht extrem enttäuscht.
 
@Cook2211

Ich glaube ich habe jetzt deine Linie wiedererkannt :-)

@MarCy

Ist das denn nicht der Fall? So wie ich es bis dato beobachten konnte, werden die Kerne der CPU bereits besser ausgelastet und auch scheinen die NextGen Titel relativ wenig Probleme mit der Grafik selbst zu haben... Sprich die allgemeine Skalierung finde ich bereits besser als Vorher. Allerdings ist die Auswahl von portierten Next-Gen Titeln noch sehr klein:
-Mordors Schatten
-Ryse
-Lord of the Fallen
was noch?
 
Naja, die Grenzen zwischen "Nachlässigkeit" und "Kompfort" sind wie so häufig fließend.
Richtig, die Grenzen sind fließend. Würden die Programmierer ihr Hirn etwas mehr einsetzen, wäre die Grenze nicht mehr ganz so fließend, z.B. am Ende eines Schleifendurchlaufs den Speicher wieder freigeben, sofern man die Daten aus der letzten Iteration nicht mehr braucht (und Schleifen können in der objektorientierten Entwicklung einiges an Speicher verbraten). Inwiefern sich das auf Grafik anwenden lässt kann ich aber ehrlich gesagt nicht sagen, aber ich vermute im Bereich der Texturierung eine Szene könnte etwas manuelles Speichermanagement durchhaus VRAM-schonender sein und auch etwas mehr Performance bringen.

Was heißt das schon? In meinen Augen sind 5% Geschwindigkeitsgewinn auch mal 100% mehr Ram-Auslastung wert---solange man genügend hat bleibt das immer ein guter Tradeoff! :daumen:
Diese Einstellung scheint weit verbreitet zu sein, und daher stecken wir jetzt in diesem "Dilemma". 5% mehr Performance bei 100% mehr Ressourcenverbrauch ist für mich nicht tragbar.


Hätte nicht gedacht, dass ein PC mit Baujahr 1992/93 in unter 10 Sekunden vom ausgeschalteten Zustand in den produktivmodus wechseln und direkt einsatzbereit sein konnte...
...da wär man ja als Nutzer eines heutigen PCs bis vor kurzem noch neidisch drauf gewesen! :sabber:
Naja, war ja auch kein (IBM)PC sondern eine (Commodore)Amiga, der hatte den Großteil seines Betriebssystems im ROM, da musste nicht mehr viel nachgeladen werden. Und unter 10 Sekunden einen PC mit Windows starten, mit M.2 vielleicht? Meine SATA2 SSD (Samsung Evo 256GB) braucht ca. 15 Sekunden, und dann wird der Autostart verarbeitet (allerdings boote ich auch immer komplett, ich habe kein Hibernation oder Intel Rapid Start) :-)
 
Richtig, die Grenzen sind fließend. Würden die Programmierer ihr Hirn etwas mehr einsetzen, wäre die Grenze nicht mehr ganz so fließend, z.B. am Ende eines Schleifendurchlaufs den Speicher wieder freigeben, sofern man die Daten aus der letzten Iteration nicht mehr braucht (und Schleifen können in der objektorientierten Entwicklung einiges an Speicher verbraten). Inwiefern sich das auf Grafik anwenden lässt kann ich aber ehrlich gesagt nicht sagen, aber ich vermute im Bereich der Texturierung eine Szene könnte etwas manuelles Speichermanagement durchhaus VRAM-schonender sein und auch etwas mehr Performance bringen.

Diese Einstellung scheint weit verbreitet zu sein, und daher stecken wir jetzt in diesem "Dilemma". 5% mehr Performance bei 100% mehr Ressourcenverbrauch ist für mich nicht tragbar.
Und das ist ein heftiger Denkfehler. Solange die Arbeitsspeicher-Resourcen zur Verfügung stehen, müssen sie so gut genutzt werden wie es geht.
Ja, das heißt auch, dass FALLS es Word etwas bringen würde 4GiB Ram zu belegen, dann hat Word alles Recht darauf diese 4 GiB Ram auch zu belegen---das wichtige ist halt, dass es sich flexibel der gegebem Menge Ram anpasst und ein tatsächlicher Vorteil entsteht!
5% Performancegewinn bei 100% mehr GPU-Power, das ist nicht tragbar! 5% Performancegewinn bei 100 Watt mehr Leistungsaufnahme, das ist genauso wenig tragbar. Aber hier sprechen wir von VORHANDENEN und UNGENUTZTEN Resourcen!

Ja, ich würde sogar so weit gehen und sagen, dass wenn es einem Spiel deutliche Vorteile bringt, dann darf es sogar mal der Grafikspeicher als RamDisk missbrauchen. Das ist alles in Ordnung, solange es echte Vorteile bringt und der Speicher ansonsten eh nicht limitiert hätte!
Naja, war ja auch kein (IBM)PC sondern eine (Commodore)Amiga, der hatte den Großteil seines Betriebssystems im ROM, da musste nicht mehr viel nachgeladen werden. Und unter 10 Sekunden einen PC mit Windows starten, mit M.2 vielleicht? Meine SATA2 SSD (Samsung Evo 256GB) braucht ca. 15 Sekunden, und dann wird der Autostart verarbeitet (allerdings boote ich auch immer komplett, ich habe kein Hibernation oder Intel Rapid Start) :-)
Rekord mit Win 8.1 liegt meines Wissens nach unter fünf Sekunden und das ganz ohne diese Falschspielertricks wie Hibernation!
10 sek ist Standard bei nem ordentlich eingestellten Bios/UEFI (also was wozu mein Lappy eh nicht in der Lage wäre :schief:) in Kombination mit ordentlicher Hardwarepower drinnen---mit nem Kabini-System wären es vielleicht 20-25 Sek. Aber alles weit entfernt von dem, was bis neulich noch Standard war, da hat sich echt richtig viel getan! :daumen:

Kurz ich habe kein Problem für hohe Anforderungen und begrüsse diese ebenfalls, allerdings soll man dafür auch einen Mehrwert bekommen. Vielleicht schwirrt mir aber nur noch immer Ultima 9 im Kopf herum (ist das heute überhaupt schon flüssig Spielbar?)
Ja, das ist heutzutage sehr gut spielbar; mit der entsprechenden Hardware kann man sogar die Sichtweite so richtig, richtig enorm pushen und bekommt dann ein enorm ansehnliches Ergebnis!
 
Zuletzt bearbeitet:
Zurück