News Streitfall "Grafikspeicher": AMD geht in die Offensive und stichelt gegen Nvidia

Es sind eben nicht nur die Texturen.
Es ist die Anzahl der Assets, der Detailgrad dessen, die Geometrie der Landschaft. Das muss alles in den Speicher.
In RDR2 hab ich letztlich auch in 4K nach einer Weile 13.8 GB VRAM voll.
Das stimmt schon, aber der Witz an der Geschichte ist ja, dass die meisten Spiele den VRAM Bedarf nach Patches doch zügeln konnten. Bei The Last Of Us ist es ein Unterschied wie Tag und Nacht zwischen der Release Version und der heutigen Version.
Natürlich soll das nicht den Geiz an VRAM bei Nvidia und AMD entschuldigen, aber ich denke schon, dass in letzter Zeit doch sehr verschwenderisch mit VRAM umgegangen wird.
 
Bei The Last Of Us ist es ein Unterschied wie Tag und Nacht zwischen der Release Version und der heutigen Version.
Schon mit Patch 1.02 wurde es besser...ausserdem macht es nun mal einen Unterschied ob es eine Nvidia oder AMD Karte ist.
Mit den selben Einstellungen.
1.png 1+.png
2.png 2+.jpg
3.png 3+.jpg
4.png 4+.jpg
5.jpg 5+.jpg


Da kann mir der schlaue Onkel Steve 10x erzählen man braucht min 12GB VRam für 1080p...ansonsten ruckelt es oder man hat Matsch.
Bei Nvidia will ich für 10GB VRam ein wenig mehr...
...ansonsten wie schon ein paar mal geraten...wer alles glaubt was Tester XY raushaut. Und wer eine Aversion gegenüber Einstellungen hat....Konsole regelt
 
Zuletzt bearbeitet:
Btw 16GB für 4k ist auch langsam zu wenig. :D
Ich habe gestern das neue (experimentelle) Update 8 von Satisfactory angeworfen. Auf einer neuen Map direkt zum start fast 16GB VRAM von meinen 24GB belegt.
Nutze eine undervoltete 5800xt mit einem 5700x (der wegen PBO Optimierung etwas mehr zieht) und komme mit einem 500 Watt Netzteil aus.
Ich habe einen 5800X3D und eine undervoltete 4090 und komme auf 400-450W.
Zudem kann meine 4090 biszu 600W ziehen wenn OCed und mein 750W SFX Netzteil reichte auch da aus.

Eine neue 4070 zieht auch nur noch rund 200W, da ist man mit einem neuen 7800X3D in der Regel unter 300W, das weniger als die 6800XT alleine...
Ich wollte irgendwann mal meinen 5L FHD PC aufwerten, wenn mal Bedarf ist.
Der soll einen 5800X3D bekommen (derzeit noch 3700X) und eine ITX 4060Ti mit 16GB.
Der PC wird dann gesamt unter 200W ziehen und in FHD mit 60FPS eigentlich alles in Ultra spielen können.
 
Schon mit Patch 1.02 wurde es besser...ausserdem macht es nun mal einen Unterschied ob es eine Nvidia oder AMD Karte ist.

Da kann mir der schlaue Onkel Steve 10x erzählen man braucht min 12GB VRam für 1080p...ansonsten ruckelt es oder man hat Matsch.
...ansonsten wie schon ein paar mal geraten...wer alles glaubt was Tester XY raushaut. Und wer eine Aversion gegenüber Einstellungen hat....Konsole regelt
Ich möchte dir da nicht widersprechen was ich interessant finde ist das was AMD mehr an VRAM braucht, brauchen sie weniger bei RAM.
Schau mal auf die Auslastung des RAMs bei deinen Bildern. Ein Schelm würde jetzt sagen Nvidia lagert halt in den RAM aus. (zum glück hast du ja 32GIb und keine 16GIb) sonst könnte es zu Problemen kommen. Wenn man den OSD trauen darf.

Müsste man mal Testen.
Willst du das vlt mal tuen einfach einen Riegel raus nehmen ? ich denke das deine CPU auch im Singel Channel noch schnell genug ist. Sonst 2 8 Gib wären natürlich perfekt.
 
Ich möchte dir da nicht widersprechen was ich interessant finde ist das was AMD mehr an VRAM braucht, brauchen sie weniger bei RAM.
Das hatte ich auch schon beider RTX 3070 festgestellt. Während der VRam bei der RX 6800 immer höher war, konnte ich beobachten, dass Nvidia fast die selbe Menge mehr an Ram benötigte.
Mit 16GB Ram könnte es da schon mal noch enger werden. Im Gegensatz zum VRam ist der Ram aber leicht zu erweitern...wenns denn mal brennen sollte.
 
Das stimmt schon, aber der Witz an der Geschichte ist ja, dass die meisten Spiele den VRAM Bedarf nach Patches doch zügeln konnten. Bei The Last Of Us ist es ein Unterschied wie Tag und Nacht zwischen der Release Version und der heutigen Version.
Natürlich soll das nicht den Geiz an VRAM bei Nvidia und AMD entschuldigen, aber ich denke schon, dass in letzter Zeit doch sehr verschwenderisch mit VRAM umgegangen wird.

Ich würde nicht sagen "verwenderisch" sondern eher völlig unoptimiert und komplett schlampig.

Ich denke das liegt schlicht daran, dass diese Games zumeist Ports von ursprünglich für Konsolen entwickelte Games sind.

Und die aktuellen Konsolen haben eines gemeinsam - sie haben keinen dezidierten VRAM sondern nur einen systemweiten Ram in Höhe von 16gb (oder 12 bei der Series S) für CPU+GPU - oder besser für die APU - und ich nehme daher mal stark an, dass die Speicherverwaltung dieser Games ursprünglich daher nicht auf die Nutzung eines dezidierten Vram wie sie in PC-Graka vorhanden ist, optimiert waren. Da kann mir ja kein Mensch erzählen, dass ein PC mit zB 16GB System-Ram eine Mittelklasse-GPU mit 8GB Vram, nicht deutlich mehr Speicherkapazität und Performance aufweist als eine Konsole mit insgesamt nur 16GB System-Ram...und auf diesen PC's bekommen die unoptimierten Teile dann Probleme..bitte...

Kurioserweise zeigen die meisten Games nach einem entsprechenden Patch deutlich weniger Vrambedarf bei deutlich besseren Texturen - das muss man halt auch mal sacken lassen.
Hab mir letztens ein Vergleichsvideo pre- und nach Patch bei Digital Foundry angeschaut - und z. B Forspoken braucht nach dem Patch DEUTLICH weniger Vram bei massiv verbesserten Texturen ???

Und ich kann mich nur wiederholen - was das für Aufregung und Sh*tstorms in der PC-Community ausgelöst hat, inkl. hysterischen Reviews über die rtx 4060 ti oder rx 7600 weil ein paar wenige Games einfach unoptimiert rausgeworfen wurden - das kannste echt nicht erfinden.
Ich meine das ging soweit das sich die Hersteller gezwungen sahen Statements abzugeben, weil sie es gewagt haben GPU's mit 8GB Vram zu veröffentlichen.

Ja klar, wer stets 4K und 120fps bei Superultra-Settings haben will, soll gerne eine GPU mit 16GB+ kaufen, aber gleich allem was drunter liegt die Exsistenzberechtigung abzusprechen und dubiose, nicht prüfbare Aussagen über angeblich so hohe Anforderungen "zukünftiger" Games, tätigen die dann mit 8GB nicht mal mehr in 1080p ordentlich performen würden...no way!
 
Da kann mir ja kein Mensch erzählen, dass ein PC mit zB 16GB System-Ram eine Mittelklasse-GPU mit 8GB Vram, nicht deutlich mehr Speicherkapazität und Performance aufweist als eine Konsole mit insgesamt nur 16GB System-Ram...und auf diesen PC's bekommen die unoptimierten Teile dann Probleme..bitte...
Haben die Ports nicht aber auch oft höhere maximale Grafiksettings? Würde auch einen höheren Bedarf erklären, allerdings eben auch nur, wenn man sie auch nutzt, wozu einen ja niemand zwingt.
Und ich kann mich nur wiederholen - was das für Aufregung und Sh*tstorms in der PC-Community ausgelöst hat, inkl. hysterischen Reviews über die rtx 4060 ti oder rx 7600 weil ein paar wenige Games einfach unoptimiert rausgeworfen wurden - das kannste echt nicht erfinden.
An sich ist logisch, dass diese Produkte für fast niemanden in dieser Community interessant sind und insofern spielt es da auch keine Rolle, ob man sie jetzt nicht kauft, weil man nicht zur Zielgruppe gehört oder sie angeblich DOA sind und wenn sich Leute den ganzen Tag darüber aufregen wollen, sollen sie es halt tun. Ich finde nur schade, dass Einsteiger durch diese reißerische Art der Berichterstattung abgeschreckt werden, obwohl die 8GB-Karten absolut spieletauglich sind. Da frage ich mich schon, wer hier wirklich Upselling betreibt.
 
Und die aktuellen Konsolen haben eines gemeinsam - sie haben keinen dezidierten VRAM sondern nur einen systemweiten Ram in Höhe von 16gb (oder 12 bei der Series S) für CPU+GPU - oder besser für die APU - und ich nehme daher mal stark an, dass die Speicherverwaltung dieser Games ursprünglich daher nicht auf die Nutzung eines dezidierten Vram wie sie in PC-Graka vorhanden ist, optimiert waren.
Bei späteren Ports mag das stimmen, aber gerade bei Forspoken würde solch ein Vorgehen keinen Sinn machen. Forspoken wurde nämlich gleichzeitig für Konsole und PC veröffentlicht. Es ist wohl eher so, dass das Betatesten für den PC auf den Kunden umgelegt wird, um die Bandbreite an verschiedenen Konfigurationen abzudecken. Schnelles Internet macht es möglich.

Forspoken war technisch ja nie eine Vollkatastrophe wie The Last of Us, mit mittleren Textureinstellungen aus der Hölle der Hässlichkeit. Forspoken leidet an einem nervigen Hauptcharakter und sowas lässt sich schwer patchen.
 
Ich finde nur schade, dass Einsteiger durch diese reißerische Art der Berichterstattung abgeschreckt werden, obwohl die 8GB-Karten absolut spieletauglich sind. Da frage ich mich schon, wer hier wirklich Upselling betreibt.
Naja ich finde man sollte halt etwas genauer sein, wie 8Gib Vram reichen nicht immer für Ultra in 1080p.
Wärend das bei einer 280€ 7600 noch ok ist, ist halt die Frage warum eine 439€ 4060ti hier so beschnitten ist.

Ich fine man sollte im Preis zu VRAm betrachten, und da ist NVIDIA im moment etwas arg geizig.
Ich meine wenn ich 440€ ausgebe dann hätte ich schon gerne Ultra Details (Texturen) bei 1080p.
Genau wie die 4070 mit 12Gib noch "passt" aber eine 4070Ti echt schon Frech ist. Besonders wenn man bedenkt das der Chip durchaus 4k tauglich ist.
 
Bei dem Leerlaufverbrauch und Fiepen muss man halt vom VRAM labern um die Fanboys bei der Stange zu halten.
Sprach Zarathustra.

Wahre Fanboys lenken mit Fiepen ab wenn ihnen der VRAM ausgeht.
 

Anhänge

  • Watt Idle.jpg
    Watt Idle.jpg
    418,8 KB · Aufrufe: 52
Zuletzt bearbeitet von einem Moderator:
Naja ich finde man sollte halt etwas genauer sein, wie 8Gib Vram reichen nicht immer für Ultra in 1080p.
Wärend das bei einer 280€ 7600 noch ok ist, ist halt die Frage warum eine 439€ 4060ti hier so beschnitten ist.
Ich will nicht bestreiten, dass die 4060Ti da schon unausgewogen und zumindest momentan nicht wirklich preiswert ist. Ob die Speicherbestückung wirklich ein Problem ist oder wird, kommt aber auch drauf an, was man spielen will, ganz pauschal lässt sich das nicht als Problem bezeichnen. Ich beziehe mich aber auch gar nicht speziell auf die neuen Karten, die aktuell preislich definitiv hoch angesetzt sind. Aber ich denke wenn man ein knappes Budget hat, sollte man nicht davon abgeschreckt werden, z.B. zu einer 6600 zu greifen, die trotz aller Unkenrufe das Spielen aller aktuellen Titel ermöglicht, von den tausenden älteren oder auch kleineren Titeln mal ganz abgesehen. Wer nur wenig Geld für Hardware oder das aktuelle Geschehen etwas mitverfolgt hat, wird tendenziell eh nicht jeden Blockbuster zu Release kaufen.
 
Anscheinend eher weil Dir die erste Zeile nicht passt ?!?

Aber ja, wenn man die Maus bewegt geht der Verbrauch nach oben.
250 Watt CPU und 350 Watt GPU sind aber vertretbar. "Heuchelei Ende"
Warum sollte mir die nicht passen und 250W CPU bzw 350W GPU vertretbar sein?
Also meine GPU verbraucht weder 350W, noch verbraucht meine CPU im Ansatz 250W.
Nein, ich mache sogar side bzw downgrades damit der Verbrauch weniger ist, bei für mich noch ausreichenden fps.
 
Zurück