News Streitfall "Grafikspeicher": Nvidia ist sparsam beim Spieler und spendabel beim Businesskunden

Daran sind auch die VR Headsets schuld. Sie haben es bisher nicht geschafft, die meisten Nutzer nachhaltig zu begeistern.
Begeisterung gabs schon bei den Leuten, die es wirklich mal ausprobiert haben.

Problem ist einfach, dass man nicht dauerhaft so tief eintauchen will. Das ist viel zu anstrengend.
Also hat man quasi wie bei der Nintendo Wii früher anfangs ein „wow ist das geil“ Effekt, aber relativ schnell dann doch wieder genug davon.
 
Am Ende ist alles eine Frage der Ressourcen.
Das ist immer so.
VR ist nach dem Hype ein extremes Nischenprodukt geblieben.
Auch das ist so, aber nur weil das nicht der Großteil ist, bedeutet das nicht, das AMD da nichts machen muss, oder immer erst kurz vor der neuen Generation.
Daran sind auch die VR Headsets schuld. Sie haben es bisher nicht geschafft, die meisten Nutzer nachhaltig zu begeistern.

Doch doch, das geht schon, aber der Einstiegspreis in die VR Welt schreckt halt die Masse ab. Wer sich schon keine 500-1000€ GPU kaufen will, der will erst recht nicht nur für ein VR Headset 400 - 1500€ ausgeben.
Ich kenne eine Zielgruppe, die würde mit den richtigen Treiberfix und Support AMD die 7900xtx aus der Hand reißen und dann auch alle zwei Jahre immer das dickste Kaufen. Diese Leute haben fast keine Wahl, außer immer wieder Nvidia zu kaufen.

Gestern noch aktuelle Benchs gesehen in VR, da liegt eine 7900xtx spürbar vor der 4070ti in VR und damit im Verfolgermodus hinter der 4080. Wenn AMD die Treiber noch etwas für VR optimieren würde und die Kinderkrankheiten abstellen würde, dann wäre das Bombe.

Einzelne Hitspiele, wie Beat Saber reißen es nicht raus.

Hier muss man unterscheiden finde ich.
Über welche Käuferschaft man spricht. Käufer einer 7900xtx, oder 4080 usw. werden nicht primär an Beatsaber denken. Das mag witzig sein, aber ist jetzt keine Grafikbombe.
Hab heute zufällig die neue Episode broken Silicon von Moore's Law is Dead gehört. Dort war Sadly its Bradley zu Gast. Er hat einen Kanal rund um VR und er meint, dass der absolute Großteil der verkauften VR Sets inzwischen im Schrank liegt.
Gibt halt wenig guten Kontent.
Nach Half Life Alyx dachte ich auch, am liebsten nie wieder außerhalb der VR. Dazu noch DCS Wolrd in VR und man will nie wieder anders. ( Also im einem lachenden Auge)

Aber die meisten Spiele die einen interessieren sind halt für den Monitor.
Entsprechend wird VR auch in Zukunft bei AMD eher eine Randerscheinung in den Treibern bleiben.
Halte ich für einen Fehler. gerade im HighEnd Käufer Bereich könnte AMD gut Karten verkaufen, wenn man die Probleme angreift.
Die VRAM Nutzung unterscheidet sich nicht mehr so krass zwischen AMD und Nvidia..
Findest du?
aber ja, da gibt es Optimierungsbedarf...
Hm, Das PCGH Spezial sieht das meiner Meinung nach anders.
Bei den Messreihen verhalten sich 10GB bei AMD genau dann negativ auffällig, wenn bei Nvidia sich 8GB negativ auffällig verhalten. Also bei Nv kommt es zu Texturmatsch und Fehlern bei 8GB und bei AMD bei 10GB (Auch Ruckler).

Das finde ich schon deutlich. Dazu kommt noch, das es da im Vergleich um eine RTX3000 ging. Man aber in den Messreihen auch schon sehen kann, das RTX4000 wieder spürbar besser funktioniert, als RTX3000. 3080ti gegen 4070ti. Die 12GB der 3080ti reichen früher nicht mehr, als die 12GB der 4070ti.

Damit klafft da schon eine Lücke zwischen AMD und Nvidia.

Klar, kann dafür bei AMD einfach mehr Speicher kaufen ;), aber dennoch wären für mich ein paar Optimierungen wünschenswert.
der aber teilweise auch auf Seiten der Spiele-Entwickler gemacht werden muss.
Gerade in letzter Zeit, läuft zu Release schon mal fast gar nichts mehr. Probleme über Probleme...
Auch die ganzen Speicherfresser, haben zu Release Speicher verschlungen und jetzt etwas später alle nicht mehr.

Aber auch die Prozessorleistungen sind alles andere als optimal.

Halt viele Probleme, weil der Kunde mittlerweile Betatester ist.

Vor allem in DX12 entscheidet eher die Spieleschmiede, was wann und wie geladen wird. Nicht der Treiber.
Da AMD vor allem bei den kleineren Karten oft mehr VRAM anbietet, sparen die Entwickler ein wenig an der Optimierung. Es muss halt nicht das letzte MB in einen kleinen VRAM gequetscht werden.
Du meinst das ein Spieleentwickler für jede GPU separat optimieren muss. Das glaube ich nicht:
 
Du meinst das ein Spieleentwickler für jede GPU separat optimieren muss. Das glaube ich nicht:
Nein, das natürlich nicht.
Aber zumindest für inzwischen 4 verschiedene Speichermanagement Situationen.

Die APUs in den Konsolen haben unified Memory.
Da muss man nur ne andere Adresse nehmen, um von Hauptspeicher zu GPU Speicher zu wechseln - ohne zusätzlichen Transfer.
Dafür ist die Gesamtmenge etwas beschränkter... aber sehr schnell angebunden.

Dann noch AMD, Nvidia und Intel dGPUs.
Alle drei verwalten den Speicher unterschiedlich und haben natürlich unterschiedliche GPU Architekturen.
Bei AMD nutzen sie immerhin bei APU und dGPU (bei Konsolen) eine nah verwandte Architektur.
Nur müssten sie auch die Speicherverwaltung anpassen.

Nvidia hat eine super Kompression... was bei der Bandbreite und in Maßen auch beim Speicher selbst.
Da kommt AMD nicht mit.

Intel ist noch ein wenig die Unbekannte Komponente. Wird aber sicher auch zumindest das Grundgerüst so haben, wie alle anderen.

AMD und Intel müssen ihre Ressourcen zwischen diversen Geschäftsbereichen splitten.
Nvidia hat es da einfacher.
 
Nein, das natürlich nicht.
Aber zumindest für inzwischen 4 verschiedene Speichermanagement Situationen.

Die APUs in den Konsolen haben unified Memory.
Da muss man nur ne andere Adresse nehmen, um von Hauptspeicher zu GPU Speicher zu wechseln - ohne zusätzlichen Transfer.
Dafür ist die Gesamtmenge etwas beschränkter... aber sehr schnell angebunden.

Dann noch AMD, Nvidia und Intel dGPUs.
Alle drei verwalten den Speicher unterschiedlich und haben natürlich unterschiedliche GPU Architekturen.
Bei AMD nutzen sie immerhin bei APU und dGPU (bei Konsolen) eine nah verwandte Architektur.
Nur müssten sie auch die Speicherverwaltung anpassen.

Nvidia hat eine super Kompression... was bei der Bandbreite und in Maßen auch beim Speicher selbst.
Da kommt AMD nicht mit.

Intel ist noch ein wenig die Unbekannte Komponente. Wird aber sicher auch zumindest das Grundgerüst so haben, wie alle anderen.

AMD und Intel müssen ihre Ressourcen zwischen diversen Geschäftsbereichen splitten.
Nvidia hat es da einfacher.
Bei Spielen die eine eigene neue Engine nutzen ok, bei allen Engines die für mehr als nur ein Spiel genutzt werden, denke ich ist der Aufwand doch vertretbar. Gerade wenn eine Engine in vielen verschiedenen Spielen eingesetzt wird, habe ich kein Verständnis für fehlendes FSR/DLSS/XeSS zum Beispiel.

Auch fehlende Speicheroptimierung stößt da bei mir auf fehlendes Verständnis ;).


Ach früher hat eine Konsole auch schon immer anders funktioniert.
 
Ach früher hat eine Konsole auch schon immer anders funktioniert.
Sogar quasi noch anderer. Gerade Sony hatte ein paar sehr interessante Ansätze. An sich finde ich das nicht verwerflich so was auszuprobieren oder auch bestimmte geschäftliche Entscheidungen zu treffen, aber immer wieder, wenn ich mal so über die Geschichte der Playstation gestolpert bin oder mal was nachgelesen habe, habe ich mich mal gefragt, ob Sony einfach Entwickler hasst. Die mussten nämlich meist mit den teils schon deutlichen Einschränkungen irgendwie umgehen.

Aber ja, ich denke auch, dass die größeren Engines alle Möglichkeiten abgedeckt haben und sie für den Entwickler abstrahieren. Studios, die für die Plattformen entwickeln wollen und eine eigene Engine nutzen wären auch gut beraten, das zu tun. Die Chancen stehen gut, dass der Aufbau von Konsolen länger ähnlich bleibt und so müsste man die meiste Arbeit nur einmal machen und dann bei jedem neuen Konsolenrelease etwas nacharbeiten. Ansonsten müsste man jedes Spiel auf jede Konsole trimmen. Und die Anforderungen von Spielen können sich ja während der Lebenszeit noch mal ändern. Wenn es blöd läuft, muss man spätestens für das erste Add-On noch mal ran.
 
Naja, nur sind eben DLSS, RT und FG keine Blenderei, sondern einfach technischer Fortschritt (man hat ja eigene Hardware dafür auf der Karte). Ansonsten hätte man zu jeder Technik wie z.B. auch Texturkompression schon sagen können, dass es Blenderei ist, weil man ja eigentlich nur Matschtexturen im Speicher haben hat. Und warum sollte man ein GPU-Monster (300+W) benötigen, wenn man das gleiche doch schon mit einer Einsteigerkarte (100W) erreichen kann? Eine RTX 4060 inkl. DLSS, Raytracing und FG zersägt eine 6950XT in Spielen, wo die Features unterstützt werden. Klar sind die Frames nur interpoliert, aber das Spielgefühl ist OK und dank Reflex ist der Input-Lag teils sogar niedriger als bei der klassisch berechneten Version. Ich weiß gar nicht, ob beim FSR3 mit Frame Gen auch ein Reflex-Mechanismus geplant ist? Wenn nicht, dann kann sich AMD FSR3 auch gleich sparen.
Klar bleibt es dann eine Blenderei, weil diese Features stand jetzt nur in einer Handvoll Spiele integriert sind. In allen anderen Games schaust du dann mit der 4060 komplett in die Röhre und der User mit der 6950XT zieht lachend Kreise.

Und ja, neben FSR 3.0 plant AMD ein Feature namens HYPR-RX was ebenso die Latenzen senken soll.
 
Die nahe Vergangenheit hat ja deutlich gezeigt das gforce user eben sehr sehr gerne dazu bereit sind viel zu viel geld für eine Grafikkarte auszugeben. Wenn der speicher dann nicht reicht kauft halt eine noch teurere Profi karte :-/
Die normalen karten hättet ihr ja auch zu noch höheren preisen gekauft...
 
Die nahe Vergangenheit hat ja deutlich gezeigt das gforce user eben sehr sehr gerne dazu bereit sind viel zu viel geld für eine Grafikkarte auszugeben. Wenn der speicher dann nicht reicht kauft halt eine noch teurere Profi karte :-/
Die normalen karten hättet ihr ja auch zu noch höheren preisen gekauft...
Wahnsinnig intelligente Aussage ;)


@Alle

Gestern konnte man bei Youtube endlich einen Bericht finden, das ein Previewtreiber es schafft bei AMD in VR vernünftig zu laufen, noch nicht so wie es soll, aber deutlich besser. Ich meine ist ja nur erst mehr als ein halbes Jahr vergangen, in dem Kunden mit einer 50/50 Chance auf die VR Performance blicken konnten.

Dieser Treiber ist noch nicht in der Release und einige Nutzer berichten nach wie vor von schlechter Performance. Auch der idle Verbrauch ist zwar stellenweise verbessert, aber auch noch nicht flächendeckend und nochmal, das ist noch kein Release Version.
 
Zuletzt bearbeitet:
Was ist denn eigentlich los? NV macht doch aus ihrer Sichtr alles richtig. Selbst der Kauf der neuesten, teuersten Karten bewahrt einen nicht davor, nach 1-3 Jahren nur noch auf mittleren Einstellungen zocken zu können.

Und was macht man da als braver Lemming? Neukauf, richtig. Bis dann in 3 Jahren .... usw.

SO macht man Rekordgewinne. Nicht indem man Spieler auf Jahre mit exellent bestückten Grafikkarten zufriedenstellt. Alles was man von denen langfristig eventuell gebrauchen kann ist sauteuer. Da zahlt man halt heftig drauf.
 
Zurück