• Hallo Gast,

    du hast Fragen zum PCGH-Abo oder zur Bestellung eines (Sonder)hefts von PC Games Hardware? Dann wirf einen Blick auf unser PCGH Abo-FAQ mit Antworten zu den wichtigsten Fragen. Hilfreich bei der Suche nach dem nächstgelegenen Händler, bei dem die aktuelle PC Games Hardware ausliegt, ist die Website Mykiosk. Gib dort deine Postleitzahl und PC Games Hardware (Magazin/DVD/Spezial/Sonderheft) in die Suchfelder ein und dir werden die Verkaufsstellen in deiner Nähe aufgezeigt. Wenn du PCGH digital (über App, Tablet, Smartphone oder im Webbrowser) lesen willst, haben wir eine entsprechende Anleitung für dich zusammengestellt.

Special PCGH fragt die Community: Wie steht ihr zu den Streitthemen "Grafikspeicher" und "AMD blockiert Nvidia DLSS"?

8 GB reichen 2023 nicht mehr aus ... sofern du eine AMD-Karte drin hast. Bei einer 8er Nvidia Karte, hast du effektiv 10 GB, also alles sehr entspannt.

Und da sag noch einer Werbung und Marketing zahlen sich nicht aus...

"effektiv 10 GB.....", wohl eher fiktiv....
ne warte hab grad noch mal nachgezählt,
mit dem Jsen Hsun-Bonus kommst Du auf 10 Exabyte, aber ineffektiv...
:lol:


Ob es bei einem Spiel bei Vramknappheit anfängt zu ruckeln, oder Matsch zu sehen ist, macht nicht der Treiber. Das macht die Spieleengine.

so so, die Spieleengine steuert also die Grafikkarte, nicht der Treiber...
:daumen:
 
Jetzt ist Ihre Meinung gefragt zu "AMD blockiert Nvidia DLSS"?

Antwort: "Ich finde die Partnerschaft absolut begrüßenswert"

Jede Art von eigenem Süppchen mag ich nicht. Was Nvidia mit DLSS macht, ist nichts das, was wir unterstützen sollten. Es gibt Bildverbesserer mit offenem Standard und die sollten forciert genutzt und weiterentwickelt werden, von allen Grafikkartenherstellern.
 
Bevor gleich wieder alle ausrasten und sagen, dass 8 GiByte Speicher viel zu wenig sind:
Es gibt auch noch Menschen außerhalb dieses Forums, die auf noch viel ältere Grafikkarten setzen, die mit viel weniger Speicher laufen...
Kenne sogar noch Leute die haben nicht mal einen FHD (1920x1080) Monitor. Kommt also immer auch auf einen selber an was er mit seinem PC macht und vor allem was er halt zockt. Auflösung, Settings und die Art von Games, spielt ja alles eine Rolle. Für Bobby geht nach Hause krass gesagt braucht man gar keine Grafikkarte, da ist sogar ne IGPU Overkill. Aber wir sind hier nun mal im PCGH Forum.

Leute die in WQHD, UWQHD, UHD unterwegs sind und trotzdem nicht all zu viele Grafiksettings runterdrehen möchten, sowie oft auch AAA Titel zocken, da sind 8GB VRAM definitiv zu wenig. In UHD belegen bei mir viele Spiele oft auch mal über 16GB VRAM. Spätestens ab WQHD bei neueren AAA Titeln sind je nach Layout der Karte 8GB kritisch und je nach Spiel gibt es selbst in FHD Probleme. Siehe CB Test 4060 TI (Spiderman Miles Morales und Hogwarts Legacy).

Die 4060 TI wurde arg zugeschnürt und ob da die 16GB Version überhaupt viel bringen wird sei mal dahin gestellt. Da finde ich ist die 4070 insgesamt gesehen ja noch besser aufgestellt mit ihren 12 GB Vram als die 4060 TI 16GB.

Summosumarum wurde bei einigen Karten im Jahre 2023 schon auch an VRAM gegeizt um es kurz und knapp zu formulieren, vor allem wenn man im Vergleich mal ein paar Jährchen zurück blickt...
 
Zuletzt bearbeitet:
Für mich reichen 8GB nicht. Es soll aber Leute geben, die zocken seit Jahren zb nur Wow und rüsten ab und an mal auf, wenn neue Texturen eingeführt werden. Da reicht natürlich auch 8gb. Mein Bruder ist so einer. RTX 2070 drin und die ist deutlich unterfordert. Von LoL brauchen wir gar nicht erst zu reden. Kann an einer Hand abzählen, wie viele andere, vor allem anspruchsvolle, Spiele er im Jahr zockt.
 
Beim Speicherthema hat sich die Aufregung bei mir mittlerweile abgenutzt - bei Nvidia ist die ganze 4000er-Generation abseits der 4090 Murks und AMD kommt irgendwie nicht in die Pötte. Da bleibt nur noch zu hoffen, dass Anfang nächsten Jahres ein brauchbarer Refresh kommt.

Falls es sich herausstellen sollte, dass AMD tatsächlich DLSS aktiv blockiert (und selbiges nicht einfach nur runterpriorisiert wird), wäre das m.E. allerdings schon recht unschön. Und irgendwie zweifle ich auch daran, dass das FSR zu größerer Beliebtheit verhelfen wird.
 
Wenn man eine 8GB-"Karte" gekauft hat - hat man sich im Einsteigersegment bedient.

Mittelklassekarten haben einfach mehr. Ich kann aber nix dafür wenn die heutige Mittelklasse nicht mehr ihre Bezeichnng verdient.
 
Für Grafik-Speicher (und auch den System-RAM, Festplatten/SSD´s), Hubraum, Geld, Lebenszeit&Qualität gilt: Zuviel gibt´s nicht! Abgesehen davon - zuviel ist nicht genug.

Zu Technik-Partnerschaften: Das machen viele Firmen Branchenunabhängig seit vielen Jahren.
Nvidia ja schon mindestens seit dem "twimtbp"-Programm.
Da AMD´s FSR auf Grafikkarten aller Hersteller läuft, ist es für mich auch als Nutzer einer GTX 1060 und ner RTX 3060 vollkommen in Ordnung, wenn die Unterstützung für DLSS entfällt.
 
Ich habe meine 3080 10GB gegen eine 4090 getauscht (3.440 x 1.440 Monitor mit 100 Hz). Der RAM war in vielen Spielen zu klein. Auch einer 4080 habe ich nicht mehr getraut, wie lange reichen denn noch 16 GB aus?

Vor 2025 kommt keine neue Grafikkarte von Nvidia und AMD macht zwar gute Prozessoren, aber eine Grafikkarte von AMD möchte ich nicht mal geschenkt. So habe ich jetzt erstmal mindestens 2 Jahre Ruhe.
 
Ich finde es fehlen echt neutrale Antwortmöglichkeiten, gerade weil in der betreffenden Causa zwar die Partnerschaft bekannt ist, aber die Vorwürfe, man drohe den Entwicklern die Partnerschaft platzen zu lassen, wenn man mehr tut, als die empfohlenen Techniken für die man auch Unterstützung leisten kann zu implementieren nur genau das sind.
Ich habe hier nur die Wahl zwischen: "anti amd", "alles oder nichts", "anti beide", "alles oder nichts 2.0", "nochmal anti amd", "pro amd", "egal" und "pro amd".

Läuft für mich auf "ja zur Partnerschaft"+"clever" hinaus, da das Entwicklern die Arbeit doch wesentlich vereinfacht und mir vollkommen wurscht ist wer da mit wem Verträge macht, solange die Produkte technisch besser werden, vom rein technischen Standpunkt aus.
"Sollte alles drin sein" ist auch markiert, weil die beste Lösung ist die, die der Kunde langfristig bevorzugt.
Das man zunächst versucht zumindest eine Technik richtig gut zu implementieren, um den maximalen Nutzen für jeden Käufer zu erreichen ist schlichtweg sinnvoll. Die Behebung von Problemen auf spezifischen Zielsystemen und das Optimieren für herstellerspezifische Features(ist ja wie in den 90ern) sollte man dann in der Patchphase machen. Bezogen auf die aktuellen Spekulationen kann man sowohl DLSS(was künstlich hardwarebeschränkt ist->Gegenbeispiel "Control") und XeSS(welches Spezialhardware in Arc nutzen kann) in dieser Maßanfertigungsphase behandeln. Gerade bei Live-Service-Games halte ich die Implementierung des ganzen Zoos an Herstellerlösungen auch für geboten und geradezu frech das dann nicht zu tun. Bei Nischentiteln muss man den Aufwand halt ins Verhältnis setzen, solange auch jeder in den Genuß von Upscaling kommt.
 
Ein wenig provokant die Frage "blockiert AMD DLSS...?".

NVidia spult das "NVidia, the way its meant to be played" Programm seit
20 Jahren ab.

Darunter Highlights wie Downgrade der unterstützten Schnittstelle Direct X 10.1
in Assassins Creed, weil NVidia Karten DX 10.1 seinerzeit nicht vollständig in Hardware
umsetzen konnte.
AMD Karten hatten inkl. Anti Aliasing ein + von 20 % Mehrleistung,
dann wurde die DX 10.1 Unterstützung aus dem fertigen Spiel weggepatcht, also nachträglich!!!!.....

GTA IV wurde in enger Zusammmenarbeit mit NVidia entwickelt und verweigerte
zu Beginn gleich den Start mit AMD Karten....

Das nur 2 der in 20 Jahren NVidia Dev-Support vollbrachten Highlights...

Jetzt mal auf den AMD Bashing Zug auffahren, wenn NVidia das
seit 20 Jahren und das auch noch um einiges ausgeprägter praktiziert, na ja...

Jetzt wirds noch schräger FSR ist in Starfield integriert und kann von ALLEN genutzt werden!!!

NVidia hat DLSS 3 so erstellt, dass es nur mit NVidia Karten und da auch nur
mit den neuen Modellen funktioniert....

Ne Danke, so was boykottier ich doch gerne, lass mich doch nicht von Lederjacke
auch noch zum Verfechter für so ne Geschäftspolitik machen...

Den Hals nicht vollkriegen, unlauteren Wettbewerb seit 20 Jahren voll abfeiern,
aber dan Mimimi spielen, wenn auch mal jemand anderem was Gutes gelingt...
 
Zuletzt bearbeitet:
Ich finde es fehlen echt neutrale Antwortmöglichkeiten, gerade weil in der betreffenden Causa zwar die Partnerschaft bekannt ist, aber die Vorwürfe, man drohe den Entwicklern die Partnerschaft platzen zu lassen, wenn man mehr tut, als die empfohlenen Techniken für die man auch Unterstützung leisten kann zu implementieren nur genau das sind.
Ich habe hier nur die Wahl zwischen: "anti amd", "alles oder nichts", "anti beide", "alles oder nichts 2.0", "nochmal anti amd", "pro amd", "egal" und "pro amd".

Läuft für mich auf "ja zur Partnerschaft"+"clever" hinaus, da das Entwicklern die Arbeit doch wesentlich vereinfacht und mir vollkommen wurscht ist wer da mit wem Verträge macht, solange die Produkte technisch besser werden, vom rein technischen Standpunkt aus.
"Sollte alles drin sein" ist auch markiert, weil die beste Lösung ist die, die der Kunde langfristig bevorzugt.
Das man zunächst versucht zumindest eine Technik richtig gut zu implementieren, um den maximalen Nutzen für jeden Käufer zu erreichen ist schlichtweg sinnvoll. Die Behebung von Problemen auf spezifischen Zielsystemen und das Optimieren für herstellerspezifische Features(ist ja wie in den 90ern) sollte man dann in der Patchphase machen. Bezogen auf die aktuellen Spekulationen kann man sowohl DLSS(was künstlich hardwarebeschränkt ist->Gegenbeispiel "Control") und XeSS(welches Spezialhardware in Arc nutzen kann) in dieser Maßanfertigungsphase behandeln. Gerade bei Live-Service-Games halte ich die Implementierung des ganzen Zoos an Herstellerlösungen auch für geboten und geradezu frech das dann nicht zu tun. Bei Nischentiteln muss man den Aufwand halt ins Verhältnis setzen, solange auch jeder in den Genuß von Upscaling kommt.
Das kommt eben davon , wenn Nvidia die Verwendung von DLSS bei AMD Karten verhindert, ergo verständlich würde ich sagen! Und wenn man sich auf einen Befehlssatz konzentrieren kann ist das erwartbare Ergebnis besser! Komischerweise ermöglicht aber AMD auch auf z. B. der GTX 1060 FSR! Gut zu AMD Karten kann ich nichts sagen, hatte bisher keine oder wenn dann eine ist aber schon länger her dann!
 
@PCGH_Sven

ungewohnt wenn man dich auf mehreren bekannten Hardwareseiten sieht. Heut das erste mal das mir dies aufgefallen ist (Spätzünder?). Kenne dich überwiegend von CB her. Wird seine Gründe gehabt haben den Horizont zu erweitern, aber hoffe egal wo du dich auch rum tummelst, auf wie immer gute Beiträge von dir... :bier:
 
Wenn ich bei Freunden und Verwandten schaue, was da für Rechner laufen ... für die wäre eine RTX 4060 ohnehin völliger Overkill. Der eine zockt noch mit einer RX 460, der andere mit einer GTX 970, das höchste der Gefühle ist bei einem Kumpel die GTX 1070 Ti. Der Rest vom Rechner ist auch entsprechend veraltet. Diese Leute beschäftigen sich überhaupt nicht mit der Hardware oder dem Verlauf, wann, was auf den Markt kam (oder nicht). Sie schauen entsprechend auch nicht auf die Grafik, die Auflösung oder andere Dinge, sondern spielen einfach. Da wäre ja selbst eine RTX 2060 ein großes Upgrade :ka:
Das ist und ich kenne auch einige Leute, bei denen es ähnlich ist, jedoch sollte das doch kein Grund sein, dass sich in sieben Jahren beim Grafikspeicher fast nichts tut und man für 300€ lediglich 8GiB bekommt. Klar braucht man für viele Spiele auch keine starke Grafikkarte (was gerne von Leuten vergessen wird, die über die Kombination von hochauflösendem Display mit hoher Bildwiederholfrequenz schimpfen). Man kauft eine Grafikkarte ja aber eben für die Spiele, die dann doch anspruchsvoll sind und da ist es schade, wenn einer Karte nur wegen des Speichers die Puste ausgeht. Wobei bei der 4000er Serie ja generell das gefühlte Downgrade der Karten auf die nächste niedrigere Stufe zu bemängeln ist, aber das ist ja wieder ein anderes Thema...
 
Damit würden 12GB auf einer 4070 reichen, aber nur unter der Annahme, dass weder Sony noch Microsoft keine Konsole starten die plötzlich 24GB RAM hat und die Spiele zu deren Release plötzlich den Speicher der 12GB Nvidia Karten sprengen. So wie das Konsolenspiele jetzt schon mit 8GB Karten machen.

Ergo kann man seine Grafikkarte eigentlich nur für den Moment kaufen und nicht die Zukunft. Momentan wollen ein Hogwarts oder ein Resident Evil 4 ihre 12GB RAM. Damit stellt sich die Frage was eine 12GB für den Moment ist, die man in 2-3 Jahren wieder ersetzt. Nvidia wettet mit der 4070, dass das eine 600€ Karte ist. Spieler waren es bislang gewohnt, dass das maximal 400€ Karten waren.
Also man muss ja nicht übertreiben. So blöd wie ich den VRAM Geiz auch finde von AMD und Nvidia, aber du tust ja so als wären die Karten dann nicht mehr brauchbar. Dann muss man eben die Details reduzieren, hat man doch früher auch gemacht. Hardware war vor ein paar Jahren sogar noch kurzlebiger als heute.
Ich schaue regelmäßig Videos von Zwormz auf YouTube und bin immer wieder überrascht, wie gut sich heute noch alte Karten schlagen wie eine GTX 1060 oder eine GTX 980 Ti. Letztens hat er Hogwarts Legacy auf der allerersten Titan gespielt (inzwischen 10 Jahre alt) und es war sogar ganz ok spielbar mit niedrigen Details, trotz der alten Architektur und der 6 GB VRAM.
Ja man kann mit alten Karten immer noch spielen, und auch eine RTX 4070 wird in ein paar Jahren noch brauchbar sein, aber eben nicht mehr mit maximalen Details und das ist auch ok so. Technik entwickelt sich weiter und wenn man immer das Maximum haben will muss man auch dementsprechend Geld investieren.
 
Von mir aus können alle drei Firmen bei den Spieleherstellern helfen und optimieren usw, aber wenn es bedeutet das eine andere Technik nicht verwendet wird hört bei mir der Spaß auf, denn wie wir wissen ist eine derartige Implementierung nur eine frage von Stunden, daher...
Es sollten alle Technologien, ganz gleich ob AMD FSR oder Nvidia DLSS, unterstützt werden

Bezüglich dem Vram, ich sehe das ähnlich wie Dave bei #2. Wir sehen das viel zu sehr aus Sicht der reichen Industrieländer, wo die Qualitätsansprüche (bessere Texturen und höhere Auflösungen) deutlich schneller steigen als bei der Mehrheit der Welt, der Fokus auf die relativ wenigen AAA Spiele (bei den tausenden Spielen die jedes Jahr erscheinen) ist bei dem Thema nicht objektiv und kontraproduktiv beim Verständnis aller Spieler. Ich bin aber generell kein Freund der RTX4060 und der RX7600, für mich sind beide an mehreren Punkten zu sehr beschnitten. Wenn man zum Beispiel die RTX4060 einfach RTX4050 genannt hätte, wäre der Aufschrei höchstens halb so wild, aber dafür bekommt die 4060Ti gleich 16GB Vram, mehr als die 4070 und 4070Ti, und die 4060Ti wird auch mehr kosten als die 4070 Karten, juuhhhuu... Nvidia hatte wohl einen Firmen-Schlaganfall ;-)
 
Mir geht es nicht unbedingt darum das DLSS blockiert wird sondern das solche Sachen wie damals ca. 2013 bei Cod nicht passieren wo NV nur 2gb Vram hatte und AMD 3 das extra Texturen eingebaut wurden. Oder wie im neuesten Fall FarCry6 wo bei vielen Benchmarks eine 6800xt schneller ist wie eine 4090. Und die 80 und 90 fast die selben min und max Fps haben.
Sowas nennt sich dann künstlich Ausgebremst. Warum das Spiel noch im PCGH Benchmark ist, ist mir ein Rätsel.
Wenn NV das machen würde wäre das genauso schlimm.
 
Zurück