News Streitfall "Grafikspeicher": Nvidia geht mit nur 8 GiByte jetzt in die Offensive

Weil sie auch an Kunden verkaufen. denen FHD und 60FPS genug sind. Ganz ehrlich UHD Gamer mit high FPS sind nicht die Zielgruppe für Karten der 60er/50er Serie.

Und für PR ist das imho ehrlich:
Dann sollen sie den Karten auch Preise für FHD und 60 fps geben (wobei dafür auch gut ältere Karten reichen, also wozu dann überhauptdie neuen kaufen?). Gehört eben auch immer dazu. Für 250€ würde es deutlich weniger Beschwerden geben.
 
... und sich Spiele such die Speicherfresser sind. Wenigstens drei würde ich sagen um eine Aussage treffen zu können.
Das dann bitte einmal für 1080p, einmal für 1440p und einmal für 4k.
Um zukunftsicher zu sein, brauchts eigentlich nur einen Extremfall, wo man mal schaut, ob das neue Subsystem tatsächlich Was in der Belegung vs. ältere Gens ändert.

Wer weiss denn, ob net die nächsten Games in 1-2 Jahren auch in kleineren Resis mehr belegen.
Die PS5 kann ja.
Normalerweise ist gegen Ende der KonsolenGen. dann immer etwas mehr drin, weil die Devs dann voll
reingehen.
Nach m.E. sind die jetzigen Konsolenports aus der PS4 kein Maßstab.
 
HWUB wird mir wieder einen schönen Videovergleich geben wie mit der 3070 8GB und dann werd ich sehen ob ich mir die Optik antun will (bei den Matschtexturen kann man sich alle anderen Grafikfeatures schenken).
Für WQHD ist 8GB heute zu kaufen imho nix und es war schon vor 2 Jahren mit einem klaren Ablaufdatum versehen. In der Auflösung ist jetzt die Überlegung ob 12GB genug sind.
 
Das steht wo? Nvidia sagt gar nicht, dass der Cache den Speicherbedarf reduziert. Wie kommt ihr auf solche Märchenerzählungen?

Du weißt doch genau wie ich das meine. Schon klar das sie nicht direkt sagen "Mehr Cache = weniger VRAM reicht!" aber was soll dieser Deep Dive dann?

Unter dem Titel "A Deeper Look At VRAM On GeForce RTX 40 Series Graphics Cards" erläutert Nvidia weshalb "8 GiByte" nicht automatisch gleich 8 GiByte sind und wie die moderne Architektur der Geforce RTX 4000 ("Ada Lovelace") und insbesondere deren im Vergleich zu den Geforce RTX 3000 ("Ampere") und Geforce RTX 2000 ("Turing") deutlich aufgebohrter L2-Cache dabei helfen, mit dem Grafikspeicher effizienter umzugehen.

Für mich klingt das nach einer suche nach eine Rechtfertigung warum es okay ist auch 2023 noch 8 GiB Karten zu verkaufen. Doch wenn das okay ist, warum dann die 16 GiB Version? Wollten sie mit dem Deep Dive nicht erklären das man diese 16 GiB eigentlich gar nicht braucht, dank Cache und effizienter moderner Architektur? Deshalb: "Dachte der Cache regelt..." Offenbar nicht denn sonst wäre die 16 GiB Version ja nutzlos.

Warum bist Du denn gleich so angefressen? Bezweifelt ja (vielleicht) keiner das "Ada Lovelace" effizienter mit dem Grafikspeicher umgeht aber 8 GiB sind nun mal nur 8 GiB. Gibt doch jetzt bereits Spiele bei denen selbst 10 GiB kaum noch reichen.

PCGH Resident Evil 3 Test Zitat:
Wer über 11/12 oder gar 16 GiByte Onboard-Speicher verfügt, ist vor diesen lästigen Rucklern weitgehend gefeit. Die Radeon VII (16 GiByte) hinterlässt insgesamt die sauberste Vorstellung, wenngleich ihre absolute Leistung hinter einer Geforce RTX 2080 Ti (11 GiByte) zurückbleibt.

Was bringen mir also hier die 8 GiB? Ist einfach zuwenig. Und das war 2020!
 
Was wird da eigentlich im Kaffee konsumiert? Den Käufern der Mittelklasse wieder nur 8 GB servieren, den Bus beschneiden und als Sahnehäubchen auf dem Bullshitpudding noch Marketingfolien veröffentlichen, in denen grandioser L2 Cache den VRAM-Geiz schönreden soll? Ich wünschte die Verantwortlichen würden sich mal in einer kritischen Diskussionsrunde der PCGH-Redaktion stellen. Mit Zuschauerfragen. Bis die Schweissränder groß wie Pizzen sind...

Die einzig empfehlenswerte Karte wäre die 16 GB Variante, wenn der Preis stimmt.
 
Jetzt wisch dir mal den Schaum vom Mund. Ist ja widerlich wie Du hier abgehst.

Indirekt feiert Nvidia die 8GB voll ab, brauchst ja nur die internen Sheets anschauen.

Wie lügen geht, weißt du ja ganz genau (offensichtlich).

Jetzt, wie immer kleiner Auftrag:
Versuche aus den Buchstaben meines Usernamens ein sinnvollen Satz zu bilden und halt Dich an die sich ergebende Anweisung.
Erst beschweren, dass Leute Schaum vor dem Mund haben und dann selbst austeilen. Sehr schade!

Nein. Lüg nicht rum.
Das ist wieder so ein Fall in dem Nvidia Gegner ihr Bullshit-Bingo abziehen.
Auch wenn das hier natürlich auch nicht schön war. Kann man denn nicht auf einer sachlichen Ebene diskutieren und muss immer in den persönlichen Angriff übergehen?
 
Jetzt wisch dir mal den Schaum vom Mund.
Ja, tut mir leid, dass es nervt, wenn andauernd Falschinformationen, Ungenauigkeiten und Bullshit-Bingo zu lesen sind.

Das ist ja in den AMD Diskussionsfreds auch nicht der Fall. Selbst die RX 7600 hat gerade mal magere 10 Beiträge und Nvidia scheint, warum auch immer besonders zu polarisieren.

Immer wieder ist es notwendig Falschdarstellungen zu korrigieren.
Indirekt feiert Nvidia die 8GB voll ab, brauchst ja nur die internen Sheets anschauen.
Im Gegensatz zu dir, schaue ich mir das Material auch vollständig an, bevor ich etwas dazu schreibe.

Man geht in die Quelle rein liest sich das durch und geht dann in die Kommentare und hat wieder lauter Blödsinn vor sich.
Wie lügen geht, weißt du ja ganz genau (offensichtlich).
Dann belege deine Aussage anhand Nvidias Beitrag, ich warte.
Wir wissen beide, dass das nicht passieren wird.
 
Das ist ja in den AMD Diskussionsfreds auch nicht der Fall. Selbst die RX 7600 hat gerade mal magere 10 Beiträge und Nvidia scheint, warum auch immer besonders zu polarisieren.

Immer wieder ist es notwendig Falschdarstellungen zu korrigieren.
Aber, wenn mir die Spekus zur 7600-8GB zu optimistisch sind, sage ich auch dort meine subjektive Erwartung dazu.
(Das ist eeh nur ein Kontrahent für die 4050-6GB und A750, ... bezgl. Perf. und Preis)

Du musst schon schauen, ob nur allgemein gejubelt und geschimpft wird oder ob man sich an den Specs orientiert. (Shadercount etc.)

Wenn Du dann mit jedem allgemein Schimpfer rumstreitest, dann haste halt immer endlos zu tun.
 
Zuletzt bearbeitet:
Speicherverbrauch hängt immer auch davon ab, wie ein Spiel strukturiert ist.

An erster Stelle steht die Menge Speicher die man jetzt in diesem Moment für das Frame braucht das man rendert.
An zweiter Stelle steht der Speicher den all die Objekte benötigen die der Spieler jetzt nicht sieht, aber jeden Moment sehen könnte.
An dritter Stelle steht der Speicher den die Objekte benötigen die der Spieler erst in 15+ Sekunden sehen könnte, aber die man jetzt schon lädt, weil man will ja keine unsichtbaren Linien am Boden bei deren Überquerung das Spiel kurz anhält als wäre es Half-Life auf einem alten PC.

Ein Spiel wie Resident Evil auf der PS1 hatte keine Wahl. Jeder Bildschirm den der Spieler sieht macht den Speicher schon voll, also gibt es Ladebildschirme bei denen eine Tür aufgeht durch die man schreitet. Das macht Diablo 4 heute noch so, wenn man von der offenen Welt in einen instanzierten Dungeon wechselt. Auch Ladeanimationen in Mass Effekt und Tomb Raider fallen in diese Kategorie.

Will man solche Szenarien vermeiden, dann muss mehr Daten vorhalten. Manche Spiele denken sich halt zurecht, dass der Puffer immer alles ist, was man gerade nicht braucht. 16GB Karte? Dann macht das Spiel 12GB + 4GB Puffer draus. 20GB? Prime, ich brauch immer noch nur 12, aber ich kann 8GB puffern. Deswegen ist das Spiel kein Speicherfresser, es nutzt halt eine Ressource im Sinne des Spielers voll aus.

Als Spieler könnte man sich dadurch verleiten lassen zu glauben, dass wenig Speicher reicht. Aber wenn man nicht in Microruckler oder Ladebildschirme laufen will, dann braucht es eigentlich Puffer. Dazu kommen Methoden wie direct Access, damit eine SSD den Puffer auch schnell betanken kann.

Wenn ein Spiel nur zwei Kerne nutzt anstatt 16 würden wir uns beschweren.
Aber wenn ein aktuelles Spiel 8GB auf der neuen 7900XTX frei lässt, dann soll das gut sein?
Wenn ein Spiel über Generationen von Ryzen CPUs MIcroruckler nicht in den Griff bekommt, aber mit mehr L3 Cache sind die plötzlich weg, was soll das dann sein? Ein Zeichen, dass weniger gereicht hätte?
 
Was wird da eigentlich im Kaffee konsumiert?
Wer hat dir was in den Kaffee geschüttet? .
und als Sahnehäubchen auf dem Bullshitpudding noch Marketingfolien veröffentlichen, in denen grandioser L2 Cache den VRAM-Geiz schönreden soll?
Wo steht das? Es wird generell auf mehrere Bereiche eingegangen aber nicht darauf, dass L2 Cache Vram spart, sondern wenn überhaupt das ganze Speichersubsystem für schnellere und effizientere Zugriffe sorgt.
Bis die Schweissränder groß wie Pizzen sind...
Dann sagen die das gleiche wie im Nvidia Artikel. Kostenoptimierte GPU mit neuen Features zum alten Preis.

Und sobald von der Konkurrenz kein ernstzunehmendes Produkt in der Kategorie veröffentlicht wird, wird es auch erst einmal dabei bleiben.
 
Dann muss man ermitteln, wann es zu Texturreduzierung kommt und wann zu Rucklern. Das dann bei AMD/Nvidia vergleichen.
Das ist doch schon seit xx Jahren geklärt und nach unzähligen Grafikkarten- und Spieletests ( auch von PCGH ) steht fest dass die Software immer mehr Arbeitsspeicher ( RAM ) und Grafikspeicher benötigt um optimal zu funktionieren.
Das NVidia Marketing-bla bla "warum x / y / z GB VRAM" ausreichend sind wiederholt sich dabei ständig, trotz unwiderlegbarer Beweise.
Der Mann mit dem Gotteskomplex ( NVidia CEO ) und seine Firma für "Betreutes Denken" hoffen darauf die Kunden mit diesem "Argument" wiederholt zum Kauf zu bewegen und das schon zum vierten Mal ( GTX 10xx / RTX 2000/3000/4000 ) :klatsch:
Und wenn's doch nicht so gut läuft dann landen diese Grafikkarten in OEM-PC's.
 
Wie ich schon öfter kommentiert habe der L2 cache kann aktuell nicht als bandbreiten vergrößerung genutzt werden weil dieser gar nicht am imc sitzt
Dieser cache hilft der ada gen beim RT core und dem OFA
Einzig der Speichertakt beschleunigt die gpu da dessen Latenz kürzer ist als beim älteren chip ga 104 14gbps vs 18gbps/17gbps
Daraus ergibt sich etwa 0-10% performance Zuwachs vs dem Vorgänger
Sprich rtx4060ti wird maximal 10% vor der rtx3060ti mit 14gbps vram sein.
Dagegen wird das 16gb Modell davon ziehen weil der vram buffer reicht bei einigen spielen vs dem 8gb Modell.
Diese gpu müsste eigentlich ne rtx 4060 sein und für maxed 400€ mit 16gb gddr6 20gbps bestückt sein dann wären es um die +15% schneller oder vs rtx3060 +60%

Wir werden nächsten Dienstag sehen wie sehr nvidia hier lügt
natürlich reagiert nicht jedes spiel allergisch auf bandbreite hier sind die Konsolen maßgebend aber die Tendenz wird sein das gleichstand oder leicht schneller als der Vorgänger sein wird.
Das was amd hat ist völlig anders aufgebaut und im Grunde ein cache vor dem vram der sorgt natürlich für Entlastung bei der bandbreite

Wäre nvidia Angabe real wäre die hitrate bei 75% und das wäre unrealistisch amd maxed ist 48% und der cache ist deutlich größer ab 48mb-96mb
 
Ist denn ein Game+Setting im Parcour, was allergisch auf die Hitrate reagiert?
... wo man dann besonders darauf achten sollte beim Lesen vom Review (x)

Vorschläge?

(x) oder nutzt Raff in seinen Vram-Specials andere Settings?
... und geht auch mal durch eine Tür, um die Frametimes im Verlauf dort zu zeigen
Im Zweifelsfall würde ich mir längere Gameplay-Videos auf YT anschauen, bevor man kauft.

btw.
Die Hitrate von 48% bei AMD war mal bei der 6900 in 4k, oder?
In FHD wars deutlich besser.
Zu RDNA3 vs RDNA2 gabs einen schönen Artikel: ... ist ja auch geä. Subsystem
Nice wärs, wenn die Leutchen auch mal die 4060 gründlich beleuchten.
 
Zuletzt bearbeitet:
Ja einerseits bieten sie die 16Gb Karten an WEIL die Spielerschaft es Satt hat mit sollbruchstellen abgespeist zu werden aber anderereits verteidigen sie auch diese Entscheidung, wobei die Entscheidung auf 16gb die Boardpartner auch kalt erwischt haben soll und diese deswegen so spät im Juli nachgereicht wird. Aber all in all wenigstens kommen 16gb versionen also ist das schon mal ein Fortschritt.

Nein Nvidia der Cache kann den Bit Bus oder Vram nicht kompensieren aber effizienter ist er ja, vielleicht mal wenn der Cache 500mb Groß ist und irgendeine Technik da noch nachhilft so aber eher weniger. Aber Ada geht mit 8gb wiederum besser um als Ampere aber wir reden hier von nur ein paar hundert MB.
Naja, wenn wirklich weniger Zugriffe über den Bus müssen, kann man das schmale SI schon kompensieren ;). Auch die Speichermenge lässt sich sicherlich weiter senken. Wie weit ist sicherlich begrenzt.

Wenn sich aber die 8GB der 4060TI wie 10-10,5GB der Konkurrenz verhalten, dann denke ich das eine 4060ti schon eine ordentliche 1080p Karte sein kann. Auch mit 8GB.
 
Grafikspeicher kann man nie genug haben, auf was der drauf sitzt, ist auch wichtig.
Wie mein Feuerwehr Kollegen mal sagte: Schickt mir rote Autos bis Stop sage!
 
Sagen wir so ja es hilft aber nein es ist kein Wundermittel. Sehen wir bei dem Test dann, ist ja die erste ADA 8GB Karte. Ich gehe davon aus das die ADA 8GB später probleme bekommen wird als eine Ampere 8 GB. Wobei es auch da Unterschiede gibt. Eine 3070 TI bekommt später probleme als eine reguläre 3070.
 
Zurück