News Streitfall "Grafikspeicher": Nvidia geht mit nur 8 GiByte jetzt in die Offensive

Im Gegensatz zu dir, schaue ich mir das Material auch vollständig an, bevor ich etwas dazu schreibe.

Man geht in die Quelle rein liest sich das durch und geht dann in die Kommentare und hat wieder lauter Blödsinn vor sich.

Tatsächlich wird in der Quelle nicht wirklich der VRAM-Verbrauch erwähnt. Außer in Hinblick darauf, dass man unten kurz sagt was den Speicherbedarf erhöhen kann.

nVidia veröffentlicht hier einen Deep Dive als Reaktion auf "viele Fragen hinsichtlich des VRAMs". Geht in diesem aber quasi nur auf die Speicherbrandbreite ein und erklärt bzw. rechtfertigt diese. Aber was hat das mit der aktuellen Kritik zu tun? Die Kritik von Kanälen wie Hardware Unboxed bezieht sich schließlich auf den vorhandenen VRAM in Kombination mit den aufgerufenen Preisen.

So und jetzt kommt der Part, wo man interpretieren muss:
Was bezweckt nVidia mit diesem Deep Dive? Welche Fragen werden nVidia derzeit vermutlich am meisten gestellt?

Ich komme da zu dem Schluss, dass das hier ein Ablenkungsmanöver ist. Wozu? Um die Verbraucher mit wenig Ahnung, die von der aktuellen Kritik verunsichert werden, mit Informationen zu bombadieren, welche von diesen falsch interpretiert werden!
 
@PCGH_Raff

Hallo, ich verzweifel, ich zock nur Forza, aber die Not970 is einfach grenzwertig. Laufen soll ...
FH5 QHD Extreme Preset Avg ~100
so günstig wie möglich, was soll ich kaufen? Bitte sags mir.
 
Geht in diesem aber quasi nur auf die Speicherbrandbreite ein und erklärt bzw. rechtfertigt diese.
In Verbindung mit den möglichen Speicheranbindungen.

Warum sie nur 8GB verwenden, ist laut deren Aussage eine Kostenoptimierung und sie sagen auch, dass dadurch nicht immer Ultra Details möglich sind.

Das ist für eine Marketingabteilung schon ein Eingeständnis.
Die Kritik von Kanälen wie Hardware Unboxed bezieht sich schließlich auf den vorhandenen VRAM in Kombination mit den aufgerufenen Preisen.
Die Kritik besteht aber auch aus Forderungen 12GB zu verbauen, was mit dem Interface nicht zusammenpasst. Preislich ist das alles nicht so dolle, aber momentan schiebt sich das ganze Feld im < 500 Euro Segment auch sehr nahe zusammen.
So und jetzt kommt der Part, wo man interpretieren muss:
Da bin ich raus. Ich interpretiere nichts.
 
@WinFrieda warum brauchst du dazu persönliche Unterstützung? Das Spiel und die Auflösung kommen doch im normalen Parkour vor. Z.B. hier:
Dann guckst du noch bei geizhals welche der für dich schnell genügen Karten am günstigsten ist und fertig.
Ich würde auf die 6900XT tippen.
 
Die Kritik besteht aber auch aus Forderungen 12GB zu verbauen, was mit dem Interface nicht zusammenpasst. Preislich ist das alles nicht so dolle, aber momentan schiebt sich das ganze Feld im < 500 Euro Segment auch sehr nahe zusammen.

Das habe ich zumindest von Hardware Unboxed nicht bewusst vernommen. Ich lese aber auch nicht jede Kritik, die auf Reddit oder so veröffentlicht wird und konsumiere nicht alle Tech YouTuber. Insofern kann ich deine Aussage nicht widerlegen und halte das auch nicht für zu weit hergeholt, dass ich dich wie jemand anders hier der Lüge bezichtigen würde. :)

Da bin ich raus. Ich interpretiere nichts.

Dann dürftest du in deinem Leben aber ganz gut Probleme haben. Man muss schließlich so gut wie immer irgendwas interpretieren. ^^

Frecher Spruch beiseite: Gerade wenn du nVidia zu Beginn des Threads so resolut verteidigst, interpretierst du doch auch. Nämlich dass die Marketingabteilung von nVidia mit dem Deep Dive eben tatsächlich nichts im Schilde führt und einfach nur technisch aufklären möchte.
Aus meiner persönlichen Erfahrung in Hinblick auf gewinnorientierte Firmen halte ich das aber für sehr unwahrscheinlich und sehe es deswegen etwas anders.

Wissen kann das aber keiner von uns beiden, weil wir vermutlich nicht in der Abteilung arbeiten.
 
Ich würde auf die 6900XT tippen.
Danke für den Hinweis zu dem Test, ihn hatte ich bereits entdeckt. Dort wird in max Details getestet (kein Vorwurf, nur eine Feststellung).
Mit Extrem Preset sind es dann halt ein paar FPS mehr. Aber 6900XT is für mich viel zu teuer.
Danke. Wahrscheinlich muss ich noch warten bis es günstiger wird.

Ich möchte halt wegen dem Vram nix falsch machen. Ein 12er Kärtchen is wahrscheinlich das Minimum, das sinnvolle Minimum.
 
Als die 6700XT auf den Markt kam war sie durchaus der Übergang von FullHD, aber auch in WQHD brauchbar. Jetzt ist diese Preisklasse bei Nvidia halt auf FullHD beschränkt. Das empfinde ich als Rückschritt. Vor allem weil der Grund dafür künstlich scheint. Speicher ist spottbillig, aber Nvidia will einfach nicht mehr verbauen, fertig Ende aus.

Ich find das schräg, der optische Zugewinn von nahezu allen Features die ich auf bspw. der 6700XT deaktivieren kann, aber trotzdem noch die höchste Texturstufe habe, tröstet halt bei neueren Titeln dann nicht über die Matschtexturen, Ruckler und Frametimes hinweg. Ich fand das Video von 3070 vs. 6800 in der Beziehung schon überraschend.

Diese Fälle zeigen dann eben, dass die Karte nicht per se eine 1080p Karte ist und auch in 1440p besser sein könnte, wenn man ihr entsprechend Speicher gegeben hätte.
Nur das halt die Spiele in 1080p auf der 3070 besser laufen, als auf der 6700XT vor allem wenn RT dazu kommt.

Wer RT nutzen möchte konnte halt besser eine 3070 kaufen, als eine 6700XT. Wer da immer einen Bogen drum machen will, konnte mit der 6700XT eine gute Alternative finden.

Die 4060TI wird stärker auf 1080p beschränkt sein, als damals die 3070.
Kommt in etwa so hin.
Pauschal, obwohl man weiß das es nicht pauschal ist. Da sich AMD Nvidia und Intel jeweils anders verhalten.
Schon irgendwie beängstigend wie blind manche nvidias Aussagen folgen. Gibt doch inzwischen genug Videos auf YT die eindeutig zeigen wie die Situation aussieht und wer gibt für Stand heute 600-900€ aus um morgen unter 4k Details herunterzuschrauben?
Jeder, der nach der Logik eine 7900XT oder XTX gekauft hat. Denn RT muss vielfach zurück geschraubt werden unter 4K Auflösung.

BockBohne ohne Ende.

Keiner sagt blind irgendwas... Tests werden es zeigen, wie die in letzter Zeit immer wieder gezeigt haben, das Nvidia etwas weniger Speicher benötigt als AMD.
 
Zuletzt bearbeitet:
Hätten die Ingenieure die Entscheidung getroffen, wären heute 20 GiB auf der 4080, 16 GiB auf den 70er Modellen und 12 GiB auf den 60ern.

Man hätte nicht später nachbessern müssen um dann auch noch zu erklären das Effizienz akuten Speichermangel ausgleichen kann. So ein kompletter BS.

Das war zu gierig, Nvidia wollte das Geld für die teuren Workstation-Karten, bei denen die Speichergröße noch eine größere Relevanz hat. Irgendwann ist die Grenze aber deutlich unterschritten, und die Gamer kaufen nicht bzw. etwas anderes, nicht etwa mehrmals. Verkalkuliert.

Liebes Nvidia, wenn kein Speicher mehr da ist, ist kein Speicher mehr da. Da beist die Maus keinen Faden ab. Und da ihr so wenig wie nur möglich davon verbaut, ist das Ende eben schnell erreicht. Das braucht man nicht erklären, das kann man dann sehen. Und so wie ihr RTX propagiert, hätte jemandem aufallen müssen, dass dafür nicht nur Rechenleistung nötig ist.

Das nächste mal nicht die Gier-Abteilung die Entscheidungen treffen lassen, dann bleiben wir auch von den Äußerungen eurer BS-Abteilung verschont. Irgendwer heult halt, und wenn das genug Kunden tun, dann heult auch ihr.
 
8 GB NV = ca. 9 GB AMD und 10 GB INTEL.
siehe Anhang #84
PCWelt echt, PCGH hat auch schon gemutmaßt. Jetzt hat bestimmt der Recht der Nvidia weniger gut dastehen lässt, oder?

Bei PCGH wird öfter von 8 zu 10GB von Nv zu AMD gesprochen.
Hätten die Ingenieure die Entscheidung getroffen, wären heute 20 GiB auf der 4080, 16 GiB auf den 70er Modellen und 12 GiB auf den 60ern.

Man hätte nicht später nachbessern müssen um dann auch noch zu erklären das Effizienz akuten Speichermangel ausgleichen kann. So ein kompletter BS.

Das war zu gierig, Nvidia wollte das Geld für die teuren Workstation-Karten, bei denen die Speichergröße noch eine größere Relevanz hat. Irgendwann ist die Grenze aber deutlich unterschritten, und die Gamer kaufen nicht bzw. etwas anderes, nicht etwa mehrmals. Verkalkuliert.

Liebes Nvidia, wenn kein Speicher mehr da ist, ist kein Speicher mehr da. Da beist die Maus keinen Faden ab. Und da ihr so wenig wie nur möglich davon verbaut, ist das Ende eben schnell erreicht. Das braucht man nicht erklären, das kann man dann sehen. Und so wie ihr RTX propagiert, hätte jemandem aufallen müssen, dass dafür nicht nur Rechenleistung nötig ist.

Das nächste mal nicht die Gier-Abteilung die Entscheidungen treffen lassen, dann bleiben wir auch von den Äußerungen eurer BS-Abteilung verschont. Irgendwer heult halt, und wenn das genug Kunden tun, dann heult auch ihr.
Die Chips sind ja nicht mal dafür gebaut. So wie die Chips entwickelt wurden, hätte man keine 4080 mit 20GB bringen können, wegen der SI Breite
 
Jeder, der nach der Logik eine 7900XT oder XTX gekauft hat. Denn RT muss vielfach zurück geschraubt werden unter 4K Auflösung.
Naja, die 7900XTX (für 999 €) liegt in RT auf Niveau einer 3090Ti, jene welche die Speerspitze der letzten Gen von NV darstellte.
Und in RT liegen NV und AMD bei FPS/€ gleich auf.
PCWelt echt, PCGH hat auch schon gemutmaßt. Jetzt hat bestimmt der Recht der Nvidia weniger gut dastehen lässt, oder?

Bei PCGH wird öfter von 8 zu 10GB von Nv zu AMD gesprochen.
Hab gesucht aber auf die Schnelle leider nicht gefunden, da wir auf PCGH geschrieben :
8 GB NV entspricht 8,5 GB AMD und 9 GB INTEL.
 

Anhänge

  • RT.jpg
    RT.jpg
    339,9 KB · Aufrufe: 40
  • PL Index RT.jpg
    PL Index RT.jpg
    476,1 KB · Aufrufe: 36
Naja, die 7900XTX (für 999 €) liegt in RT auf Niveau einer 3090Ti, jene welche die Speerspitze der letzten Gen von NV darstellte.
Und in RT liegen NV und AMD bei FPS/€ gleich auf.
Wieder schön im Schnitt, der vernachlässigt, das AMD die Puste bei hoher RT Last ausgeht.

Außerdem ging es um die Aussage davor. Für 900€ keine Regler bis hinaus zu 4k bedienen zu müssen. Das ist mit Max Details eben erst ab einer 4080 möglich. Weil AMD und auch ältere RTX3000 Karten das nicht schaffen.
Naja, die 7900XTX (für 999 €) liegt in RT auf Niveau einer 3090Ti, jene welche die Speerspitze der letzten Gen von NV darstellte.
Und in RT liegen NV und AMD bei FPS/€ gleich auf.

Hab gesucht aber auf die Schnelle leider nicht gefunden, da wir auf PCGH geschrieben :
8 GB NV entspricht 8,5 GB AMD und 9 GB INTEL.

So schade, das einfache Behauptungen keine Beweise sind.

Im Speicherspezial kann man sehen, das wenn es bei AMD ruckelt mit 8GB, das bei Nvidia noch nicht so ist. Sogar die 10GB bei AMD fangen zeitgleich in einem Beispielspiel an zu ruckeln, wie die 8GB bei Nvidia.

Es geht auch nicht darum die 8GB schön zu reden, aber pauschalisiert das schlecht zu reden ist falsch, weil man stand heute für 1080p mit Option auf RT hier vermutlich eine brauchbare Karte bekommt.

Jeder kann selbst entscheiden, wem was wichtig ist und Wert. Daher stehe ich stets gegen Pauschalantworten ein.

Und Herstellerbezogenen rum Gelümmel ist so Gestern.
 
Wieder schön im Schnitt, der vernachlässigt, das AMD die Puste bei hoher RT Last ausgeht.
Also wenn ich lese, dass eine 4090 (vor 6 Monaten für ca. 2000 €) mit RT on (ohne DLSS) 22 FPS schafft, geht jener die Puste nicht aus ?
RT wird für mich in frühestens 2 Gen später "interessant".
So schade, das einfache Behauptungen keine Beweise sind.
Wenn PCGH das so Behauptet ist das für mich fast so wie ein Beweis.
Klar kann man dies nicht pauschalisieren.
 

Anhänge

  • RT CP 4K.jpg
    RT CP 4K.jpg
    571,2 KB · Aufrufe: 52
Da steht zwar RTX 3090...aber was solls. Das wird deinem erbitterten Kampf gegen Nvidia keinen Abbruch tun.

Mir fällt es bei dem Spiel nicht schwer zu wählen ob ich das rote oder das grüne Schweinderl nutze :D

RTX 4070TI vs RX 6800.png
 
Zuletzt bearbeitet:
So lang nutzen Leute ihre Karten garnicht mehr, hier wird nur noch von Gen zu Gen gekauft^^ Jedes Jahr den Herstellern Geld in den Rachen werfen und dann sich wundern warum die Preise steigen. Zukunftssicherheit ist damit also völlig egal für die meisten....leider.
Sag sowas nicht, meine R9 390X mit 8 GB (mit 400 GB/s dank 512 Bit) verrichtet immer noch ihren Dienst im 2. Rechner.
Natürlich mit Einschränkungen.
Da steht zwar RTX 3090...aber was solls. Das wird deinem erbitterten Kampf gegen Nvidia keinen Abbruch tun.
Oh, hast Recht. Dann lass es mit der 4090 11 FPS mehr sein. Was es nicht wirklich besser macht.
Das wird Deinem erbitterten Kampf für nVidia keinen Abbruch tun.
 

Anhänge

  • R9 390X OC.jpg
    R9 390X OC.jpg
    467,5 KB · Aufrufe: 53
Die Chips sind ja nicht mal dafür gebaut. So wie die Chips entwickelt wurden, hätte man keine 4080 mit 20GB bringen können, wegen der SI Breite
Ja, geb ich dir recht. Die Entscheidung wurde aber irgendwann getroffen, bei den 70er Modellen wahrscheinlich etwas spät. Man erkennt auf wirklich allen Platinen die fehlenden 2 Speicherchips, das wären dann die 16GB gewesen.

192 Bit sind dann eben von 12 GiB besetzt, aber das kommt aus der grundsätzlichen Entscheidung die Leistung über das Speicherinterface zu limitieren. Kann man bei der Entwicklung schon umgehen, man muss die GPU nicht hinterher auf diese Weise einbremsen.

Es wäre auch möglich 256Bit für die 70er zuzulassen, dann braucht man auch nicht mit Cache werben, bzw. kann da wieder Silizium einsparen. Auch das bremst ein, wenn man schon zuviel Shader verbaut, die ja auch wieder Platz auf dem Die brauchen. Erscheint alles sehr unsinnig, wenn man das Milchmädchen rechnen lässt. Es sei denn, die Produktionskosten fürs Silizium sind bei aktuellen Margen nicht mehr so relevant. Das mag natürlich auch sein.

Scheint auch alles für die 4090 zu sein, der Abstand zu ihr sollte wohl am Ende größer sein, als nur durch die Reduktion von Recheneinheiten und ein wenig Speicherbandbreite. Wobei Nvidia schon immer so einen Quatsch macht, mit den kleineren GPUs.
 
Zurück