Geforce GTX 1660 im Test: Sparsame Alternative zur Radeon RX 590

Die ganze Turing-Reihe ist fürn Arsch. Ein Pascal-Refresh wäre vielen Leute lieber gewesen, ähnlich wie 2013 mit dem Kepler-Refresh

GTX 2080=GP102 Vollausbau 12gb VRAM
GTX 2070=GP102 (ein bisschen mehr beschnitten als der GP102 der GTX 1080ti) 11gb VRAM
GTX 2060=GP104 Vollausbau 8GB VRAM
GTX 2050ti=GP106 Vollausbau 6gb VRAM
GTX 2050=GP106 beschnitten 6gb VRAM

Selbstverständlich wären alle Refresh-Chips im verbesserten 12nm Prozess von TSMC.


Es wäre ebenso besser gewesen, Nvidia hätte DLSS und RayTracing als neue Feature über ein Coprozessor verkauft, wie mit PhysX, stattdessen verschwendet man wertvolle teure Siliziumfläche für ein bisschen Spiegeleffekt, bei 99% aller PC Spiele liegt ein Teil der wertvollen Chipfläche einfach brach, der Kunde muss dies aber bezahlen. Wie gesagt, eine dedizierte RT- Karte wäre innovativer gewesen.
 
Ich hab nur den Kommentaren widersprochen die Karte läge nur auf dem Niveau einer RX 580, das ist nach einem Querschnitt der Tests nicht so.
Die Karte liegt etwa 10% über der RX 590 in Full HD, egal ob ich bei Gamestar, TPU, HWU, Golem, Gamestar oder sonst wo schaue.

Die 1660 wird im Mittel schneller sein als im PCGH Kurztest, aber dass du den Gamestar Test mit als Vergleich nimmst zeigt schon, dass es Dir nicht um objektive Ergebnisse geht. Verzerrter geht es kaum, die Radeon VII ist langsamer als die 2070 im Schnitt, in 1440p nur gleichauf. Die Vega 64 ist deutlich hinter einer GTX 1080.
 
Zuletzt bearbeitet von einem Moderator:
Nette GPU, aber dass bessere P/L-Verhältnis hat immer noch Polaris 10, was ja nicht gerade eine neue GPU ist, und zusätzlich noch mehr VRAM bietet.
Die Turing-Generation ist einfach zu teuer, konkurriert direkt mit dem Vorgänger, der teilweise auch mehr VRAM hatte, oder mit alten AMD GPUs.

Also auf Navi warten, und hoffen dass es gegenüber Polaris 10 endlich einmal deutlich mehr Leistung in der Preisklasse gibt.
 
Ist ja interessant, TPU, Hardwareunboxed, Anandtech, Golem, Gamestar, Hardwarechanucks, Computerbase, der PCGH Leistungsindex, Techspot, TomsHardware, usw alle ganz böse Nvidia-Fanseiten.
Nur die PCGH zeigt die waren Ergebnisse mit der 1660 auf dem Niveau einer RX 580, klar.:schief:
Nächstes mal machen wir nur 3 Benchmarks.:devil:


Hat mit Glaubwürdigkeit nichts zu tun. Das sind faktische Unterschiede wegen des Mini-Spieleparcours.
Ich verlink dir dann morgen oder übermorgen den Computerbase-Test, da schneidet die 1660 mindestens 15% schneller als die 580 ab.
Nvidia kommt hier deutlich zu schlecht weg - muss man leider so sagen. das das mit Fanboy zu tun hat`?:ka:



Da fragt man sich doch eher um wessen Ego es hier geht, denn es ist doch völlig klar dass diese Werte im Mittel niemals stimmen werden.
Es ist also unterstes Niveau wenn man darauf hinweist, dass die Werte nicht repräsentativ sind. Gut.:P



Warum sollte Nvidia mehr Speicher verbauen? Ist doch gar nicht notwendig.
So hat AMD zumindest noch eine reelle Chance Karten abzusetzen.



Die Karten sind nicht auf einem Level, genausowenig wie RX 580 und RX 590 auf einem Level sind.
Und es zählt nicht nur der Preis, sondern auch die Lautstärke und der Stromverbrauch.


Oder wer sich die 8 Sone der Fatboy oder die 6 Sone der ASRock 590 nicht antun will, bzw die Nachteile der Energieaufnahme abseits der Stromkosten im Sommer.

CB? Du meinst DIE Seite, die für etliche fehlerhafte Benchmarks berüchtigt ist? Die allein letztes Jahr 4 große Berichtigungen wegen teilweise schwerwiegender Fehler veröffentlichen musste? Diese "glaubwürdige" Seite? Ja sicher, verlink mir deren Tests... xD
Ganz nebenbei, ich habe eine Fatboy und nein, die hört man nicht, denn man kann sie ohne Probleme mit einem Handgriff leiser bekommen, auch ohne für dich zu kompliziereten Eingriff in die Treibersteuerung: einfach nur einen kleinen Schalter am PCB umstellen. Wenn man dann allerdings noch die Lüftersteuerung herunterregelt, bleibt sie schön kühl und recht leise. Sicher ist sie noch zu hören aber nicht störend, selbst wenn ich ohne Ton am Rechner sitze und die Boxen nichts übertönen. Selbst die hochwertigen Gehäuselüfter sind nicht wirklich leiser. Aber du glaubst natürlich nur die Lügen "deiner" CB... -.-
 
Es sind 5 der aktuell jüngst erschienenen Spiele. Also quasi ein topaktueller Performace-Querschnitt. Sind alte Kamellen interessanter oder bezüglich Performance aussagekräftiger als brandaktuelle Spiele? Oder nur, wenn Nvidia da bessere Leistung als AMD aufweisen kann?

Ich kann beim besten Willen nicht verstehen wie man als Redaktion auf die Idee kommt 5 Spiele würden einen Querschnitt darstellen, besonders dann wenn 4 Spiele davon außergewöhnlich gut auf AMD Karten performen was eher die Ausnahme als die Regel ist.
Mal angenommen das wäre andersherum gelaufen, das heißt Nvidia wäre so stark bevorteilt worden -gegenüber dem Leistungsindex und anderen Online-Tests, die man ja anschauen kann, dann gäbe es hier einen riesigen Shitstorm.

Bei der 2060 Phoenix GS hat man noch komplett andere Titel gewählt.

Gainward Geforce RTX 2060 Phoenix GS im Test: Gelungener Einstieg in die RTX-Welt?


Zur Auswahl: 2 von den Benchmark-Titeln (Metro Exodus, Battlefield 5) sind offiziell von Nvidia unterstützte, eins (The Division 2) wurde offiziell von AMD unterstützt. Wir hätten sogar noch Anthem (ebenfalls Nvidia-sponsored) hinzufügen können, das läuft aber auf AMD-GPUs ebenfalls etwas besser (oder alternativ Resident Evil 2, dann hätten wir 2 Nvidia- und 2 AMD-Games gehabt; Resident Evil 2 läuft aber auch besser auf AMD-GPUs). Das traf in letzter Zeit für relativ viele Titel zu. Der unterstellte "Bias" ist also eher der aktuelle Bestand. ;)l

WIe gesagt, andere Tests bieten mehr als 5 Spiele und da sehen die Ergebnisse im Mittel 15% anders aus.
Was da nun AMD oder Nvidia-Supported ist, ist im Endeffekt recht egal.

CB? Du meinst DIE Seite, die für etliche fehlerhafte Benchmarks berüchtigt ist? Die allein letztes Jahr 4 große Berichtigungen wegen teilweise schwerwiegender Fehler veröffentlichen musste? Diese "glaubwürdige" Seite? Ja sicher, verlink mir deren Tests... xD

Du kapierst nicht dass es nicht darum geht wer testet, sondern wieviel Benchmarkergebnisse ich zur Bewertung heranziehe.
Du siehst doch bereits bei Hardwareunboxed oder TPU, dass mehrere Benchmarks ein seriöseres Ergebnis bringen.
 
Zuletzt bearbeitet:
Ich kann beim besten Willen nicht verstehen wie man als Redaktion auf die Idee kommt 5 Spiele würden einen Querschnitt darstellen, besonders dann wenn 4 Spiele davon außergewöhnlich gut auf AMD Karten performen was eher die Ausnahme als die Regel ist.

Waren halt die letzten Games die released worden sind... In letzter Zeit gab es häufig Games wo (abseits UE) AMD besser performte... Besser heisst für mich auch gleichauf...
Das fing grob an mit Jurassic Park, Wreckfest etc. Ausnahmen waren halt eher die "Nvidia-Bias" Games wie z.B. AC:O, wo bei Gamestar die 1660ti sogar schneller ist als die Radeon VII :D :D :D
 
Ich kann beim besten Willen nicht verstehen wie man als Redaktion auf die Idee kommt 5 Spiele würden einen Querschnitt darstellen, besonders dann wenn 4 Spiele davon außergewöhnlich gut auf AMD Karten performen was eher die Ausnahme als die Regel ist.
Mal angenommen das wäre andersherum gelaufen, das heißt Nvidia wäre so stark bevorteilt worden -gegenüber dem Leistungsindex und anderen Online-Tests, die man ja anschauen kann, dann gäbe es hier einen riesigen Shitstorm.

Bei der 2060 Phoenix GS hat man noch komplett andere Titel gewählt.

Gainward Geforce RTX 2060 Phoenix GS im Test: Gelungener Einstieg in die RTX-Welt?




WIe gesagt, andere Tests bieten mehr als 5 Spiele und da sehen die Ergebnisse im Mittel 15% anders aus.
Was da nun AMD oder Nvidia-Supported ist, ist im Endeffekt recht egal.

4 von 5 Spielen, von denen 2 reine RTX-Spiele sind? Die ja auf nV sicher unendlich viel schlechter performen als auf AMD? Ja, sicher...
Du bist schon lächerlich, nur weil dein persönliches Wunschbild nicht erfüllt wird. Stell dir jetzt einmal vor, Navi wird richtig toll, dann müssen wir für die ganzen Taschentücher, die du brauchst, zusammenlegen...
 
Wenn eine Seven hier langsamer ist - passt es ins Konzept (woanders ist die teils schneller als die 2080 und deutlich schneller als eine 2070), wenn nV dabei unter die Räder kommt, dann ist PCGH Schuld und der Test nicht aussagekräftig.:ugly:

Das ist völlig unsinnig. Ich kenne keinen einzigen Test in dem die Radeon VII schneller als die 2080 ist, nicht mal in 4K, siehe Zusammenfassung.
Der Test ist nicht aussagekräftig wegen der Menge an Benchmarks du Held und da ist es völlig egal ob ich "neue" Spiele nehme oder alte Spiele.
Far Cry New Dawn beherrscht sogar als eines von 3 Spielen am kompletten Markt rapidpackedmath für Vega.
Eine Auswahl von 5 Spielen kann niemals irgendeinen Querschnitt bilden, das ist einfach ziemlich harter Bullshit.
Dass die Radeons in diesem Parcours gut performen ist reiner Zufall.

radeon-vii-png.1037596

Fazit: nutzlose Hardware die man schon vor zwei Jahren billiger kaufen konnte, die Effizienz bleibt wie bei allen Turings auf der Strecke.

Fraglich wo man RX 590 + 10% Leistung vor 2 Jahren für 200 Euro kaufen konnte, vermutlich nur in deiner Phantasie.
Damals bekam man eine RX 480 für etwa 200 Euro, die ist aber auch 20% langsamer.

Du bist schon lächerlich, nur weil dein persönliches Wunschbild nicht erfüllt wird. Stell dir jetzt einmal vor, Navi wird richtig toll, dann müssen wir für die ganzen Taschentücher, die du brauchst, zusammenlegen...

Bei weitem nicht so lächerlich wie du, der irgendwie glaubt ich würde hier für Nvidia argumentieren, weil meine Taschentücher voll sind.
Deine Wortwahl ist unterstes NIveau und zeigt mal wieder sehr schön, wie sehr ihr einen Test feiert der AMD deutlich bevorteilt - im Gegensatz zu hundert anderen.
Wenn Nvidia benachteiligt wird, ist es in Ordnung und sich Ergebnisse 15% oder sogar mehr vom Schnitt abweichen, aber wehe Ryzen kam im Launchtest nicht sogut bei den Spielebenchmarks weg, dann wurde die ganze Welt in Bewegung gesetzt wieso nicht mit einer Radeon gebenchmarkt wurde und nicht das oder jenes, oder nicht generell im GPU Limit.:rollen:
 

Anhänge

  • Radeon VII.PNG
    Radeon VII.PNG
    95,2 KB · Aufrufe: 295
Zuletzt bearbeitet:
Ich kann beim besten Willen nicht verstehen wie man als Redaktion auf die Idee kommt 5 Spiele würden einen Querschnitt darstellen, besonders dann wenn 4 Spiele davon außergewöhnlich gut auf AMD Karten performen was eher die Ausnahme als die Regel ist.

Ich würde mal sagen das ist zukunftsweisend und hat für mich mehr Aussage Kraft, als 20 alte Titel die bereits mit den Vorgängen Karten gut liefen.

Ich möchte ja wissen was in Zukunft von den Karten zu erwarten ist, und nicht was zu erwarten gewesen wäre.
 
Andere Tester müssen vllt. auch keine Zeitschrift fertigstellen. Ich ziehe einen knappen Test mit aktuellen Spielen auf jeden Fall einem Test vor, bei dem alte Zahlen (mit unterschiedlicher Spiel- und/oder Treiberversion getestet) in einen Topf geworfen werden, nur im möglichst viele Spiele abzudecken. In den jüngsten Spielen waren die Radeons halt oftmals schneller... ich begrüße den Trend und es spiegelt auch ein Stück weit meine Einschätzung wieder, dass Nvidia die alten Karten mit den neuen Treibern einfach verhungern lässt, um die neuen Karten besser dastehen zu lassen.

Grüße!
 
Ich warte immer noch wo ich gelogen habe... Du hast behauptet ich bin ein Lügner, ich lasse mich nicht gern beleidigen...
Und ich lasse mir nicht gerne Worte in den Mund legen die ich nie getätigt habe.

desktop-png.1037597


Hier ist der Quote zu meinem Beitrag.
Der Link führt ins Leere, also hast du den Inhalt höchstwahrscheinlich selbst geschrieben.:schief:
Quotes aus dem Zusammenhang reißen oder erfinden kann ich auch - ich mache es aber nicht.
 

Anhänge

  • Desktop.PNG
    Desktop.PNG
    13,9 KB · Aufrufe: 336

1. Wenn du dauernd mit CB Test kommst, auch bei Mirror Edge, damit du untermauern kannst es gibt keine Probleme mit 6 GB, warum nervst du dann das Forum auf PC Games Hardware? Bleib doch bei CB

2. Ich warte immer noch auf die Antwort wo ich gelogen habe.... Wie gesagt du hast mich als Lügner beschimpft, warum sagst du es mir nicht wo ich gelogen habe?
 
Und ich lasse mir nicht gerne Worte in den Mund legen die ich nie getätigt habe.

attachment.php


Hier ist der Quote zu meinem Beitrag.
Der Link führt ins Leere, also hast du den Inhalt höchstwahrscheinlich selbst geschrieben.:schief:
Quotes aus dem Zusammenhang reißen oder erfinden kann ich auch - ich mache es aber nicht.

Nochmal du hast mich als Lügner hingestellt... wo habe ich gelogen..
Und mit dem Mirror Edge war deine Aussage das mit dem Speicherproblem existiert nicht und hast nichtssagenden CB Test gepostet
 
Und ich lasse mir nicht gerne Worte in den Mund legen die ich nie getätigt habe.

attachment.php


Hier ist der Quote zu meinem Beitrag.
Der Link führt ins Leere, also hast du den Inhalt höchstwahrscheinlich selbst geschrieben.:schief:
Quotes aus dem Zusammenhang reißen oder erfinden kann ich auch - ich mache es aber nicht.
Hier:
Du bist eben ein Lügner, ich habe keinen Benchmarkbalken verlinkt, sondern einen kompletten Test des Spiels auf Computerbase.
Und ich weiß ja nicht wie du das siehst, aber bei PCGH fällt einem dieser ganz besondere Speicherfetisch schon massiv auf, auch hier wieder.
Das ist einfach typisch Raff, einer der größten Speicherfetischisten die man so im Netz kennt - klar dass diese Tests dann immer etwas einseitig sind.
Ich kann mir übrigens kaum vorstellen, dass das finale Spiel soviel V-ram benötigt und ob Directx12 wirklich bessere Texturen bietet und nicht einfach den Speicher vollknallt, möchte ich schon selbst mit der finalen Version des Spiels überprüfen.


Wie gesagt, was soll diese Unterstellung, ich habe das auch nicht für Full HD behauptet, sondern explizit gesagt dass es eine Hand voll Titel gibt wo 6GB für max nicht unbedingt reichen.
Ich weiß ja nicht was du liest, aber du liest definitiv nicht das was ich schreibe.


Du bist eben ein Lügner, ich habe keinen Benchmarkbalken verlinkt, sondern einen kompletten Test des Spiels auf Computerbase.
Und ich weiß ja nicht wie du das siehst, aber bei PCGH fällt einem dieser ganz besondere Speicherfetisch schon massiv auf, auch hier wieder.
Das ist einfach typisch Raff, einer der größten Speicherfetischisten die man so im Netz kennt - klar dass diese Tests dann immer etwas einseitig sind.
Ich kann mir übrigens kaum vorstellen, dass das finale Spiel soviel V-ram benötigt und ob Directx12 wirklich bessere Texturen bietet und nicht einfach den Speicher vollknallt, möchte ich schon selbst mit der finalen Version des Spiels überprüfen.



Ich wüsste nicht was es da zu beantworten gibt, ich habe nie daran gezweifelt dass es hier und da Beispiele gibt wo 6GB wenn man mit der Lupe hinguckt in Full HD nicht reichen mögen.
Aber dieses Spiel hier ist wieder vergleichbar mit Black Ops vor 4 Jahren, das fraß bei Matschtexturen damals schon extrem viel Speicher, hier ist es dasselbe, scheinbar nur unter Directx12 - aber das wird wie immer ausgeblendet.
Das Spiel ist noch nicht einmal fertig draußen und es kommt wieder diese alberne V-ram Hysterie.



Das man das nicht "braucht" habe ich nie behauptet, ich sagte, dass es keinen "großen Unterschied" macht, ob eine GPU heute 6 oder 8GB Speicher hat.:rollen:
Danach habe ich das für die Zukunft als klaren Vorteil benannt.



Wie gesagt, auch hier wieder schlicht und ergreifend erfunden.
Raytracing ist kein Killerfeature, sondern eine wünschenswerte Weiterentwicklung die man mMn supporten muss, was anderes habe ich nie behauptet.
Du wirst so einen Kommentar von mir nirgends finden.



Ich habe es nicht als unwichtig hingestellt, sondern als Nachteil.:rollen:



Wie gesagt, ich hab das Spiel in 3440x1440 auf einer 4GB RX 470 in der Beta gezockt und habe keinen Texturmatsch gesehen.
Das ist ein klarer Bug - und kein technischer Fortschritt wie mit der Brille im Artikel argumentiert.



Sorry, aber die AMD Märchenstunde ala Raff ist mir zu unseriös.;)
 
Die 1660 wird im Mittel schneller sein als im PCGH Kurztest, aber dass du den Gamestar Test mit als Vergleich nimmst zeigt schon, dass es Dir nicht um objektive Ergebnisse geht.

Warum, wo nehme ich nur Gamestar explizit? Die ermitteln dieselben Werte wie TPU und HardwareUnboxed.
Mir geht es sehr wohl um objektive Ergebnisse, nämlich einen Querschnitt der Tests und nicht um einen Kurztest mit gerade mal 5 Spielen.
Statistisch gesehen ist das völlig Banane, das weiß jeder und egal ob der PCGH Index nun mit modernen Spielen aufgehübscht wird oder nicht, sind ein Mittel aus 5 Spielen recht irrelevant.

Verzerrter geht es kaum, die Radeon VII ist langsamer als die 2070 im Schnitt, in 1440p nur gleichauf. Die Vega 64 ist deutlich hinter einer GTX 1080.

Die Radeon VII leidet in diesem Parcour an einem CPU Limit in Assassins Creed Odyssee, das trifft auf die RX 580 zum Beispiel nicht zu.
Aber du musst dich nicht auf Gamestar verteifen, nimm einen x beliebig anderen Test, die Liste ist lang.
Am Ende fasst das 3D Center die Tests zusammen. Da wird die 1660 5 bis 10% über der 590 rangieren, deutlich anders als in diesem Mini-Parcour.
Solche Parcours leiden immer massiv daran zugunsten eines IHV auszufallen, aber das kennt man ja.


Ja? Ich habe keinen Benchmarkbalken verlinkt, sondern einen Testartikel des kompletten Spiels, wo auch Aussagen zu dem V-ram Bedarf drinstehen und daher ist deine Aussage einfach nicht korrekt und wir sprachen ja nur von Full HD und nicht mal QHD.



Mirror's Edge Catalyst überzeugt grafisch mit der ungewöhnlichen Optik, verlangt dafür aber eine schnelle Grafikkarte mit am besten sechs oder acht Gigabyte Speicher. Wer nur vier Gigabyte besitzt, muss auf die schärfsten Texturen verzichten – verpasst dadurch aber nicht viel. AMD- und Nvidia-Grafikkarten schlagen sich in dem Parcours-Spiel gleich gut, Vorteile kann keiner der Hersteller erarbeiten.
Dass das Spiel dennoch mit einer GeForce GTX 1080 mit Abstand am besten läuft (inklusive spielbarer Hyper-Details bis hin zu 2.560 × 1.440), verwundert aufgrund der Rechenleistung nicht. Doch auch langsamere Grafikkarten wie die GeForce GTX 970, vor allem aber die Radeon R9 390, fühlen sich in Mirror's Edge Catalyst wohl. Mit noch langsameren Modellen muss dann nicht nur eine, sondern gleich zwei Qualitätsstufen auch in Full HD zurückgeschaltet werden – was zumindest grafisch für einige, wenn auch keine großen, Einbußen sorgt.
 
Zuletzt bearbeitet:
computerbase wird gerne als solche betitelt...ich lese sie gerne, weniger Artikel als hier aber dafür meist sehr fundiert und im Abitur lernt man auch zwischen den Zeilen zu lesen, spätestens im Arbeitsleben lern man dies aber...:ugly:

Dann hast du aber in letzter Zeit noch auf CB gelesen. Beim P/L Diagramm wurde einfach mal die 580 rausgenommen damit die 1660 P/L-Sieger wird. Das nennst du fundiert? Und das ist nur ein Fauxpas der letzten woche
 
Die Seiten, die genau das sagen, was die nV-Fanbois hören wollen. So, wie CB oder Gamestar.
Ach so. Weil dir das Ergebnis nicht passt, sind das natürlich nur biased Seiten.

Kurz: Die richtigen Ergebnisse gibt es nur dort, wo AMD am Besten abschneidet, so zumindest für Bevier :daumen:

Ich warte mal auf die Zusammenfassung von 3DCenter über die Dutzenden von Tests hinweg. Das ist dann wirklich aussagekräftig.

Fazit: nutzlose Hardware die man schon vor zwei Jahren billiger kaufen konnte, die Effizienz bleibt wie bei allen Turings auf der Strecke.
Jaja, die Effizienz kommt total unter die Räder:
OlletsagsFakeNewsMalKurzWiderlegen.png

Zitat auch gerne von Igor:
Ein sichtbarer Fortschritt gegenüber den Pascal-Karten, wie einer GeForce GTX 1060, ist auch die höhere Effizienz bei der Leistungsaufnahme. Die alte Pascal-Karte wird dabei, bei ähnlichem Preis an der Ladentheke und später auch an der Steckdose, absolut locker ausperformt. Auch das ist eine erstaunliche, aber mit diesem Test auch belegte Erkenntnis.

Für jemanden, der ständig Fake News brüllt, erzählst du ganz schön viele Märchen.

Ach ja, die identische Hardware zum günstigeren Preis von vor zwei Jahren verlinkst du dann noch bitte :daumen:
 
@schaffe, denn jeder Halbwegsnerd mit überschaubarem Budget würde sich ne 2060 holen, wenn sie denn 8GB hätte...
Jeder Halbwegs Nichtfachidiot wird das mit dem integrierten SI wohl verstehen, warum das nicht geht


dann erzähle doch mal wie du an das Speicherinterface der 2060 "einfach" 2GB mehr dran pappen willst:ugly:

Oder glaubst du Nvidia verbaut auf ne Karte die für FHD,WQHD gedacht ist , mal eben 12GB Vram ,damit sie genau so "phantastische" Margen fahren, wie AMD imo mit der 16 GB HBM Radeon7 :rollen:
 
Zuletzt bearbeitet:
Wurde eigentlich schon einmal darüber nachgedacht, neben den Min und Max FPS auch die VRAM Belegung in den Benchmarks anzugeben? Damit würde die VRAM Diskussion zumindestens auch auf Grundlage konkreter Daten geführt werden können. Ich persönlich wäre jedenfalls sehr an der max. VRAM Belegung in den Benchmarkszenen interessiert, da ich ansonsten nur anhand meiner eigenen kleinen Spielesammlung das Thema "wieviel VRAM braucht der Mensch" einschätzen kann.

Ich selber spiele in WQHD mit allen Reglern auf Anschlag und stelle fest, dass die meisten Spiele leider nicht einmal die Hälfte des 11GB VRAMs meiner 1080ti ausnutzen. Das max. was ich bisher gesehen habe waren rund 8,2 GB in Rise of the Tomb Raider und etwas über 9 GB in der Division 2 Open Beta. Ansonsten habe ich gerade noch mal kurz folgende Spiele getestet:

- Ghost Recon Wildlands: WQHD maxed out: 5581 MB. Mit 200% interner Auflösung: 7436 MB
- Assasin's Creed Origins: WQHD maxed out: 4284 MB. MIt 200% interner Auflösung: 7018 MB
- Shadow of the Tomb Raider WQHD maxed out: 5783 MB

Ich bin zwar auch enttäuscht, dass Nvidia meistens mit dem VRAM knausert (und 8GB auf der 2080 gehen mal gar nicht!!!), auf der anderen Seite finde ich die Frage nach dem Sinn von 8 oder mehr GB VRAM gerade auf kleinen mittelklassen Karten durchaus berechtigt. Fast alle normalen Zocker, deren Rechner ich betreue, spielen auf 24" Full HD mit Mittelklasse 4 Kern CPUs. Wenn die nicht die Regler eher in der Mitte positionieren, bekommen die eh keine vernüpftigen 60+ FPS auf den Bildschirm gezaubert. In diesem Szenario wurden bisher auch eher selten mal die 4GB VRAM der meisten Karten voll ausgenutzt. Die Frage, in wie weit man jetzt in diesem Durchschnittsanwenderfall die Grafik mit mehr als 6 GB VRAM bei einer relevant großen Anzahl von Spielen deutlich (also auch für Normalsterbliche und nicht nur für das geschulte Auge von PCGH Lesern sichtbar) verbessern könnte, fände ich schon spannend. Häufig stelle ich nämlich auch fest, dass die sterblichen PC Anwender den Unterschied zwischen Mittel und Hoch erst bemerken, wenn ich sie mit der Nase drauf stubse. Ich persönlich empfinde da den reinen DPI Unterschied zwischen 24" FHD und 27" WQHD schon als grausam und selbst die beste Textur auf nem FHD Monitor würde da wahrscheinlich auch nichts dran ändern.

Haben wir den hier tatsächlich ein Henne Ei Problem? Limitieren Entwickler den VRAM, weil die meisten Anwender nicht so viel davon haben? Oder spart Nvidia am VRAM, weil mehr bzgl. der GPU Leistung und der zu erwarteten Nutzungsdauer wirklich keinen entscheidenen Mehrwert für den Durchschnittsanwender bringen würden? Was sagen Spieleentwickler und Nvidia/AMD dazu. Wird evtl. die nächste Konsolengeneration das Thema VRAM pushen? Fände ich alles spannende Fragen für einen Artikel.

Edit: Ist es für Spieleentwickler eigentlich nicht möglich, bei Highend Usern den VRAM optional mit 11 GB vollzuknallen, ohne dabei die Mindestanforderung für den Durchschnittsanwender anzuheben?
 
Zuletzt bearbeitet:
Zurück