Nvidia Geforce RTX 2060: Reichen 6 Gigabyte noch aus?

So ein Käse. Ich kenne genug Leute, die noch mit einer 970 in FHD zufrieden sind und jemanden, der mit einer 980 Ti in WQHD zockt. Keinem sind bis jetzt die Augen rausgefallen. 8GB können sicher nicht schaden, aber man kann es tatsächlich überleben, wenn man die Texturen mal eine Stufe zurückstellt.
Klar, wenn man das schon hat ist es ok aber macht es wirklich Sinn bei einer Neuanschaffung generell und vor allem ab 350 € auf 6 GB Ram zu setzen, wenn es doch jetzt schon Szenarien gibt in dem solche GPUs an ihre Grenzen kommen? Ich meine nein, dass macht überhaupt keinen Sinn.^^

MfG
 
Zuletzt bearbeitet:
Es reichen 2GB VRAM, es genügen 4 oder 3.5+0.5 GB VRAM. Aber was hier unter den Tisch fällt, ist die Auslagerung. Diese kann bei einer 4GB-Karte bereits deutlich früher einsetzen und so die Frametimes verschlechtern. D.h., selbst wenn ein Spiel nur 3.6GB belebt, bedeutet das nicht, das es nicht von mehr Speicher profitieren wird. Daher geht nix über viel VRAM. Deshalb knausert hier NV zu stark und nicht erst seit heute.
Gruß T.
 
Was mir hier sauer aufstößt ist die Tatsache, dass ein professioneller Hardware-Redakteur den Preis herunterspielt...

oder um von andere Stelle der PCGH Webseite zu zitieren:
"Vergleichstest: Die richtige High-End Grafikkarte (ab 300 Euro)"
Quelle: http://www.pcgameshardware.de/Grafi...n-Test-Bestenliste-Radeon-und-Geforce-678322/

Bislang waren die Kategorien unter 200€, unter 300€ und ab 300€. Mal sehen, ob sch die Skala Nvidia unterwirft, oder AMD es untergräbt.


Zur Diskusison was man braucht: 320x240 und 32 Farben, nicht Bit, einzelne Farben.
 
Im Endeffekt kommt es sowieso nur auf den Endverbraucher an. Wenn jemand ganzen Tag nur Fortnite und Call of Duty spielt. dem reichen 6GB ohne Ende. Jemand der immer die großen Blockbuster games voll ausnutzen möchte der wird um 8GB nicht drum herum kommen. Mach wenig Sinn auszudiskutieren obs reicht oder nicht. Jemand der wenig Ansprüche hat dem reicht auch noch die nächsten Jahre eine 1060-1070. Wer große Ansprüche hat und dringend WQHD mit 144hz spielen muss. Der kauft sich halt eine 2080(ti).

Einer aus dem Familienkreis hat sogar bis vor zwei Jahren mit einer 9800GTX gespielt. Die hat glaub ich nur 1GB VRAM wenn überhaupt. Als ich gesehen habe das der Mass Effect Andromeda gerade so mit 25-30 FPS spielen konnte, hab ich dem gesagt, du brauchst eine neue GPU. Man bekommt ja Augenkrebs bei der Framerate und dem Geruckel. Er antwortete mir: Wozu? Läuft doch alles, habe sogar fast alles auf max Settings. Kann man doch spielen.

Dann hat der sich irgendwann mal eine 1070 ersteigert für 300 damals. Ich kann mit euch wetten, eine neue kommt erst, wenn es eine RTX 5070 gibt oder so :D
 
Ja mag sein aber so eine Karte ist sowieso nicht dafür gedacht die Nonplusultra Spiele auf dem Maximum zu genießen. Was meinst du wie viele Leute nur counter Strike spielen, overwatch und andere e Sport Spiele. Die brauchen alle nie und nimmer eine xx80 oder gar eine TI. Die werden sich alle eine 2060 kaufen sobald ihre den Geist aufgibt und die eine neue brauchen. Und das sind auch schon Millionen von Leuten. Allein wie viele Leute so spiele wie League of Legends und sonst was spielen. Die brauchen niemals mehr als 6gb. Da läuft alles mit 200 und mehr FPS.
 
So ein Käse. Ich kenne genug Leute, die noch mit einer 970 in FHD zufrieden sind und jemanden, der mit einer 980 Ti in WQHD zockt. Keinem sind bis jetzt die Augen rausgefallen. 8GB können sicher nicht schaden, aber man kann es tatsächlich überleben, wenn man die Texturen mal eine Stufe zurückstellt.

Du hast es genau auf den Punkt gebracht, "noch" sind genug (subjektiv) Leute mit weniger Vram zufrieden.

Die Ansprüche der Spiele selbst aber auch der Konsumenten steigen, da darf man sich nicht auf das hier und jetzt fixieren.

Zukunftsorientiert sind 4-6Gb Vram m.M.n. nicht und wenn man es in Erwägung zieht aufzurüsten machen 8Gb Vram einfach mehr Sinn.
 
Für CS:GO, DOTA2 und co kauft sich garantiert kein Durchschnittsgamer eine 350€ Grafikkarte!

Zukunftsorientiert sind 4-6Gb Vram m.M.n. nicht und wenn man es in Erwägung zieht aufzurüsten machen 8Gb Vram einfach mehr Sinn.

Absolut! Eine GTX 980 war auch in der Regel einer GTX 1060 leicht überlegen. Und schau dir an, wie die 1060 in manchen neueren Titeln mit der 980 den Boden aufwischt (z.B. Wolfenstein)... sicher nicht wegen mehr Rechenleistung, sondern eher weil der 980 der Vram ausgeht.


Grüße!
 
Klar, wenn man das schon hat ist es ok aber macht es wirklich Sinn bei einer Neuanschaffung generell und vor allem ab 350 € auf 6 GB Ram zu setzen, wenn es doch jetzt schon Szenarien gibt an dem solche GPUs an ihre Grenzen kommen? Ich meine nein, dass macht überhaupt keinen Sinn.^^

Wie gesagt, ich glaube, dass die 6GB bei der Leistung der GPU meistens ausreichen werden. Bei einer 1070 hätten aber 4GB nicht gereicht, deshalb waren es halt acht. 8GB passen aber nicht an das Interface der 2060.
 
komisch das meine 980ti mit 6Gb Vram immernoch die gut performt in 1440p. aber muss auch ehrlich sagen, ist da hbao und alles auf max dann läuft mir auch der speicher voll. aber nen paar klicks nach links, nich alles aber immerhin und die karte macht trotzdem ihre arbeit.
für fulldh sollte die 2060 immernoch reichen denk ich mal. wenn man die irgendwann für ca. 300€ kaufen kann is das doch ok.

wer 4k alles max spielt kauft sich eh keine 2060, deshlab find ich den test jetzt nich so den hit. wolfenstein in 4k zb. aber es gibt halt hier leute die erwarten das ne 350€ karte 4k auf max stemmt.....
 
Ich habe von der 980 auf die 1070 ge-"sidegraded", einfach weil die 4 GB VRAM nicht mehr ausreichend waren, selbst bei 1080p.

Gut, ich spiele auch gerne unpolierte non-"AAA"-Titel, aber matschige bzw. nachladende Texturen kann ich überhaupt nicht ab.
(Deswegen ist die 2080 aus meiner Sicht auch ein Witz vor dem Herrn, allein wegen der 8GB...)
 
Stell mir zwei Monitore hin einen mit 60Hz und einen mit 144Hz und ich kann dir genau sagen welcher der mit 144Hz ist, alleine schon im Office-Bereich. Bei Spielen merkt man es nochmal besonders, da kann ich mir 60 Frames echt nicht mehr antun. Aber ist doch schön wenn du zu blind bist um einen Unterschied zu merken, dann kannst dir das Geld schonmal sparen!

Beeindruckend wie es die Industrie immer wieder schafft, Bedürfnisse zu schaffen, die als Argument für den Kauf ihrer Produkte gelten. Leute die selbst im Office Bereich einen 144Hz Monitor von einem 60Hz unterscheiden können... ich kipp gleich lachend vom Stuhl... nicht das mein Excel in einer 60fps Diashow ausgebremst wird :ugly: Man kann sich wirklich schon ein paar echt sinnlose Bedürfnisse durch die Industrie anerziehen lassen … Aber dann noch zu behaupten, dass der andere welche diese Bedürfnisse nicht hat zu beschränkt ist, ist schon echt lächerlich :lol:

Ich bin eher der Meinung, dass man Lebenszeit verschwendet wenn man die ganze Zeit auf diesen Schirm guckt. ;)

Vg Ben
 
komisch das meine 980ti mit 6Gb Vram immernoch die gut performt in 1440p. aber muss auch ehrlich sagen, ist da hbao und alles auf max dann läuft mir auch der speicher voll. aber nen paar klicks nach links, nich alles aber immerhin und die karte macht trotzdem ihre arbeit.
für fulldh sollte die 2060 immernoch reichen denk ich mal. wenn man die irgendwann für ca. 300€ kaufen kann is das doch ok.

wer 4k alles max spielt kauft sich eh keine 2060, deshlab find ich den test jetzt nich so den hit. wolfenstein in 4k zb. aber es gibt halt hier leute die erwarten das ne 350€ karte 4k auf max stemmt.....

Ja bei der GPU steht auch schon ein paar Jahre auf der Uhr...dass sie genug Leistung hat, ist klar. Aber bei einer Neuanschaffung in 2019 müsste ich mir dann schon Gedanken machen dass ich Details runterschraube. Lass nur mal das neue Metro rauskommen oder oder oder....alles Grafikkracher in naher Zukunft.

Und wie du im Video siehst ist die Rohleistung einer GTX1070 geringer als die der RTX2060 und die 1070 läuft aber angenehm spielbar in dem Setting. Wo ist da der Vorteil nun von der 2060? Ich kauf mir doch keine 370+€ Karte damit ich gezwungen bin auf FHD zu spielen! Dann kann ich mir gleich das Geld (180€ ca.) sparen, eine RX580 8GB kaufen und habe auch bei FHD den selben Spaß - nur mit vollen Texturdetails! :lol:

Jede GPU im 350-400€ Segment bieten 8GB mit ausreichend guter Leistung für WQHD - nur eben die RTX2060 nicht.
 
Zuletzt bearbeitet:
Beeindruckend wie es die Industrie immer wieder schafft, Bedürfnisse zu schaffen, die als Argument für den Kauf ihrer Produkte gelten. Leute die selbst im Office Bereich einen 144Hz Monitor von einem 60Hz unterscheiden können... ich kipp gleich lachend vom Stuhl... nicht das mein Excel in einer 60fps Diashow ausgebremst wird :ugly: Man kann sich wirklich schon ein paar echt sinnlose Bedürfnisse durch die Industrie anerziehen lassen … Aber dann noch zu behaupten, dass der andere welche diese Bedürfnisse nicht hat zu beschränkt ist, ist schon echt lächerlich :lol:

Ich bin eher der Meinung, dass man Lebenszeit verschwendet wenn man die ganze Zeit auf diesen Schirm guckt. ;)

Vg Ben

Ich würde mich nie soweit aus dem Fenster lehnen und sagen, dass Leute die nicht mehr als 60Hz benötigen gleich beschränkt wären.

Aber wer den Unterschied zwischen 60 und 144Hz nicht wahrnimmt, der muss auf jeden Fall ziemlich träge Augen haben. Und wenn man sich an die Flüssigen Bewegungen gewöhnt hat, fällt einem das auch beim Browsen, hin- und herschieben von Fenstern und sogar beim Bewegen des Mauszeigers sofort auf, wenn man von 144Hz auf 60Hz zurück geht. Wollte es auch nicht wahrhaben.... jetzt schreibe ich diese Zeilen von einem 144Hz Monitor. Übrigens keinem mit verwaschenen Farben oder miesem Betrachtungswinkel, wie hier schon geschrieben wurde, sondern von einem sehr ordentlichen IPS Panel :daumen:.


Grüße!
 
Wenn ich das richtig verstehe, sollte man sich also einen 144Hz Monitor kaufen damit der Mauszeiger noch "weicher" dargestellt wird :wow: Andernfalls habe ich träge Augen :what: Hmm … nee tut mir leid. Also beim Zocken finde ich einen 144Hz Monitor sehr schick aber um E-Mails zu lesen mein CAD Programm zu bedienen oder im Browser rum zu Browsern, brauche ich das echt nicht.

Es kommt mir manchmal so vor, als würde sich bewusst schlecht über Sachen geäußert, um die eigenen Investitionen ein Stück weit zu Rechtfertigen. Ich sage nicht das es hier konkret der Fall ist, aber es schwingt oft unterschwellig mit.

"Mein Haus, mein Auto, mein Boot", Ab einem gewissen Maß sind das für mich einfach anerzogene Bedürfnisse, die man vielleicht gar nicht selber entwickelt hätte ;)

So nun genug von meiner Seite mit dem OT ;)
vg Ben
 
Wenn ich das richtig verstehe, sollte man sich also einen 144Hz Monitor kaufen damit der Mauszeiger noch "weicher" dargestellt wird :wow: Andernfalls habe ich träge Augen :what: Hmm … nee tut mir leid. Also beim Zocken finde ich einen 144Hz Monitor sehr schick aber um E-Mails zu lesen mein CAD Programm zu bedienen oder im Browser rum zu Browsern, brauche ich das echt nicht.

Es kommt mir manchmal so vor, als würde sich bewusst schlecht über Sachen geäußert, um die eigenen Investitionen ein Stück weit zu Rechtfertigen. Ich sage nicht das es hier konkret der Fall ist, aber es schwingt oft unterschwellig mit.

"Mein Haus, mein Auto, mein Boot", Ab einem gewissen Maß sind das für mich einfach anerzogene Bedürfnisse, die man vielleicht gar nicht selber entwickelt hätte ;)

So nun genug von meiner Seite mit dem OT ;)
vg Ben

Dreh mir doch nicht das Wort im Mund rum!

Du siehst selbst den Unterschied zwischen 60Hz und 144Hz? Gut, dann kannst du vielleicht nachvollziehen, dass sich manche Leute sowas zum Zocken anschaffen.

Da ich keine Lust habe jedes Mal nach dem Zocken den Monitor von 144Hz auf 60Hz umzuschalten, sind meine Augen leider auch auf dem Desktop den 144Hz ausgesetzt.

Wenn man sich dran gewöhnt hat, fällt einem der Unterschied sofort auf, wenn man wieder an einem 60Hz Display arbeitet. Nicht mehr und nicht weniger habe ich in meinem letzten Posting geschrieben. Das war kein Angriff, keine Rechtfertigung und kein Aufruf zum Kaufen dabei, oder?

Grüße!
 
Habe ich doch auch nicht geschrieben ;-)

"...Ich sage nicht das es hier konkret der Fall ist, aber es schwingt oft unterschwellig mit..."

Also immer mit der Ruhe :-) Ich sitze z.B. auf Arbeit vor 3 Stk. 60Hz und brauche hier im Office tatsächlich nix anderes. Wenn man sich zum Zocken eh einen Monitor kauft, macht es natürlich keinen Sinn den Schirm auf 60Hz zu reduzieren. Das meinte ich auch nicht. Es ging mir eher um die Aussage, dass für manche hier auch im Office Bereich die 60Hz schier unerträglich zu sein scheinen ;-) (überspitzt gesagt).

vg Ben
 
Zurück