Nvidia Geforce RTX 2060: Reichen 6 Gigabyte noch aus?

Ich glaube das tatsächliche Problem ist, dass es hier Menschen gibt, die den Mehrwert in einer Sache sehen können, der für andere nicht nachvollziehbar ist. Mann kann diesen "Mehrwert" aber niemandem klar machen sondern nur für sich selber feststellen. Von daher bringt das gezanke nix. Für mich war es eben sehr schwer nach zu vollziehen, dass man in Officebereich einen Mehrwert von 140Hz Bildschirmen haben soll. Aber gut ich kenne es wirklich nicht anders. Ich möchte wie gesagt nur nicht als blind oder jmd. mit trägen Augen bezeichnet werden, weil ich den Mehrwert nicht erkennen (mir vorstellen) kann. Thats all ;-)

vg Ben

Naja, wenn du den Unterschied noch nicht gesehen hast, dann kannst du dir natürlich auch kein Urteil darüber bilden. Und ich kann mir selbstredend kein Urteil darüber bilden, ob du träge Augen hast ;)

Leuten, die "von Anfang an" nur 60Hz (TFT-)Displays kennen, denen hat sicher nie etwas gefehlt. Aber Leuten, die damals schon mit 100(+)Hz Röhren gespielt haben und dann auf ein 60Hz LCD umgestiegen sind, denen hat sicher immer was gefehlt... und wenn es nur unbewusst war.

Natürlich habe ich erst mal keinen Bedarf nach mehr Hertz, wenn ich mit meiner aktuellen Situation zufrieden bin und nichts anderes kenne - war ich auch jahrelang mit meinem 21" 60Hz Monitor. Aber warum sollte man die Möglichkeiten nicht nutzen, die wir heute haben? Ist es wirklich nur Geldmacherei, wenn jemand einen deutlichen Mehrwert darin sieht? Dann bräuchten wir ja keinen Fortschritt mehr und könnten die Entwicklung einstellen - sind ja zufrieden mit dem, was wir haben.



@wuchzael: Wenn ich niemanden einen Idioten genannt habe, du es aber so verstanden hast, woher kommt das denn dann, wenn nicht aus deinem Verständnis/Gehirn/Herz/Bauch/keine Ahnung ... quote mich dann doch bitte. machs niet- und nagelfest, dass ich irgendwen als sowas beleidigt habe. und wenn du das nicht kannst, erklär mal wie du darauf gekommen bist. maaaan ey ....
und jetzt lass den Schwund, das ist OT

Nein, ich wühle deine größtenteils toxischen Beiträge jetzt nicht alle durch. Ist schon schlimm genug, dass ich immer wieder von deinen provokanten Beiträgen geködert werde, obwohl du eigentlich auf meiner Ignorelist stehst. Klammerst dich jetzt wieder an der einen Sache fest, dass du von den anderen gebrachten Tatsachen ablenken kannst. Hab ich keinen Bock mehr drauf, dazu ist mir meine Zeit zu schade.


Grüße!
 
Noch mögen 6GB Vram in FHD ausreichen. Aber ich schätze in 2 Jahren sind schon 8GB VRam in Games Mindestanforderung.

Naja, Mindestanforderung... BFV hat als Mindestanforderung 2GB VRAM. Viele Spiele skalieren relativ weit nach unten. Gibt auch noch genug Spiele die kaum mehr als 2GB nutzen. Ich müsste mal einen Test machen, wie weit man bei aktuellen Spielen mit den Texturen runter kann, bevor man Augenkrebs kriegt und wie sich das auf den Speicherbedarf auswirkt.
 
Ist doch ok, wenn einem 60Hz reichen, nem anderen 120Hz, oder 6GB oder 12GB oder oder oder wie auch immer.
aber es ist nicht ok, andere wegen sowas abwertend abzutun. und dann ist es auch voll ok, wenn sich diese anderen das nicht gefallen lassen. das gilt für alle.
 
Eine hervorragende Karte, die 6GB werden noch lange fuer Full HD ausreichend sein.
Und ausreichend ist auch das Stichwort denn mehr als ausreichend sind 6GB nicht.

Schulnote fuer den Rest der Karte eine klare 1, fuer den RAM eher 3 bis 4.
 
Nein. eben darum hab ich sowas auch nicht geschrieben ;)
Du hast PCGHs Fazit für die Masse gins Spiel gebracht.

Ich habe CB Fazit mit der Masse ins Spiel gebracht, von einem Test vor 2 Jahren. Sag mal hast du gleichen Wahrnehmungsprobleme wie Schaffe?

Noch mal meine Frage: "Was hat die VRAM-Menge mit der Framerate zu tun?"

Da hast du nämlich einige Post vorher totalen Mumpitz geschrieben. Falls ich dich auf was hinweisen darf, überall wo du postest werden Gesprächspartner unterschwellig angemacht und kippt die Stimmumg mit deiner Offtopicpost ziemlich schnell auf "hau drauf" um.

Technisch kommt von dir gleich null, kenne ich irgendwo her.

Könntet Ihr (Du und Schaffe) euer billiges Marketing lassen, die Accounts auf PCGH dürfen wie in allen anderen Foren nicht für gewerbliche oder geschäftliche Zwecke missbraucht werden oder sonst melde dich beim Webmaster wenn du das willst und hol dir eine Erlaubnis dafür ein.

Nun auf einmal ist Geiz geil, wenn es um zu wenig VRAM geht. Irgendwo müsstest ihr mal einen vertretbaren Standpunkt finden und nicht wie eine Katze um den heißen Brei eiern und wie es gerade zu der Hardware passt.

Ehrlich, ich kann mir nicht vorstellen das gleich zwei Redaktioenn und deren Reviewer Unrecht haben, wenn sie prognostizieren das 6 GiB VRAM zu wenig sind (schon vor 2 Jahren). Es wäre ja möglich gewesen auch 7 zu verbauen oder 8GiB langsamer getakteten VRAM. Das kommt bei nVidia aber nicht in Frage, weil man dann weniger melken kann und nichts weiter wollt ihr mit euren Offtopicgeeier kaschieren.

Die 2060 ist eine 1080p Karte die sich nicht für Full-Preset 1080p eignet, dann gehen wir wieder auf 900p (mit DLSS ja kein Problem) und bomben den Rest der Community ins Jahr 1995 zurück. Macht doch nix, Hauptsache grün macht glücklich und wird gekauft! Das ist so billig und durchschaubar.

Alle anderen schütteln mit dem Kopf, zurecht! Weil nVidia unbelehr ist und schon bei der 1060 muniert wurde, dass sie zu wenig VRAM hat. Euch ist gar nicht klar woher die Spikes dann kommen und langweile mich bitte nicht mit deiner Hardware anno dunnumal, dass interessiert hier keinen Menschen.

Für 369$ wären die 2GiB VRAM mehr auch drinne gewesen, oder 7 bei einem aktiven MC mehr. Das wäre zumindest ein Fortschritt gewesen. Bei der RTX 2050 kommt nVidia dann mit 18RT Cores und 4GiB VRAM, einfach lächerlich - bestimmt für 300$ weil man RTX quersubvensionieren muss.
 
Zuletzt bearbeitet:


Ist es wirklich nur Geldmacherei, wenn jemand einen deutlichen Mehrwert darin sieht? Dann bräuchten wir ja keinen Fortschritt mehr und könnten die Entwicklung einstellen - sind ja zufrieden mit dem, was wir haben...


Grüße!

Für mich in vielen Bereichen JA. Die Industrie sucht doch händeringend nach neuen Bedürfnissen die sie bei Menschen mit Geld stillen kann. Wenn diese Menschen zufrieden wären, wäre das eine Katastrophe. Es ist dabei vollkommen egal ob es Sinn mach, nützlich ist, oder einen voran bringt, Hauptsache ist man kann es verkaufen ;)

Sieht man doch auch im Smartphone Sektor … es wird immer absurder wir klein die Unterschiede sind und wie drastisch das Bedürfnis nach dem neuen vermeintlich besseren. Worin unterschied sich gleich das Samsung S8 vom S9 :huh:

Vielleicht hat die RTX 2060 ganz bewusst nur 6GB Ram damit der Kunde in 2 Jahren was neues braucht (oder zumindest wird ihm das suggeriert) Es Wäre doch fatal wenn es eine Grafikkarte geben würde die man Problemlos 10 Jahre benutzen kann und wirklich Freude damit hat. Die Hardwarehersteller würden sich doch ihr eigenes Grab schaufeln. Ich bin der Meinung heutzutage ist es nicht mehr wichtig sinnvolle Entwicklungen zu machen, sondern Bedürfnisse erfinden zu können, und den Menschen klar zu machen, dass sie diese jetzt haben und befriedigen müssen.

Vg Ben
 
Für mich in vielen Bereichen JA. Die Industrie sucht doch händeringend nach neuen Bedürfnissen die sie bei Menschen mit Geld stillen kann. Wenn diese Menschen zufrieden wären, wäre das eine Katastrophe. Es ist dabei vollkommen egal ob es Sinn mach, nützlich ist, oder einen voran bringt, Hauptsache ist man kann es verkaufen ;)

Sieht man doch auch im Smartphone Sektor … es wird immer absurder wir klein die Unterschiede sind und wie drastisch das Bedürfnis nach dem neuen vermeintlich besseren. Worin unterschied sich gleich das Samsung S8 vom S9 :huh:

Vielleicht hat die RTX 2060 ganz bewusst nur 6GB Ram damit der Kunde in 2 Jahren was neues braucht (oder zumindest wird ihm das suggeriert) Es Wäre doch fatal wenn es eine Grafikkarte geben würde die man Problemlos 10 Jahre benutzen kann und wirklich Freude damit hat. Die Hardwarehersteller würden sich doch ihr eigenes Grab schaufeln. Ich bin der Meinung heutzutage ist es nicht mehr wichtig sinnvolle Entwicklungen zu machen, sondern Bedürfnisse erfinden zu können, und den Menschen klar zu machen, dass sie diese jetzt haben und befriedigen müssen.

Vg Ben

Da bin ich in vielen Bereichen absolut bei dir. Aber alles über einen Kamm zu scheren und zu pauschalisieren, finde ich etwas unfair. Es gibt mit Sicherheit "erfundene Bedürfnisse", aber so funktioniert die Wirtschaft halt. Und solange jemand einen Mehrwert darin sieht, hat die Wirtschaft ja auch irgendwie etwas richtig gemacht. Für 1080p/60 braucht es ja auch keine RTX 2060... eine 1050ti oder eine RX 570 reichen auch und die kosten kaum mehr als ein Drittel davon :ka: Viele Leute schauen sich 144Hz an, beschäftigen sich eine Weile damit und befinden es DANN als unnütz. Ob das dann an den Augen liegt oder sonst was ist völlig irrelevant - wer's nicht braucht, der braucht es nicht. Akzeptiere ich zu 100%. Aber mich jetzt zu verurteilen, weil ich darin einen Mehrwert sehe wäre genau dasselbe als würde ich Leuten die es nicht für nötig halte eine Beeinträchtigung unterstellen. Wie gesagt, GRUNDSÄTZLICH hast du meiner Meinung nach absolut Recht, aber aus diesem konkreten Beispiel direkt daraus zu schließen, dass man sich generell alle "erfundenen Bedürfnisse" von der Industrie aufschwatzen lässt, geht irgendwie einen Schritt zu weit.


Grüße!
 
Wäre es, aber dann hätte es wieder einen Shitstorm wegen Speicherfragmentierung gegeben. Nächste sinnvolle Station: 12GB.
Nein, weil 7x32=224 und 6x32=192 ist. An den MCs hängt jeweils ein IC mit 1GiB GDDR6.

Man hätte neben der Beschneidung bei den MCs und dem L2 Cache auch einfach nur einen der beiden Controller "cut'ten" können (ist ja ein vollwertiger 106), dann eben mit etwas weniger Speichertakt bei größerem SI und auf die selbe Bandbreite kommend. nVidia ist so flexibel und es wäre technisch möglich, bei der ti mit 11GiB geht es ja auch.
 
Wie gesagt, GRUNDSÄTZLICH hast du meiner Meinung nach absolut Recht, aber aus diesem konkreten Beispiel direkt daraus zu schließen, dass man sich generell alle "erfundenen Bedürfnisse" von der Industrie aufschwatzen lässt, geht irgendwie einen Schritt zu weit.


Grüße!

Ich meinte auch nicht in allen Bereichen. Steht auch nicht da ;) Im Bereich 144Hz Bildschirm für Office-Anwendungen ist das für MICH so.
 
Man hätte neben der Beschneidung bei den MCs und dem L2 Cache auch einfach nur einen der beiden Controller "cut'ten" können (ist ja ein vollwertiger 106), dann eben mit etwas weniger Speichertakt bei größerem SI und auf die selbe Bandbreite kommend. nVidia ist so flexibel und es wäre technisch möglich, bei der ti mit 11GiB geht es ja auch.

Na gut, ich bin jetzt halt mal von der GPU der 2060 ausgegangen, wie sie eben halt verkauft wird und das ist eben mit 6 MCs. Die werden ja nicht zum Spaß gecuttet, sondern um die Ausbeute zu erhöhen.
 
jeder muss von irgendwas leben.
Ärzte zB, Pharmazeutische Unternehmen. denen liegt nicht unbeding etwas daran wirklich zu heilen. wovon sollen die dann noch leben?
es werden Bedürfnisse geschaffen, clever, geschickt, psychologisch so ausgefeilt, dass mans studieren muss, um dem nicht aufn Leim zu gehen. dazu gehört auch die Angst nicht mithalten zu können, nicht mitreden zu können, mit der Folge sozialer Ausgrenzung, weil man zB kein whatsapp hat, etc. ...
guckt in die Schulen, wo Kinder wegen Turnschuhen gemobbt werden.
oder hier, wo man geringe Sehstärke vorgeworfen bekommt, weil man nicht jedem Trend hinterherhechelt und auch noch die Frechheit besitzt dazu zu stehen.

wir in der ersten Welt, was brauchen wir noch dringend? wir nagen nicht am Hungertuch wie die 3. Welt. wir haben medizinische Versorgung, Strom, Unterhaltung, Zerstreuung, Luxusgüter, etc. es mangelt uns an gar nichts. wir sind übersättigt. wir sind so übersättigt, dass Adipositas ernsthafte Ausmaße annimmt. wir brauchen keinen Fortschritt wie gesyncte 144Hz 4k. niemand stirbt, wenn er das nicht hat. niemand leidet. wir sind dermaßen maßlos übersättigt, dass wir uns dekadent wegen Unnötigkeiten an den Kragen gehen.
 
Zuletzt bearbeitet:
Na gut, ich bin jetzt halt mal von der GPU der 2060 ausgegangen, wie sie eben halt verkauft wird und das ist eben mit 6 MCs. Die werden ja nicht zum Spaß gecuttet, sondern um die Ausbeute zu erhöhen.
Das wissen wir nicht, sie verwenden derzeit aber das teurere Platinenlayout (PG160 der 2070). AMD machte ähnliches.

Ums vielleicht mal zu erklären, die Höhe der Framerate hängt nicht von der Größe des VRAM ab, sondern von der "Busbandbreite". Sie kann trotz 4096bit nicht unendlich sein, wird bei 192bit aber merklich gedroopt wenn es zu einem VRAM Limit kommt, weil man einfach nicht genug Geometrie- und Texturdaten im VRAM für das jeweilige oder nächste Frame vorhalten kann, trotz aktiver Kompression oder Texturatlanten. Die GPU könnte deutlich mehr.

224 oder 256bit bei GDDR5 oder 5X hätten der Karte klar zu mehr verholfen. NVidia limitiert sie so, was einfach schade ist.
 
Zuletzt bearbeitet:
jeder muss von irgendwas leben.
Ärzte zB, Pharmazeutische Unternehmen. denen liegt nicht unbeding etwas daran wirklich zu heilen. wovon sollen die dann noch leben?
es werden Bedürfnisse geschaffen, clever, geschickt, psychologisch so ausgefeilt, dass mans studieren muss, um dem nicht aufn Leim zu gehen. dazu gehört auch die Angst nicht mithalten zu können, nicht mitreden zu können, mit der Folge sozialer Ausgrenzung, weil man zB kein whatsapp hat, etc. ...
guckt in die Schulen, wo Kinder wegen Turnschuhen gemobbt werden.
oder hier, wo man geringe Sehstärke vorgeworfen bekommt, weil man nicht jedem Trend hinterherhechelt und auch noch die Frechheit besitzt dazu zu stehen.

wir in der ersten Welt, was brauchen wir noch dringend? wir nagen nicht am Hungertuch wie die 3. Welt. wir haben medizinische Versorgung, Strom, Unterhaltung, Zerstreuung, Luxusgüter, etc. es mangelt uns an gar nichts. wir sind übersättigt. wir sind so übersättigt, dass Adipositas ernsthafte Ausmaße annimmt. wir brauchen keinen Fortschritt wie gesyncte 144Hz 4k. niemand stirbt, wenn er das nicht hat. niemand leidet. wir sind dermaßen maßlos übersättigt, dass wir uns dekadent wegen Unnötigkeiten an den Kragen gehen.

Gehört hier nicht her aber recht hast du damit trotzdem.
 
Bruderbethor spricht mir absolut aus der Seele. Nvidia und AMD sind Wirtschaftsunternehmen und wir alle potentielle Käufer, die einzig und allein Profit bringen sollen. Ich vermute sogar, dass sich Vertreter aus beiden Unternehmen (es gibt ja nur zwei) nett zum Kaffee verabreden und miteinander plaudern. Alle anderen Konkurrenten wie ATI, Matrox, ELSA etc. sind ja alle nicht mehr existent. Wahrscheinlich haben sie jeweils auch Interesse daran, dass der Andere weiter besteht - Stichwort Sanktionen bei Monopolbildung. Und so werden weiter Bedürfnisse geweckt, die vorher gar nicht da waren - PCGH ist da ein super Beispiel dafür Stimmungsmache zu schüren, die sich hier im Forum in vulgärer Art bei teilweise miesester Rechtschreibung und Grammatik manifestiert. AMD gegen Nvidia Fans - hallo Ihr Hooligans - wann kommt denn neben der verbalen die physische Auseinandersetzung. Nützen tut es nur den Aktionären. Übrigens mein Sohn hat eine 1060 und sich bis jetzt noch nicht beschwert. Da die neue 2060 auch "nur" 6GB hat, veraltet diese auch nicht so schnell. In diesem Zusammenhang schaut mal unter Obsoleszenz nach. Übrigens habe ich herausgefunden, dass sowohl AMD als auch Nvidia Grafikarten sich nicht nur übertakten lassen und somit 2-3fps mehr drin sind, nein wenn man einen Geldschein direkt unter der Karte anzündet, dann brennt die Hütte.
 
Das wissen wir nicht, sie verwenden derzeit aber das teurere Platinenlayout (PG160 der 2070). AMD machte ähnliches.

Ich glaube nicht, dass es teurer ist das 2070er PCB zu verwenden als extra ein neues zu entwerfen und zu produzieren.

Ums vielleicht mal zu erklären, die Höhe der Framerate hängt nicht von der Größe des VRAM ab, sondern von der "Busbandbreite". Sie kann trotz 4096bit nicht unendlich sein, wird bei 192bit aber merklich gedroopt wenn es zu einem VRAM Limit kommt, weil man einfach nicht genug Geometrie- und Texturdaten im VRAM für das jeweilige oder nächste Frame vorhalten kann, trotz aktiver Kompression oder Texturatlanten. Die GPU könnte deutlich mehr.

224 oder 256bit bei GDDR5 oder 5X hätten der Karte klar zu mehr verholfen. NVidia limitiert sie so, was einfach schade ist.

Wenn es zu einem Stocken wegen zu wenig VRAM kommt, liegt das an der PCIe-Bandbreite, da ist egal, wie der VRAM an die GPU angebunden ist. Wie viel mehr eine GPU kann, wenn man die Bandbreite erhöht wird regelmäßig mit RAM-OC getestet. Öfter als nicht ist die Anbindung an den VRAM adäquat. Letzte Ausnahme, die mir einfällt wäre die R9 285, wo AMD versucht hat mit Texturkompression eine Beschneidung der Bandbreite um ein Drittel zu kompensieren und mit einer höheren Gesamtperformance rauszukommen als bei der besser angebundenen 280/X.
 
Warum wird hier eigentlich bei solch einem trivialem Sachverhalt so viel rumdiskutiert?
Der große Speicherhunger von Wolfenstein 2 soll die Zukunftssicherheit von Grafikkarten auf die Probe stellen - die RTX 2060 ist in dieser Disziplin nicht besonders gut aufgestellt.
PCGH Fazit

Es ist doch eindeutig, wer zu viel Geld hat und nicht zukunftsorientiert kauft, der kann getrost zur 2060 greifen und alle anderen dan zu 8GB+ Karten. :daumen:

MfG
 
Zuletzt bearbeitet:
Wenn es zu einem Stocken wegen zu wenig VRAM kommt, liegt das an der PCIe-Bandbreite, da ist egal, wie der VRAM an die GPU angebunden ist. .
Leider nicht und auch OC bringt nicht viel, denn wenn die Bandbreite fehlt kann eben nur mehr VRAM helfen, den man hätte klar mit 224-256bit anbinden kann (7x32=7GiB; 8x32=8GiB). Man kann einfach mehr Daten direkt im VRAM vorhalten und muss sie nicht über das PCIe Interface laden. Der schnellste Speichertyp auf dem PC bleibt der VRAM.

Es gibt noch das PG161 was im Gegensatz zum PG160 ein 6 Layer PCB ist und deutlich kostengünstiger. Ich vermute, dass es sich bei der FE um normale 2070 Karten handelt die mit zwei IC weniger bestückt und ausgeliefert werden. Der Rest ist wie beim A versus non A Bios gelöst. Nicht wiederbeschreibare ROMs.

Eine klare Kastration, daher ist auch der Preis verhältnismäßig hoch. Womöglich kommen die Partner mit dem 6 Layer PCB und der Preis kann fallen. Besser macht es die Karte wegen fehlendem VRAM trotzdem nicht. Vom Preis her aber attraktiver.
 
Zuletzt bearbeitet:
Zurück