Nvidia Geforce RTX 2060: Gigabyte mit 39 verschiedenen Varianten

Erinnert sich noch jemand an die Geforce 8800 GTS/320? Oder, etwas jünger, die Geforce 8800 GT/256?

MfG,
Raff

Die GT/256 muss an mir vorbeigegangen sein, aber die GTS/320 kenne ich noch. Deren Speicherausstattung lag genau mittig zwischen der Spitze der Vorgängergeneration (heutiges Äquivalent: Zwischen 12 und 16 GiB) und bei der Hälfte des Spitzenmodells ihrer Generation (heutiges Äquivalent: Die Hälfte von 24 GiB). Zugegebenermaßen war die GTS/320 auch eine Stufe höher am Markt platziert als die 2060, aber die 8800GT hatte eben normalerweise auch 512 MiB. Das war die gleiche Ausstattung, die nur wenig mehr als zwei Jahre vorher mit der über-Karte 7800GTX/512 eingeführt worden war, deren heutiges Äquivalent die Titans wären. Letztere hatten zwei Jahre vor Erscheinen der RTX 2060 schon 12 GiB – und drei Jahre davor auch. Und wenn sich Nvidia nicht beeilt, fällt sogar noch die 48-Monatsmarke. 48 Monate bevor die 8800GT/512 die gehobene Mittelklasse übernahm, waren 256-MiB-Karten der letzte Schrei – für vergleichbare Zustände müsste Nvidia heute also die 2600/24G oder zumindest /12G bringen. Nicht /6G und schon gar nicht /3G. Selbst wenn man die Titans ausklammert, wäre die untere 2019er Mittelklasse damit nur auf dem Niveau der 2013er Oberklasse. Hätte die 8600GTS seinerzeit so einen 6-Jahres-Lag gehabt, wäre sie als /64M (statt /256 & /512) erschienen.
 
Die 8800 GT gab es mit 256, 512, 1.024 und sogar 2.048 MiByte – mit unveränderter Speicherschnittstelle (trotz des Namens ohne Einschnitte ;)). Die Varianten mit 256 und dem Beinahe-Zehnfachen waren aber seltene Spezialversionen einzelner Boardpartner. Früher war eben vieles anders. Vieles davon besser. Dass Nvidia rund 10 Jahre nach besagten Speicherkrüppeln neue bringt, überrascht mich. Ich dachte, man habe aus diesem Fehler gelernt. Okay, die GTX 1060/3G gibt's ja auch. Aber noch ist das letzte Wort nicht gesprochen. In dubio pro reo – möglicherweise ist das mit den Karten <6 GiB eine Ente. Quak.

Die gute alte acht achter. Muss man als Deutscher eigentlich gekauft haben
biggrin1.gif

Yep. Extrem gutes, konkurrenzloses Produkt. Und der Knaller: spottbillig im Vergleich zu modernen Technologiebonzenbomben!

MfG,
Raff
 
>Schaffe sieht wie üblich die Schuld bei AMD

Mal davon abgesehen, dass mangelnde Konkurrenz oft zur Gewinnmaximierung des Marktführers führt, schreibe ich wo, dass AMD schuld ist?

Erinnert sich noch jemand an die 7850 1GB?
Tolle Karte... es wird immer Karten geben wo die Speichermenge ordentlich reduziert wird.

Wen soll das jucken.
Damals wurde jedenfalls nicht so absurd gehated.
Kauft man dann halt einfach nicht.
 
Ich hab mal die 6950 mit 1Gb gekauft weil die minimal schneller war in den PCGH benches, war trotzdem ein Fehlkauf. Die 2GB Variante ist der nachher davon gelaufen.
 
Die Benches gab's von uns aber auf keinen Fall im Kontext "Ist schneller -> los, kaufen!", sondern mit der Anmerkung, dass das auf Kante genäht ist. :-)

MfG,
Raff
 
Die Benches gab's von uns aber auf keinen Fall im Kontext "Ist schneller -> los, kaufen!", sondern mit der Anmerkung, dass das auf Kante genäht ist. :-)

MfG,
Raff

Ja das wollt ich auch nicht damit andeuten, es war definitiv meine EIGENE FEHLENTSCHEIDUNG. Nie wieder zu wenig Speicher, soviel steht fest. Die 2GB Variante hätte locker noch 6-12 Monate länger Ihren Dienst getan und wäre auch im Wiederverkauf besser gewesen.
 
Die GT/256 muss an mir vorbeigegangen sein, aber die GTS/320 kenne ich noch. Deren Speicherausstattung lag genau mittig zwischen der Spitze der Vorgängergeneration (heutiges Äquivalent: Zwischen 12 und 16 GiB) und bei der Hälfte des Spitzenmodells ihrer Generation (heutiges Äquivalent: Die Hälfte von 24 GiB). Zugegebenermaßen war die GTS/320 auch eine Stufe höher am Markt platziert als die 2060, aber die 8800GT hatte eben normalerweise auch 512 MiB. Das war die gleiche Ausstattung, die nur wenig mehr als zwei Jahre vorher mit der über-Karte 7800GTX/512 eingeführt worden war, deren heutiges Äquivalent die Titans wären. Letztere hatten zwei Jahre vor Erscheinen der RTX 2060 schon 12 GiB – und drei Jahre davor auch. Und wenn sich Nvidia nicht beeilt, fällt sogar noch die 48-Monatsmarke. 48 Monate bevor die 8800GT/512 die gehobene Mittelklasse übernahm, waren 256-MiB-Karten der letzte Schrei – für vergleichbare Zustände müsste Nvidia heute also die 2600/24G oder zumindest /12G bringen. Nicht /6G und schon gar nicht /3G. Selbst wenn man die Titans ausklammert, wäre die untere 2019er Mittelklasse damit nur auf dem Niveau der 2013er Oberklasse. Hätte die 8600GTS seinerzeit so einen 6-Jahres-Lag gehabt, wäre sie als /64M (statt /256 & /512) erschienen.

Wie wärs wenn man nach Daten und Fakten geht. Sprich nach Auflösungen und wieviel Speicher ca. bei Auflösung XY HEUTE benötigt wird und nicht was die 2060 haben müsste wenn man den Speicher von 2013 "hochrechnet".
Aber ne das wär zu einfach. Man nimmt Daten aus der Vorgängerversion und orakelt irgendwelchen Unfug.
 
Wie wärs wenn man nach Daten und Fakten geht. Sprich nach Auflösungen und wieviel Speicher ca. bei Auflösung XY HEUTE benötigt wird und nicht was die 2060 haben müsste wenn man den Speicher von 2013 "hochrechnet".
Aber ne das wär zu einfach. Man nimmt Daten aus der Vorgängerversion und orakelt irgendwelchen Unfug.

Er hat doch einfach nur die 8,8er in einen zeitlichen Kontext gesetzt, was ist denn dein Problem?
 
Du bist ja schon ein Held einen als Witz zu verstehenen Beitrag aus einem anderen Thread hierher zu zerren um mich völlig off topic persönlich anzugreifen.

Wozu sollte in dem Rechner meiner Frau eine schnelle GPU verbaut sein, wenn sie diese für ihre Ansprüche gar nicht benötigt.

Seit wann braucht man für LoL eine High End GPU? Ironiedetektor kaputt?

Mit dem Bedarf deiner Frau kannst du aber auch nicht für eine 970 argumentieren.
Für LoL reicht eine iGPU vollkommen aus, ohne große Abstriche zu machen.

Also mal wieder am Ziel vorbei argumentiert.
 
Navi launcht nicht heute, sondern wohl Q3 2019.
Ja. Und? Nvidias Karten in dem Preis- und Leistungssegment werden wohl kaum Raytracing-Monster werden, mal ab davon, dass man die Spiele mit RT bis dahin wohl an einer Hand abzählen kann.

Und zur zweiten Aussage erwarte ich von einem Entwickler wie dir etwas mehr Expertise als den Propeller Blödsinn nachzuquatschen.
Und warum soll ich RT bzw. RTX jetzt in den Himmel loben? Es ist in meinen Augen derzeit blödsinnige Technik, die mangels Leistung kaum sinnvoll einsetzbar ist, absolut grauenhaft zu programmieren ist, Rendering von dynamischen Szenen/Objekten erschwert, und wieder Fixed Function-Hardware braucht, die nichts anderes kann als BVHs traversieren und damit in den meisten Anwendungen einfach nur Die-Fläche verschwendet.

AMD wird irgendwann nachziehen (müssen), haben sie ja bereits angekündigt, aber dadurch wird das ganze nicht besser.
 
Die 8800 GT gab es mit 256, 512, 1.024 und sogar 2.048 MiByte – mit unveränderter Speicherschnittstelle (trotz des Namens ohne Einschnitte ;)). Die Varianten mit 256 und dem Beinahe-Zehnfachen waren aber seltene Spezialversionen einzelner Boardpartner. Früher war eben vieles anders. Vieles davon besser. Dass Nvidia rund 10 Jahre nach besagten Speicherkrüppeln neue bringt, überrascht mich. Ich dachte, man habe aus diesem Fehler gelernt. Okay, die GTX 1060/3G gibt's ja auch. Aber noch ist das letzte Wort nicht gesprochen. In dubio pro reo – möglicherweise ist das mit den Karten <6 GiB eine Ente. Quak.



Yep. Extrem gutes, konkurrenzloses Produkt. Und der Knaller: spottbillig im Vergleich zu modernen Technologiebonzenbomben!

MfG,
Raff


8800GT/2G :-o
Da hätte ein SLI-Verbund ja mehr Speicher zur Verfügung gehabt als meine CPU.


Wie wärs wenn man nach Daten und Fakten geht. Sprich nach Auflösungen und wieviel Speicher ca. bei Auflösung XY HEUTE benötigt wird und nicht was die 2060 haben müsste wenn man den Speicher von 2013 "hochrechnet".
Aber ne das wär zu einfach. Man nimmt Daten aus der Vorgängerversion und orakelt irgendwelchen Unfug.

Wir predigen seit 2016, dass die GTX 1060 mit 6 GiB gerade ebenso angemessen bestückt ist und Raff macht es sich bei jeder neuen High-End-Speicherausstattung (zuletzt 16 GiB, 24 GiB ist nur eine Frage des Testmusters), diese in die Knie zu zwingen. Muss ich da wirklich aus dem Urlaub heraus vorab-Test vorlegen, ehe es akzeptiert wird dass anno 2019 3 GiB etwas wenig sein könnten?
 
Mit dem Bedarf deiner Frau kannst du aber auch nicht für eine 970 argumentieren... .

Also mal wieder am Ziel vorbei argumentiert.

Und du hast mal wieder den Zusammenhang und den abstrusen Vorwurf nicht gelesen oder verstanden. Ich habe nie behauptet man braucht eine 970 für lol, der Gedanke war dass man für LoL eben keine High End GPU benötigt du Held.

Warum ist das eigentlich so schwer einem roten Faden zu folgen.

Scheint mal wieder blinde Provokation zu sein.


Die zeitliche Komponente spielt bei Software immer eine große Rolle.

Und warum soll ich RT bzw. RTX jetzt in den Himmel loben?.

Muss ich wohl in meinem Beitrag noch nach der Forderung suchen.
Es ist in meinen Augen derzeit blödsinnige Technik, die mangels Leistung kaum sinnvoll einsetzbar ist.

Da hab ich eigentlich größtenteils was völlig anderes gelesen, aber gut, die Entwickler werden von der Lederjacke ja alle bezahlt, wissen wir ja...
Fixed Function-Hardware braucht, die nichts anderes kann als BVHs traversieren

Irgendwann werden flexibel programmierbare ALUs eben ineffizient, aber du kannst das ganze natürlich auch ohne RT Cores mit 1/5 der Leistung berechnen lassen.

Raytracing ist die Zukunft, da brauchen wir gar nicht diskutieren und AMDs Einstieg wird spätestens 2020 kommen.
 
Zuletzt bearbeitet:
Irgendwann werden flexibel programmierbare ALUs eben ineffizient, aber du kannst das ganze natürlich auch ohne RT Cores mit 1/5 der Leistung berechnen lassen.
Ja, weiß ich selber. Die Alternative ist nicht, RT auf den ALUs laufen zu lassen, sondern eher, auf RT zu verzichten.

Echtzeit-Raytracing ist seit mindestens 20 Jahren "die Zukunft", jetzt sind wir gerade an dem Punkt angelangt, an dem ein Spiel es hinbekommt, auf aktueller High End-Hardware ein paar Reflexionen mit (je nach Einstellung) 15-25% der Bildschirmauflösung, Denoiser, extrem aggressivem Culling und Fallback auf Screen Space Reflections zu berechnen. Und mehr auch nicht. Schatten sind nach wie vor rasterisiert, globale Beleuchtung wird auch nicht mit RT berechnet, und Refraktion und Transparenzeffekte existieren in aktuellen Spielen sowieso kaum.

Die nächste Konsolengeneration wird wohl auch ohne Realtime-RT auskommen müssen, insofern wird sich das wohl kaum in den nächsten 5-7 Jahren durchsetzen.
 
Und du hast mal wieder den Zusammenhang und den abstrusen Vorwurf nicht gelesen oder verstanden. Ich habe nie behauptet man braucht eine 970 für lol, der Gedanke war dass man für LoL eben keine High End GPU benötigt du Held.

Warum ist das eigentlich so schwer einem roten Faden zu folgen.

Scheint mal wieder blinde Provokation zu sein.

Sorry, aber deine Formulierungen - in dem zitierten Beitrag, und davor - zielten eindeutig drauf ab, die 970 als noch sehr gute Karte darzustellen, weil deine Frau beim Spielen in 1080p so gut wie keinerlei Einschränkungen hat.

Bei Lol ist das aber eben auch kein Wunder.
Da kannst du ihr auch eine GTX 710 einbauen.

Entsprechend ist dein Beispiel vollkommen ungeeignet, die aktuelle Tauglichkeit der 970 in irgendeiner Form darzustellen
 
Zurück