Das hängt natürlich ganz von den individuellen Ansprüchen ab. Generell geht die Tendenz aber zu einem gerinem Fortschrittstempo. Bis 2008 hat sich die Leistung jährlich verdoppelt. Nach 3 Jahren gab es auf dem Markt also eine Karte, die 8 mal so Leistungsfähig war und auf der alten Gurke lief fast nichts mehr.
Das hat sich geändert. Eine RTX 3090 ist nur etwas mehr als doppelt so schnell, wie eine GTX 1080Ti und hat auch nur etwas mehr als doppelt soviel VRAM. Zum Vergleich: zwischen der GeForce 4 hat sich der VRAM um den Faktor 6 gesteigert und die Leistung irgendwo um das 20fache.
Mit einer GTX 1080Ti läuft heute noch alles sehr gut, auf einer GeForce4 bekam man im Jahr 2006 meist nichtmal das Optionsmenü zu sehen.
Zwar wird mit der kommenden Generation eine ordentliche Leistungssteigerung erwartet, aber ewig wird man da nicht immer noch mehr Energie reinbuttern können. Von daher erwarte ich, dass man mit einer 4090 eventuell 10 Jahre auskommen kann, wenn man die Ansprüche entsprechend zurückfährt.
Beim VRAM, Treibern und den Effekten ist das eben eine andere Sache. Die machen entweder nur wenig aus oder es gibt einen gigantischen Unterschied. Die Besitzer der Fury X können da ein Lied singen. Auch gibt es einige Spiele, die meine GTX 670 nicht darstellen kann, da sie doch nicht ganz so DX 12 fähig ist, die HD 7870 bekommt sie aber zumindest zum laufen.
Auch das ist nicht so. Zum einen brauchen die Entwickler Zeit, bis sie die Konsolen voll im Griff haben. Man Vergleiche die Spiele am Anfang einer Generation mit denen zum Ende. Zum anderen gibt es am PC einfach viele Dinge, die an zusätzlich nutzen kann. FC 6 hat z.B. ein Texturpaket, das 12GB VRAM benötigt, um gut zu laufen. Das ist alleine mehr als die Series S, die ganzen X-Box One oder PS4 (Pro) haben. Auch ansonsten gibt es viele Zusatzdetails, die es auf den Konsolen nicht gibt. Gutes Beispiel ist Red Dead Redemption 2, von dem viele sagen, es würde angeblich besser aussehen, als alles auf dem PC. Was ist passiert als der PC Port kam? Die Grafik der Konsolen lag unter den niedrigen Einstellungen.
Mir ist kein Fall bekannt, bei dem es einen großen Sprung in die eine oder andere Richtung gab. Weder haben die Konsolen den PC groß gebremst (schlechte Konsolenports ausgenommen) noch gab es auf einmal einen Sprung zu höheren Details und Hardwareanforderungen.
Selbst eine bessere Unterstützung von Mehrkern CPUs durch die PS3 und 4 sowie die X-Boxen One und 360 ist ausgeblieben, das war eine kontinuierliche Verbesserung.
Damit hat man in der Vergangenheit sehr oft ins Klo gegriffen.
Wer sowieso weiß, dass er sich in zwei oder allerspätestens 4 Jahren eine neue Karte kaufen wird, der kann das so handhaben. Wer seine Karte gerne länger nutzt, der sollte sich nicht wundern, wenn er etwas blöd dasteht, die Fury X und andere Karten lassen grüßen.
Das kann man noch nicht wirklich auflösen
Man muß berücksichtigen, dass diese PC Weisheiten oft aus einer völlig anderen Zeit stammen. Zu Zeiten der GeForce 4 hat das absolut zugetroffen, da das Ding morgen so oder so eine Gurke war, die ausgewechselt werden mußte. Seit der GeForce 600 hat sich das aber geändert. Heute sollte man Dinge wie VRAM, Treiberunterstützung (da ist AMD grottig) oder neue Effekte berücksichtigen, zumindest wenn man seine Karte länger nutzen möchte.
Sogesehen ergibt dein Vergleich aber keinen Sinn mehr, da Nvidia immer Diktiert, was Sache ist. Und die werden niemals zugeben, dass sie lediglich drittklassige Ware liefern, wo es früher noch das zweitbeste Stück gab, für das man heute 1200€ zahlen muß.
Klar ist Nvidia gt damit gefahren, die Kunden ordentlich zu melken, genau wie AMD mit der Entscheidung, sich dem anzuschließen.
Nvidia hat schon einige üble Dinge getan. Von dem Versuch diverse Eigenstandards durchzudrücken, um den Markt unter Kontrolle zu bekommen (PhysX, GSync, DLSS) Betrug, indem sie Dinge erfunden haben, deren angeblicher Leistungsvorteil erstunken und erlogen war (PhysX und RTX Voice) bis hin zum schummeln in Benchmarks (Doom 3). Ach ja: bei den Lotproblemen der GeForce 8 hat man die Kundschaft auch möglichst lange im Dunkeln gelassen und ist für den Fehler nicht gerade gestanden. Das hat mich einen schönen Laptop mit GeForce 8400M G gekostet.
Auch wenn meine nächste Karte wohl wieder von Team Grün kommt (das Schicksal will, dass ich mir keine AMD Karte kaufe): man sollte Nvidia sehr kritisch beäugen.
Man sollte jeden Hersteller kritisch beäugen.
Ich gehe jetzt nicht auf alles ein, aber in Kürze...
FC6 ist leider ein lächerliches Beispiel und gibt eher einen faden Beigeschmack, als das man denken sollte, FC6 bräuchte wirklich 12GB und mehr. Außerdem ist der Unterschied zwar da, aber nicht so weltbewegend.
"Auch das ist nicht so", kann ich nur zu sagen, das es schon so ist. Konnte man die letzten 10 Jahre immer gut beobachten. Da ändert auch ein FC6 nichts dran. Denn auch wenn ein Entwickler höher aufgelöste Texturen gibt, ist der Unterschied nicht gravierend, da einfach auf die Texturen optimiert wird. Ich sage auch nicht bei allen Spielen, aber bei dem Großteil.
Ok, du möchtest Nvidia vorwerfen, das die 3080 (Das war bei Release, wenn man die ganzen Möchtegernzwischenmodelle man raus nimmt, die später kamen) das zweitschnellste Modell für 700€ angeboten hat. Das AMD die 6800XT aber für 650€ anbietet (Selbe Preisklasse und ja wir wissen alle, das man bei Nvidia tendenziell einen € mehr zahlt) ist für dich dann vollkommen normal.
Ach nein, ich vergaß... War ja das böse Nvidia, der Markt hat es über die Jahre hergegeben sich so zu entwickeln. Keiner zwingt AMD die Karten nicht etwas günstiger zu verkaufen, nur möchte AMD das auch gar nicht.
Beide Hersteller nehmen sich da nichts.
Auch das Nvidia eigene Entwicklungen bietet mit Physx, Gsync und DLSS und keine böse Entwicklung, sondern einzig ein Unternehmen das seine eigenen Investitionen schützt. AMD hat keine andere Wahl, wenn man immer später kommt und dennoch eine gute Verbreitung erzielen möchte, als deren Versionen offen zu gestalten.
Was kann man noch nicht auflösen? DAs Nvidia mit RT schneller ist, das könnte man schon gut so festhalten. Das später mehr VRAM gebraucht wird. Würde ich mal als fast gesichert annehmen.
Welches Schummeln in Benchmarks, ich erinnere mich nicht mehr? Ich kann mich nur noch mit AMD daran erinnern, bei der Bildqualität abstriche gemacht zu haben um schneller in Benchs zu sein. Das müsste zwischen 2009 und 2014 gewesen sein, irgendwann mal.
PS: Und bitte nicht verwechseln, wir tauschen nur unsere Ansichten aus. Das ist kein fight zwischen rot grün blau, oder so!
hab damals ende 2016 für meine 1080ti 650 € bezahlt das war die highend karte damals und jetzt soll ich den selben preis für ne 3070 zahlen ? nie im leben
Wenn überhaupt zahlst du ja für Leistung X und nicht für einen Namen.
Bei den Preisen bin ich bei dir. Einfach noch zu teuer und theoretisch befinden wir uns schon im Abverkauf der alten Gen. Grausam ist das.
Außerdem meintest du bestimmt 2017, denn Ende 2016 gab es die ti noch nicht. Meine 1070 kam 06/2016 auf die Welt und 08/2016 zu mir
Sicher nicht.