Meine Wunschvorstellung für jede weitere künftige Diskussion: Das betrachtete Produkt in den Vordergrund stellen, ohne den "Mitbewerber" schlecht zu reden.
Hardware wird von sich aus mit der Zeit "schlechter" im Sinne von weniger performant oder effizient, das nennt sich technologischer Fortschritt.
Es ist unsinnig einen Supercomputer von 1990 schlecht zu reden, weil er heute nicht mehr in den weltweiten Top 500 vertreten ist.
Umgekehrt darf man sich freuen, wenn eine 2 Jahre alte GeForce 1070 immer noch nicht aufgerüstet werden muss - wobei man dann schon mal kritisch fragen darf, warum der Fortschritt aktuell etwas langsamer abläuft.
Und damit wären wir wieder beim Thema und der Frage, was war zuerst da: Ei oder Henne?
Wird weniger verkauft, weil es keine wirklich neuen technisch anspruchsvollen Spiele gibt oder gibt es keine technisch anspruchsvollen Spiele, weil es kein viel bessere Hardware gibt?
Ich seh die Ursachen zusätzlich zum beendeten Miningboom auf beiden Seiten:
Seit dem Core2Duo hat Intel zB beinahe nur Produktpflege betrieben, mit Tick-Tock gab es von CPU-Gen zu CPU-Gen durchschnittlich etwa 15% mehr Leistung. Möglicher Grund: Fehlende Konkurrenz.
Umgekehrt nutzt ein aktuelles Division2 eine kaum aufgebohrte Engine aus dem inzwischen 3 Jahre altem Division1.
Heute stellt man fest, dass die CPU-Entwicklung wieder etwas Fahrt aufnimmt, offensichtlich angetrieben mit dem "erstarken" von AMD mit ihren RyZens.
Vergleicht man dann den Leistungszuwachs von Generation zu Generation bei den GPUs, so muss man leider feststellen, dass die 20xxer-Reihe nicht soviel besser ist, wie es die 10xxer-Serie gegenüber ihrem Vorgänger war.
Und mit der Beobachtung von oben zu den CPUs verwundert dass dann garnicht: NVidia kann sich quasi auf seinen Lorbeeren ausruhen. AMD ist bei GPUs aktuell keine Konkurrenz.
Mehr noch: Ich behaupte, nach allem, was aktuell über Navi bekannt ist, wird AMD auch bis einschließlich 2020 nicht nach der Performance-Krone greifen. (Erinnert mich mal Weihnachten 2020 daran, zu schauen, ob meine Kristallkugel richtig lag
)
Da dürft Ihr mir jetzt gerne "Schwarzmalerei" oder AMD-Bashing vorwerfen, ich nenne es eine gesunde Portion Skepsis. Hier werkelt ein Threadripper zusammen mit einer 1070 und einer RX590.
Was also kann ich zum aktuellen GraKa-Markt sagen?
Die 16 GB der VII sind interessanter als die 6GB der 1660 oder 2060, die GPU ist aber die falsche, da keine Gaming-, sondern eine Workstation-GPU. Ich verstehe nach wie vor nicht, warum man nicht die Vega 64 in 7nm aufgelegt hat (doch, ich verstehe es: so kann man noch teildefekte Workstation-GPUs verkaufen).
Die VII ist quasi eine Vega60, die es nie gegeben hat.
NVidia verbaut extra RT-Cores, die bisher von keiner Handvoll Spielen genutzt werden (und sonst deaktiviert nur Platz verschwenden) und wenn doch, dann bricht die Performance trotzdem ein, so das man sich fragen muss: Wozu sind die RT-Cores dann da? Gerade bei einer 2060. Total sinnfrei.
Raytracing versaut die Performance, DLSS die Optik.
Und dann wundert sich wer, dass der GPU-Markt schwächelt? Ernsthaft?
Aus meiner Sicht haben es weder AMD noch NVidia verdient, dass man zur Zeit eines ihrer Produkte kauft.