Ja, man könnte auch eine strategische Entscheidung hinter RT sehen. Es war ja klar, das die Leistung nicht 1:1 mit RT laufen wird. Und das schon in früher Entwicklungsphase (RT ist ja nicht seit letzter Woche bekannt, sondern seit zig Jahren!)
Man könnte also mit Aluhut auf, den Gedankengang spinnen, dass man seinen unliebsamen Marktbegleiter auf diese Weise unter Druck setzen will... sich finanziell extrem zu verausgaben.. um evtl. gar in Schieflage zu geraten.. oder andere Entwicklungen stoppen zu müssen...
Weil richtig erkannt, das Budget für Entwicklung AMD entsprechend weh getan hätte.. und bei nVidia zwar wohl nicht Portokasse ist.. aber deutlich weniger belastend...
Der Grund für RT war doch eher, dass man die Leistung der Karten kaum noch steigern konnte. Dafür braucht man noch mehr Shader und damit landet man irgendwann an einer unüberwindlichen Grenze. Das war bei GCN als Gegenbeispiel schon 4096 Shader, bei RDNA keine Ahnung und bei nV war wohl Volta das Maximum mit seinen etwas über 5000 Shadern. Da musste jetzt sofort ein neuer, großer Hype her, da man die Leistung nur noch im niedrigen, zweistelligen Prozentbereich hätte weitersteigern können.
Dass RT jedoch viel Leistung benötigt, hat nV richtig erkannt, auch wenn ich aktuell annehme, dass sie in relativ naher Zukunft vielleicht von den Zusatzkernen abweichen (außer, die Technik lässt sich auch weiterhin teuer in Profikarten verkaufen, wie jetzt die Tensor Cores, die im Gamingbereich eigenltich niemand bräuchte, da alles, was "angeblich" darauf berechnet wird, auch ohne großen Leistungsverlust von Shadern erledigt werden könnte. Einzig die Vorberechnung von DLSS auf den Hochleistungsrechnern benötigt die zusätzliche Leistung). Einfach abwarten, was AMD mit RT macht. Wird sicher auch nicht billig für uns Kunden aber wenigstens keine gewaltige Zusatzfläche, sondern Zusatzleistung, die man, falls nicht für RT verwendet, auch anders nutzen kann. Da sehe ich etwas mehr die Zukunft...