AW: Radeon: AMD möchte langfristig wieder High-End-Grafikkarten anbieten
Nur das Raytracing (eigentlich "Ray Tracing", sind 2 englische Worte ) keine "kurzfristig gehypte Technologie" ist. Höchtens noch "RTX On". Vereinfacht natürlich die Aufgabe der Entwickler, die derren Effekte bisher natürlich mit allerelei Techniken simuliert haben. Bisher war Raytracing mit FPS einfach nicht vereinbar, wegen fehlender Rechenleistung. Aber erste Gedanken dazu kamen schon 1968 auf (Appel, A. - Some techniques for shading machine renderings of solids.), "Ray Tracing" war dann 1980 schon ein Begriff (T. Whitted - An Improved Illumination Model for Shaded Display).
Mag sich von außen so anfühlen, aber ist nicht mit deinen Beispielen vereinbar. Bei Ray Tracing handelt es sich nur um das ideal, das bisher immer nur "simuliert" wurde. Also bei steigender Rechenleistung eine unweigerliche Entwicklung, also eher Evolution der Grafik. 3D und mehr physikalische Berechnung kann man zwar auch irgendwie da unterbringen, aber das ist dann doch ein anderer Schuh. V.a. bei GPU-Physx, da hätte ein freier Standard auch sehr geholfen.
Ich gebe dir recht, vielleicht hätte ich meine Aussage auf den Spielemarkt beschränken sollen.
In der Film/Contentindustrie ist Raytracing auch das Mittel der Wahl, jedoch sollte man bedenken das dort ganze Serverfarmen mit dem Rendering beschäftigt sind.
Nvidia brauchte einfach einen Aufhänger um die doch recht moderaten Leistungssprünge der Turing Chips besser an den Mann bringen zu können, wirklich bereit ist die Hardware für Raytracing in Echtzeit meiner Meinung nach nicht.
Die Basis wurde mit den Tensor Cores schon mit Volta gelegt, nun wird halt versucht damit auch die Consumer für sich zu gewinnen.
In diesem Falle wäre es aber doch echt schade, da ja ray tracing allgemein eine Technik ist, die Anklang findet.
Außerdem kann ich mir nicht vorstellen, dass Nvidia da so dermaßen viel Energie+Geld in dieses Thema steckt, wenn die nicht schon mehr wüssten.
Wie ich oben schon ausgeführt habe, glaube ich eher das Nvidia ein Feature brauchte, um die moderaten Leistungssprünge schmackhafter zu machen.
Man stelle sich Turing ohne Tensor Cores aka Raytracing und ohne die 2080ti vor, zu welchem Ergebnis wären die Tests bzw die Spielerschaft gekommen ?
Hätte Nvidia wie immer zuerst die X70 und X80er auf dem Markt geworfen, könnten sie alleine aufgrund von Pascal die hohen Preise nicht rechtfertigen, daher die 2080ti...
Wie sich AMDs neue Architektur im Endeffekt schlagen wird, muss sich auch in Bezug auf Raytracing zeigen.
Wichtig war die Kampfansage in jedem Fall, nun muss AMD seine Hausaufgaben machen, und die validen Kritikpunkte(Leistungsaufnahme als Beispiel) angehen.
Das wird wirklich spannend !