Ich versteh das doch richtig, dass eine Game Engine grundsätzlich Raytracing explizit unterstützen muss, damit das Feature genutzt werden kann oder?
Und ich gehe wahrscheinlich Recht der Annahme, dass eine etwas ältere Engine, wie z.B. der CryEngine Kern von Lumberyard das nicht tut?
Ich hoffe nur, die schlauen Köpfe bei CIG (Die Jungs, die immer ganz stolz darauf sind, dass alles "state of the art" und so gut oder besser als jeder andere Triple-A Titel sein muss) kommen jetzt nicht auf eine ganz GANZ dumme Idee......
Allerdings bin ich auch ganz sicher kein Käufer der kommenden Grafikkartengeneration, sondern wahrscheinlich erst von der darauffolgenden. Bis dahin hat sich die neue Technik hoffentlich bewähren können und auch die nötige Softwareunterstützung ist vorhanden.
Ob es sinnvoll ist, jetzt schon 450,- bis 600,- Euro in eine Grafikkarte zu investieren, deren Funktionen vielleicht erst in fünf Monaten mit den ersten DirectX-10-Spielen genutzt werden können, erscheint angesichts des Wertverlustes immerhin zweifelhaft. Für den G80 sprechen außer der technischen Faszination dennoch die höhere Leistung auch bei schon erhältlichen Spielen und die gesteigerte Bildqualität.
na dann wäre mal ne bessere Karte als die 1050 Ti angesagt...
du brauchst ganz sicher nicht auf die neue Generation warten, den fast ALLE Karten der 1000er Serie sind schneller als deine....
aber man kann ja mal meckern ...
Was bring der Quatsch wenn die Karten nur 15-20 fps in 4K schaffen?
Das hab ich so auch nicht geschrieben. Ich hab geschrieben die Strahlendichte gibt die Auflösung des Effekts vor und im Bestfall entspricht 1 Strahl einem Pixel des Bildes - wobei man sicher auch Überabtasten könnte zwecks Antialiasing.@KrHome: Es skaliert nicht bloß mit der Strahlendichte, welche nicht auf die Auflösung festgelegt ist. Man kann ja auch unterabtasten.
Wenn du das mit einer CPU machst, dann skaliert es linear mit der Zahl der Kerne.Es skaliert mit der Rekursionstiefe, mit dem Grad der Parallelisierung, mit der Auflösung der Boxstruktur, mit der Speicherbandbreite usw.
Korrekt. Siehe auch das Performance Diagramm in meinem ersten Link oben (Rot - Rasterisierung, Grün - Raytracing). Es braucht eine hohe Einstiegsperformance, aber wenn die mal da ist, kann man praktisch alles damit machen. Dauert aber wirklich noch 20 Jahre, da nach 4K noch 8K kommt und wir derzeit nichtmal 1080p hinbekommen.Raytraycing wird übrigens in 10 oder 20 Jahren dann mal der Sargnagel für die Grafikkartenhersteller werden. Der Witz ist nämlich, das aus heutiger Sicht die Grafik nicht realistischer werden kann, als mit Raytraycing. Aktuell bringen die Karten nicht mal genug Leistung für ein ordentliches Hybridmodell. Aber sobald die Grakas Echtzeit-Raytraycing für das gesamte Bild mit einer Strahlendichte schaffen, die für ein von der Realität nicht mehr zu unterscheidendes Bild ausreichen, lässt sich nix mehr steigern. Sobald das möglich ist, kann man den Karten Mehrleistung verpassen und tolle neue Features einbauen - mehr als "alles" geht dann nicht mehr. Immerhin ein Lichtblick
Aus meinem ersten Link oben.@KrHome: Woher hast du das Diagramm? Ich habe eine deratige Skalierung auf der CPU nicht hinbekommen, vermutlich weil das Model sehr große war und die Bandbreite limitierte.