News Indiana Jones und der Große Kreis: Radeon-GPUs unterstützen kein volles Raytracing

Der dann einfach mal die klassische Beleuchtung implementiert, die vermutlich mehrere Mannmonate, wenn nicht Mannjahre Aufwand bedeuten.

Ja klar.

Raytracing ist die Zukunft. Gewöhnt Euch endlich daran.
Gewöhnt euch endlich dran ist gut gesagt. Das "endlich" ist das Problem. Denn ich beispielsweise habe 2007 angefangen mich mit RT in Anwendungen zu beschäftigen und warte spätestens seit Quake Wars )also 2008= darauf, dass Rytracing vollumfänglich in Spielen verfügbar wird. Wenn man jetzt überlegt welches Jahr wir haben und dass wir jetzt erst am Anfang stehen, dann kann ich jeden verstehen der irgendwo der Meinung ist, dass es auch von heute an noch ewig lange brauchen wird. Den Stand den wir aktuell haben, hatte ich schon 2011 erwartet und entsprechend wenig bin ich gehyped, sondern eher ernüchtert, denn ich sehe die nächsten zehn Jahre noch nicht, dass PT zum guten Ton gehören wird und entsprechend leistungsfähige Hardware billig. Das ist ja das Absurde. Eine 4090 die aktuell leichtes PT mit viel Tricksereien ausführen kann, kostet ein heiden Geld. Dabei sollte entsprechend eHardware günstiger werden. Solche Spezialkerne, wie wir sie hier nennen, können gefühlt nichts und kosten in der Herstellung entsprechend wenig. Nur, Fläche nehmen sie ein. Gäbe es aber nur noch RT/PT-Spiele, sollte die Hardware dafür deutlich günstiger ausfallen, als sie das aktuell tut. Der Marktführer in dem Bereich, zeigt uns aber leider den Stinkefinger und gibt die Richtung vor.
Deshalb wäre ich dafür, alle Spiele nur noch und ausschließlich mit Raytracing zu erstellen und gar kein fallback mehr zu bieten. Allerdings eben bei Spielen die das auch umsetzen können. Ein digitales Monopoly braucht das nicht. Ein Rollenspiel, bei dem eine Welt und Umgebung Simuliert werden soll hingegen schon.
Wie das zusammenpasst? Na einfach zwei Karten verbauen. Eine "alte" und eine neue Technologiestufe, so dass beides abgedeckt werden kann, aber noch immer jeweils günstig zu produzieren ist.
Zu X58 Zeiten hatten wir boards mit bis zu 9!!! PCIe x16 Plätzen und aktuell???
 
Ich gewöhne mich SEHR GERNE daran, wenn die GPUs denn endlich soweit sind es ohne Performance Verlust zu schubsen!
Performanceverlust ggü was denn? Es gibt ja keine Rastervariante mit der du das vergleichen könntest^^

Spiele werden in Zukunft einfach nur anspruchsvoller und für den Performanceverlust gibts DLSS/FSR, was man vorher nicht hatte, damit verringert sich die Leistung insgesamt gesehen nicht mal, während die Optik oftmals dem TAA von vor 10 Jahren überlegen ist.
(Hier ist Indy leider ein Negativbeispiel, da DLSS deutlich unruhiger ist als TAA)

Ansonsten, eine 2060S ist in der Lage, das Spiel hier zu spielen und das ist eine der schwächsten RT fähigen GPUs auf dem Markt. Wie viel performanter soll es denn noch werden?
 
Performanceverlust ggü was denn? Es gibt ja keine Rastervariante mit der du das vergleichen könntest^^

Spiele werden in Zukunft einfach nur anspruchsvoller und für den Performanceverlust gibts DLSS/FSR, was man vorher nicht hatte, damit verringert sich die Leistung insgesamt gesehen nicht mal, während die Optik oftmals dem TAA von vor 10 Jahren überlegen ist.
(Hier ist Indy leider ein Negativbeispiel, da DLSS deutlich unruhiger ist als TAA)

Ansonsten, eine 2060S ist in der Lage, das Spiel hier zu spielen und das ist eine der schwächsten RT fähigen GPUs auf dem Markt. Wie viel performanter soll es denn noch werden?
4k@120Hz/120, FPS mit Full Pathtracing und DLSS Quality wäre supi. Bin mal gespannt ob eine 5090 sowas stemmen kann bei modernen Games.

An sich braucht man die Games nur vernünftig optimieren! Es gab bereits Titel vor Jahren, die mindestens genau so gut wenn nicht besser aussahen, kamen bestens ohne Ray- und Pathtracing aus und laufen auf Mid Range GPUs in 1440-2160p bei ultra Einstellungen mit 60-120 FPS ( mit DLSS/FSR) und das sollte doch mal langsam machbar sein.
Schuld sind meist die nicht ausreichend optimierten Games bzw die Entwickler und nicht die Hardware!
 
Zuletzt bearbeitet:
Schuld sind meist die nicht ausreichend optimierten Games bzw die Entwickler.
Eher eine falsche Erinnerung wie die Games aussahen.
Klar, bei statischen Szenen konnte man auch eine Beleuchtung zusammenbasteln, die so aussieht, wie PT hier. Aber dynamisch konnte die nicht sein.

RT/PT haben halt einen festen Performance Impact, der Vorteil ist, dass die Performance nicht mehr so stark steigt, wenn man es komplexer macht.

Bei Indiana Jones läuft es z.B. ja auch besser als in anderen PT Games, man merkt aber auch, dass an vielen Stellen eben kein PT genutzt wurde.
z.B. sieht man im 3. offenen Gebiet sehr viele Screen Space Reflections im Wasser, man sieht bei vielen Lichtquellen, dass NPCs keine Schatten durch diese werfen, sondern nur die vorgefertigten Shadowmaps genutzt werden für feste Objekte.

Würde man das alles physikalisch korrekt und ohne RT machen, müsste man alleine für die Schatten unzählige Shadowmaps erstellen, was die Performance komplett zerstören würde.
Mit RT/PT braucht es halt initial erst mal viel Performance, dafür kannst du dann aber auch jedes beliebige Objekt Schatten werfen lassen, ohne dass sich die Performance weiter verschlechtert.

Das gleiche gilt für Spiegelungen.
Klar, man kann hier ein RDR2 erwähnen, wo es funktionierende Spiegel gab, aber diese Technik auf jede spiegelnde Oberfläche im spiel angewandt, könntest du das Spiel mit keiner GPU mehr spielen.
 
Falsche Erinnerung? Meine Erinnerung ist meine Erinnerung und ich lasse sie mir nicht nehmen und auch heute noch sehen für mich Spiele wie Doom 2016, Half Life Alyx, GoW 1 oder Titanfall 2 verdammt gut aus und müssen nicht besser aussehen oder sich vor aktuellen Titeln verstecken.

Ja wenn die Hardware soweit ist und Ray- sowie Pathtracing mit links stemmt, dann bin ich damit auch d'accord! Bis dahin hat es für mich damit noch viel Zeit und ich muss diese Entwicklung auch nicht pushen usw. Ob ich Echtzeit berechnete Lichter und Schatten im Spiel habe, geht mir einfach komplett am 🍑 vorbei. Hauptsache es sieht einigermaßen passend aus. Ich werde mir in Spielen niemals penibel genau anschauen, ob der Schatten passend zur Lichtquelle fällt, deshalb finde ich das ganze auch nicht wichtig genug. Außerdem muss ein Spiel für mich nie so aussehen wie das Leben, es soll immer noch ein Spiel sein und sich davor unterscheiden. Wenn ich Filmgrafik haben möchte, schau ich einen Film oder lebe einfach mein Leben. So echt wie möglich will ich es auch gar nicht haben. Davor habe ich eher Angst als hohes Interesse. Klar ist es cool aber es hat auch seine Risiken vor allem bei jüngeren Spielern aber OK darum soll hier ja auch nicht gehen, wollte es aber nur erwähnen, weil damit begründe ich es für mich, dass ich dieses ganze möglichst Echte nicht benötige.
 
Wenn das so einfach ist, kann der Contender auf dem Markt ja super leicht und preisgünstig dem Marktführer zeigen, wie es richtig geht.

Darauf warte ich seit... gefühlt 10 Jahren.
Das haben sie doch. AMD hat jahrelang mit einem viel kleineren Team und gigantisch weniger finanzieller Ressourcen und mangelnder Unterstützung der Industrie in etwa vergleichbare Leistung zu geringeren Kosten angeboten. Das wollte der Markt aber augenscheinlich nicht.
Dass Asics an sich viel billiger und effizienter sind sieht man doch überall. Zur etherium Hochzeit brauchte es zig high end gpus und etwa später hat ein Asics in Größe eines raspi das gleiche, oder mehr für einen Bruchteil der Kosten und des platzbedarfs geschürft.

Nvidia als viel größerer Auftraggeber mit höheren Stückzahlen, bekommt im Einkauf bei tsmc und anderen Zulieferern und Boardpartnern entsprechend niedrigere Preise und regelmäßig den Vortritt. Das ist ja auch legitim. Nur werden diese Vorteile nicht an den Kunden weitergegeben. Sonst würde eine vergleichbar schnelle 4080 bedeutend weniger kosten als eine 7900XTX. Dass es genau andersherum aussieht, Bilder gevau das ab, was ich kritisiere. Mir ist es auch fast schon wurscht. Also das hier ist kein "irgendwas gegen Nvidia", sondern einfach eine aufführen von Sachverhalten, mehr nicht.
Nvidia könnte für die Kohle an der Kasse ganz anderes liefern, wollen das aber nicht.
 
Zuletzt bearbeitet:
Das haben sie doch. AMD hat jahrelang mit einem viel kleineren Team und gigantisch weniger finanzieller Ressourcen und Unterstützung der Industrie in etwa vergleichbare Leistung zu geringeren Kosten angeboten. Das wollte der Markt aber augenscheinlich nicht.
Die Entscheidung nicht bzw. zu spät in RT zu investieren hat sich gerächt. Und am Anfang haben die Käufer dem auch Recht gegeben. Auf lange Frist bricht AMD das aber das Genick.

Immer nur hinterherzurennen kostet nicht weniger Geld. Auch die Entwicklung von FSR war teuer, auch wenn NVidia die Pionierarbeit und damit viel Forschung vorbereitet hat, von dem letztlich auch AMD profitiert hat (Wie DLSS funktioniert ist schließlich kein Geheimnis).

Bei AMD fehlt die Vision und auch die Bereitschaft, in Innovation zu investieren. Das kritisiere ich seit gefühlten Ewigkeiten. Und dennoch werden sie immer wieder verteidigt.

NVidia ist inzwischen eine riesige Firma mit all den Nachteilen, die das hat (wie man an Intel sieht). AMD könnte auch mit einem kleineren Budget, aber mit engagierten Menschen viel mehr erreichen, wenn die Vision da wäre und das Management Innovationen fördern würde.
 
Zurück