News Indiana Jones und der Große Kreis: Radeon-GPUs unterstützen kein volles Raytracing

Naja also bei Ambient Occlusion sehe ich schon einen deutlicheren Unterschied zu den Techniken vorher. Da würde ich tatsächlich sagen, dass es für mich das Bild verbessert hat. Der Unterschied zwischen Ambient Occlusion und GlobaI llumination mit Raytracing finde ich dagegen kaum auffällig. Ich könnte dir bei Vergleichsbildern nicht sagen was was ist. Der Unterschied zwischen raytraced Global Illumnarion und Pathtracing finde ich dann noch mal geringer. Trotzdem bricht die Performance noch mal drastisch ein. IMHO inakzeptabel.
Kann ich nicht nachvollziehen. Anhand der verfügbaren Vergleiche für mich absolut nicht nachvollziehbar.
 
Für mich stellt sich einfach die Frage.. Spiel ich es knackig scharf mit DLAA bei 140+FPS
Oder verwaschen mit PT + DLSS-P + FG bei ca 50-70fps
Nana. Wir wollen doch mal nicht übertreiben.

Ich habs nachgemessen: Bei 5120x1440 im Vatikan:

PT aus, sonst alles Maximum, DLAA, kein FG: 75-80 fps
PT an, DLAA, kein FG: rund 45fps
PT an, DLSS-Balanced, kein FG: rund 70 fps.

Die meisten Menschen können den Unterschied zwischen DLSS-B und DLAA kaum sehen. Von verwaschen kann da keine Rede sein. Der Unterschied zwischen PT an/aus ist da deutlich augenfälliger, je nach Szene.
 
Die meisten Menschen können den Unterschied zwischen DLSS-B und DLAA kaum sehen.
Dann würd ich Mal sagen wird Zeit für n Optiker Besuch.
Ich bin großer Fan von DLSS aber den Unterschied sehe ich durchaus.

Bei mir auf der 4080 läuft das bei weitem nicht so Performant (bin aber auch erst am Anfang im Museum)

Und ich weis.. es ist jammern auf hohen Niveau.. aber weder 45 nativ noch 70 FG-FPS sind für mich persönlich "Spielbar"
 
Dann würd ich Mal sagen wird Zeit für n Optiker Besuch.
Ich bin großer Fan von DLSS aber den Unterschied sehe ich durchaus.
Nun, wenn man ein Standbild minütiös absucht, sieht man es vielleicht an bestimmten Details.

Ich finde das aber amüsant, wenn man im selben Augenblick sagt, dass man die Unterschiede von PT doch kaum sehen kann.

Bemerkungen wie das mit dem Optiker kann man sich auch gerne sparen.
Bei mir auf der 4080 läuft das bei weitem nicht so Performant (bin aber auch erst am Anfang im Museum)
Klar ist die 4080 etwa ein viertel langsamer als die 4090, aber das Verhältnis, das Du angebracht hast, von wegen ohne PT in DLAA in 140fps zu PT+DLSS-P+FG in 60 fps ist lachhaft. Das würde bedeuten, dass PT rund das 6-8 fache an Leistung kosten würde, also ein Unterschied von etwa 700%

Realistisch sind aber eben rund 60-80%

Das ist fast der Faktor 10 um den Du mal eben übertrieben hast.
 
Eigentlich cooler Beitrag, mit vernünftiger Ausdrucksweise, aber unter falscher Prämisse. Warum gehst du davon aus, dass es nur Radeon Nutzer sind? Ich beispielsweise spiele aktuell eigentlich nur im Wohnzimmer, das heißt 12900k und 4080 [...]
Du vermutest doch sicher keinen nVidia-Komplott der dahinter steckt, oder?
"Indiana Jones und die große, grüne Dividende" :)
 
Dann würd ich Mal sagen wird Zeit für n Optiker Besuch.
Ich bin großer Fan von DLSS aber den Unterschied sehe ich durchaus.
Hängt am Spiel, ich selbst kenne beide Fälle, das ich einmal keinen Unterschied sehe und einmal deutlich.
Bei mir auf der 4080 läuft das bei weitem nicht so Performant (bin aber auch erst am Anfang im Museum)

Und ich weis.. es ist jammern auf hohen Niveau.. aber weder 45 nativ noch 70 FG-FPS sind für mich persönlich "Spielbar"
Aber auch bei PT gibt es nicht nur maximum.

Vermutlich liefert eine intelligente Kombination aus relativ hohen Einstellungen mit einigen PT Optionen mit nicht nur maximalen Einstellungen in Summe das beste optische Erlebnis.

Zur Not dann halt ohne PT. Wobei das schon ein optisches Defizit ist. Aber denke die Kombi macht es.
 
Du vermutest doch sicher keinen nVidia-Komplott der dahinter steckt, oder?
"Indiana Jones und die große, grüne Dividende" :)
Natürlich nicht. Warum sollte ich? Ich verstehs nicht. Ist das als Gag gemeint? Wie kommst du zu der Frage?
Hier im thread hat schon einmal jemand Verschwörungstheorien in den Raum gestellt. Mögt ihr nicht lieber in die Rumpelkammer gehen mit solchen Andeutungen?
Aber nix was wirklich den Leistungshunger für mich persönlich rechtfertigt.
Vor allem da man den Leistungshunger mit einer extrem niedrigen Renderauflösung ausgleichen muss (in meinem Fall DLSS-P @rtx4080) ...was sämtliche Optische Gewinne durch PT direkt wieder zunichte macht.
Kann ich voll und ganz nachvollziehen.

Wenn man dann bedenkt, dass wir noch komplett am Anfang stehen, mit teilweise nicht mal einem Strahl und einer Kollision pro Pixel, dabei wollte man 2012 so hoch hinaus mit mindestens 10, besser 20 Strahlen und mindestens 3 Kollisionen pro Pixel, die zudem in unterschiedlichen Winkeln ausgestrahlt werden. Aktuell werden abgelenkte Strahlen, die sich nach der Ablenkung treffen nicht mal miteinander verglichen bzw. verrechnet. Aktuell wird sich fast nur "angenähert" bzw. geschätzt. Der BVH Ansatz teilt das ganze Bild in Sektoren auf und verrechnet diese in kleinen Zahlen. Also das ist noch ein sehr weiter Weg und die benötigte Rechenleistung ist noch lange nicht am Horizont sichtbar.
Bei einem Primärstrahl je Pixel sind wir bei 4K60 schon bei 500 Mio. Primärstrahlen pro Sekunde. und damit schon bei mehr als beispielsweise eine GTX2080ti überhaupt verarbeiten könnte, weil dann schon die Speicherzugriffe für Wartezeit sorgen würden. Da reden wir aber nur über Primärstrahlen. Trifft einer dieser Strahlen beispielsweise etwas transparentes wie Glas, müssen Sekundärstrahlen ausgeschickt werden und die teilen sich nochmals auf. Der Rechenaufwand wächst drastisch.
Diese Rechnung kommt aber oben auf alles andere drauf, beim zuschalten von PT. Also zusätzlich zur Grundlast. Weswegen wir solche Leistungseinbußen wahrnehmen. Eine 4090 ist im RT Index 8x so schnell wie eine 2080ti, aber wenn wir die Werte erreichen wollten die Intel damals beschrieben hat, bräuchte es noch mehrerer solcher Sprünge wie von 2080ti auf 4090 und das nur, um aktuelle Szenen vollumfänglich zu verrechnen.
Das ist auch der Grund, warum das Licht mit DLSS so anders ausschaut als nativ. Weil eben weniger Strahlen verrechnet werden und je nachdem welchen Ansatz der Entwickler gewählt hat, bringt die Reduzierung der Renderauflösung eben unterschiedliche Gewinne.

Ich bin echt gespannt darauf, wie die Reise weitergeht.
 
Natürlich nicht. Warum sollte ich? Ich verstehs nicht. Ist das als Gag gemeint? Wie kommst du zu der Frage?
Hier im thread hat schon einmal jemand Verschwörungstheorien in den Raum gestellt. Mögt ihr nicht lieber in die Rumpelkammer gehen mit solchen Andeutungen?


Kann ich voll und ganz nachvollziehen.
Guck Dir dieses Posting an.

Wir haben uns das nicht eingebildet. Gleich der erste Kommentar im Thread...
 
Ich habs nachgemessen: Bei 5120x1440 im Vatikan:
Dann teste mal eine fordernde Szene im Dschungel. Da sehen die fps ganz anders aus.

Ich habe aktuell aber eh mit üblen Frametime Problemen seit dem Update zu kämpfen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ich muss heute nach Feierabend mal testen ob das in allen Gebieten so ist. Vor dem Patch lief das alles total sauber.
 
Das Verhältnis wird sich sicher nicht ändern.
Naja, doch. Siehst du ja in meinem Video. Die Frametimes sind zwar merkwürdig, aber das Verhältnis sieht man sehr wohl. Aus über 130fps in UHD Nativ werden unter 70fps in UHD inkl. DLSS Performance. Das ist natürlich nicht unspielbar und ich würde es so auch spielen, wenn ich herausgefunden habe warum die Frametimes allgemein so kacke sind seit dem Patch, aber die Performance Auswirkung ist weit größer als von dir suggeriert.
Das mit den Frametime Problemen klingt nach VRAM. Reduzier mal den Textur-Pool.
Nope, siehe Video.
 
Ihr tut einfach so, als sei RT und PT genau das Gleiche und liefe mit genau den gleichen Berechnungen auf genau der gleichen spezial-Hardware genauso.
Also nutzt AMD zusätzlich die CPU?
Pathtracing ist eine Form von Raytracing, der Unterschied ist in erster Linie die Menge an "Rays" die Pro Pixel zu einer Lichtquelle verfolgt werden.
Das sagt Nvidia dazu:
And how is the rendering equation solved along the path of a ray? Ray tracing.
 
Zuletzt bearbeitet:
Okay, ich hab den als Witz empfunden zum stacheln, also Satire, nicht als ernstgemeint.
Hätte ich das für voll genommen, ich wäre bei "sponsert" schon wieder ausgestiegen.
Geht ja ein paar Postings weiter unten noch weiter.

Klar, es sind immer die gleichen Leute. Aber die nerven einfach. Und es gibt eben viele, die das ungefiltert nachplappern und es wird damit ganz schnell zur "Wahrheit".

So funktioniert das Internet.
 
Jau. Ich erinnere mich an Starfield. Angeblich war DLSS nicht vorhanden, weil AMD das so wollte. Dabei hat nicht die Radeon Technology Group die Kooperation geführt, sondern AMDs CPU-Sparte, welche Threadripper-Systeme zur Verfügung stellten. Wäre DLSS verfügbar gewesen, hätte es das GPU-Limit weiter Richtung CPU verschoben und somit die CPUs besser dastehen lassen. Das war den Leuten aber egal. Hauptsache schimpfen.
 
Wenn im Januar die 8800xt kommt und wirklich so eine Sprung bei der rt Leistung macht, wäre Nvidia sicherlich nicht amüsiert, dass sie auf einmal überholt werden, u.a. auch weil fsr fg mehr fps liefert als das von Nvidia.

Dieser Vergleich zwischen fsr und dlss in Spielen hinkt auch, weil fsr ziemlich oft einfach sehr schlecht integriert ist.
 
Wenn im Januar die 8800xt kommt und wirklich so eine Sprung bei der rt Leistung macht, wäre Nvidia sicherlich nicht amüsiert, dass sie auf einmal überholt werden, u.a. auch weil fsr fg mehr fps liefert als das von Nvidia.

Dieser Vergleich zwischen fsr und dlss in Spielen hinkt auch, weil fsr ziemlich oft einfach sehr schlecht integriert ist.
Wäre für AMD Käufer wünschenswert. Hoffentlich dann auch mit Entsprechenden Vram. Überholt wird Nvidia aber sicher "noch" nicht. Im Januar oder Februar gehen ja auch die ersten RTX50....Modelle an den Start. Natürlich auch mit gesteigerter R:T Performance.
 
Ja, AMD hat auch spezialisierte Hardware für Ray Tracing (genannt "Ray Accellerators", oder kurz RA) - nicht aber für die noch spezielleren Berechnungen bei Path tracing. Hier setzen sie noch auf Software -> Kombi aus Hardware Accelerators für RT und Software-Compute für die PT spezifischen Sonderberechnungen.

Ihr tut einfach so, als sei RT und PT genau das Gleiche und liefe mit genau den gleichen Berechnungen auf genau der gleichen spezial-Hardware genauso.

Pathtracing basiert auf Raytracing. Der Unterschied ist die Rendermethode (z.B. Monte Carlo), die Anzahl der Rays (nicht der Bounces) und die daraus resultierenden Ergebnisse. Mathematisch und physisch können das sowohl Nvidia- als auch AMD-Karten. die RT-Einheiten einer Karte haben da nichts extra "spezifisches".

Und nein, auch bei AMD funktioniert PT nicht über Software, sondern rein über die RA's. Die RA's sind einfach bloß langsamer als die RT-Einheiten von Nvidia-Karten, egal ob normales RT oder PT.

Ich kann z.B. in Cinema 4D genauso mit einer AMD-Karte mit der Monte Carlo Methode (PT) rendern wie mit einer Nvidia-Karte, nur berechnen die RA's aufgrund weniger Leistung weniger Iterationen/sec., bevor das Bild oder der Frame vollständig berechnet ist und dargestellt wird. Aber zw. Software, Treiber und Hardware wird hier genauso kommuniziert wie bei den AMD-Karten.

Bei den Games laufen ja auch CP 2077, Alan Wake 2 und Black Myth Wukong via PT über AMD-Karten. Mit Sicherheit nicht über Software, sondern rein über die RA's. Daher frag ich mich, woher du die Falschinformationen nimmst.

Genauso auch warte ich noch auf eine Erklärung von Raff, wieso neuerdings AMD-Karten kein PT können sollen. Bin von dieser Aussage nach wie vor verunsichert, weil ich der Meinung bin, dass Raff hier der GPU Pro ist.
 
Wenn im Januar die 8800xt kommt und wirklich so eine Sprung bei der rt Leistung macht, wäre Nvidia sicherlich nicht amüsiert, dass sie auf einmal überholt werden, u.a. auch weil fsr fg mehr fps liefert als das von Nvidia.
Ich bin zwar ziemlich skeptisch, dass es so kommen wird... Aber ich würde es auf voller Front begrüßen!

Das aktuelle FG von AMD ist allerdings kein guter Vergleich. Es erzeugt zwar mehr Frames, wenn man die sich aber die generierten Zwischenbilder mal genauer ansieht, sind sie in vielen Fällen grausam. FG soll nicht nur irgendwelche Bilder einfügen, sondern es soll schon tatsächlich ein flüssigeren Eindruck mit möglichst wenigen Artefakten geben.
Genauso auch warte ich noch auf eine Erklärung von Raff, wieso neuerdings AMD-Karten kein PT können sollen. Bin von dieser Aussage nach wie vor verunsichert, weil ich der Meinung bin, dass Raff hier der GPU Pro ist.
Wo hat er das geschrieben? Bist Du sicher, dass er nicht nur dieses eine konkrete Spiel meinte?

Denn es ist ja bekannt, dass bei Cyberpunk und Alan Wake II PT durchaus auch mit Radeon Karten funktioniert. Das weiß sicher auch Raff :)
 
Wenn im Januar die 8800xt kommt und wirklich so eine Sprung bei der rt Leistung macht, wäre Nvidia sicherlich nicht amüsiert, dass sie auf einmal überholt werden, u.a. auch weil fsr fg mehr fps liefert als das von Nvidia.
Wen will man denn überholen?
Selbst wenn es wie durch ein Wunder so wäre, das man das 4080 RT, nein ich meine du sprichst hier sogar von 4080 PT Niveau erreicht. (Na, wenn AMD +70-100% IPC bei RT Berechnungen herzaubert)
Ist das auch nicht mehr als 5070 bis 5070ti Niveau... Relasitisch sehe ich eine 5070ti bis zu 10% vor einer 4080 super.
Dieser Vergleich zwischen fsr und dlss in Spielen hinkt auch, weil fsr ziemlich oft einfach sehr schlecht integriert ist.
Kein Plan, aber letztendlich zählt nur das Ergbenis auf dem Platz und selbst die besten FSR Umsetzungen haben nicht abstellbare Probleme bisher. Ich hoffe das AMD den FSR in Spezial Hardware Weg geht und damit einen Sprung hinlegt.

Auch bezüglich Leistung gerne! Aber selbst wenn gibt es ja auch neue Konkurrenz.
 
Zurück