Raytracing: Nvidia schaltet DXR ab der Geforce GTX 1060/6G frei

Na ja der eine oder andere wird es an lassen weil er es nicht besser weiß , aber Mal ganz ehrlich was soll das bringen außer es das sich die Käufer einer RTX Karte verarscht vorkommen.

Ich werde es ausprobieren und schauen wie es läuft und vielleicht ist es ja doch nutzbar. Ich lebe ja auch nicht in der Wahnwelt, in der alle Settings immer auf dem Maximum kleben müssen und vielleicht geht es ja doch in flüssig, wenn man ein paar andere Settings reduziert. Vielleicht auch nicht, aber ich bin froh, dass man mir die Möglichkeit gibt, es auszuprobieren.
 
Du weißt das ich normalerweise gut informiert bin.
Zu Metro Exodus habe ich z.B. mehrere Lets Plays gesehen, wo auch teilweise RT aktiv war.
Also wie ich bereits schrieb: Nur in totkomprimierten YouTube Videos gesehen :rollen:

Die Kompression macht sehr viel kaputt. Das Spiel live, in Farbe und unkomprimiert auf dem eigenen Monitor zu sehen macht einen enormen Unterschied. Metro Exodus sieht mit RT hervorragend aus, das RT GI und AO ist gegenüber dem herkömmlichen GI/AO eine deutliche Bereicherung.

Nachdem was ich selber von Shadow of the Tomb Raider gesehen habe, verhält es sich dort genauso. Auf Screenshots ist der Unterschied je nach Szene mal mehr mal weniger deutlich zu sehen, in Bewegung sieht es jedoch verdammt gut aus.
 
Da war nichts komprimiert bei den Lets Plays.....
Wir beide sind aber in diesem Punkt sowieso völlig gegensätzlicher Meinung.
Ich bin keine Grafik-"Hure", und werde dass auch nie seien.

Deshalb habe ich auch mit einem Zelda BotW oder Xenoblade Chronicles 2 mehr Spass als mit vielen PC-Games.
Auf dem PC spiele ich sowieso lieber Retro, sehe dann zusätzlich immer noch viele Lets Plays um auf dem aktuellen Stand zu bleiben.
 
Ich selbst kann kaum Unterschiede zwischen einem Lets Play und der realen Grafik über den PC erkennen.
RT war aktiviert in einigen Lets Plays, und selbst mit einer eigenen RTX GPU würde ich keinen Unterschied erkennen.
Hier geht es ja hauptsächlich um Spiegelungen und Lichteffekte.

Du hast da deinen Spass dran, schon verstanden. Den werde ich aber (vermutlich) niemals haben.
 
Zuletzt bearbeitet:
Wenn du doch nur einmal sachlich bleiben könntest und deine größtenteils wirklich objektiven Ansätze nicht immer direkt wieder mit ...

Deshalb meine ich ja... allgemein für den Endkunden ist das gut, aber die G-Sync/RTX Käufer haben nicht nur tief in die Tasche gegriffen, sondern zum Dank auch noch einen an den Hinterkopf gekriegt.

Das ist natürlich ein total objektiver Ansatz, wenn man mit der Öffnung der Features für den restlichen Markt und oder andere Karten des gleichen IHV immer ein absichtlich schädigendes Verhalten unterstellt.
Wenn es jetzt auch auf Pascal Karten läuft, dann haben die Turing Käufer ja deswegen keinen Nachteil, denn es wird viel schneller laufen.
Das Gsync Modul gibt es seit fast 5 Jahren.
 
Ich selbst kann kaum Unterschiede zwischen einem Lets Play und der realer Grafik über die PC erkennen.
Dann brauchen wir an der Stelle nicht weiter diskutieren. Es spricht nichts dagegen, dass du dich informierst weil du mitreden möchtest. Dann vertrete aber bitte nicht öffentlich die Meinung kaum einen Unterschied zwischen RT on und off zu sehen, wenn du selbst zwischen totkomprimierten YT Videos und echtzeitberechneter Grafik kaum einen Unterschied erkennst. Das macht auf mich den Eindruck, dass du zwar mitreden möchtest, es dich aber nicht wirklich interessiert weil du ohnehin keine Grafikhure bist wie du selber schreibst. Ich bin auch nicht zwingend eine Grafikhure, mir selber ist Bildqualität noch enorm wichtig. Nichts geht über eine anständige Auflösung und viel AA/AF.

Hier geht es ja hauptsächlich um Spiegelungen und Lichteffekte.
Im Fall von Metro geht es um Lichteffekte (Global Illumination) und die Umgebungsverschattung (Ambient Occlusion). Sämtliche Spiegelungen in dem Spiel werden mit SSR realisiert. Ich persönlich finde RT Spiegelungen stinklangweilig und halte BF V deshalb weiterhin für den schlechtesten Vertreter der Spiele mit RT Support. GI und AO per RayTracing zeigen viel deutlicher wozu diese Technik in der Lage ist.
 
Ich persönlich finde RT Spiegelungen stinklangweilig und halte BF V deshalb weiterhin für den schlechtesten Vertreter der Spiele mit RT Support. GI und AO per RayTracing zeigen viel deutlicher wozu diese Technik in der Lage ist.

Absolut, da kann ich nur zustimmen.

Die Spiegelungen finde ich jetzt zwar nicht stinklangweilig, aber die richtige Stärke von RT kommt mit der Beleuchtung. Außerdem ist das Noising in den Spiegelungen noch viel zu stark (gestern wieder schön in dieser einen Demo zu sehen).
Auch befürchte ich, solche Effekte werden nur für den Effekt an sich eingebaut und passen dann von Design gar nicht ins restliche Bild (Siehe BF, wo blank geputzte Autos mitten im Kriegsschlachtfeld rumstehen).
 
Das ist natürlich ein total objektiver Ansatz, wenn man mit der Öffnung der Features für den restlichen Markt und oder andere Karten des gleichen IHV immer ein absichtlich schädigendes Verhalten unterstellt.
Wenn es jetzt auch auf Pascal Karten läuft, dann haben die Turing Käufer ja deswegen keinen Nachteil, denn es wird viel schneller laufen.
Das Gsync Modul gibt es seit fast 5 Jahren.

Nein nein, das hast du falsch verstanden. Nicht das Öffnen der Features für den Restlichen Markt ist es was mir sauer aufstößt, sondern das anfängliche VERWEHREN der Features für den restlichen Markt. Es wurde explizit gesagt, dass Geforce Karten nur mit G-Sync Monitoren adaptive sync beherrschen, da das Nvidia Modul benötigt wird - währe G-Sync nur als "gehobenerer Standard" gedacht gewesen, hätte man es ja auch einfach als Premium Produkt neben dem gewöhnlichen adaptive sync Standard vermarkten und von Anfang an parallel laufen lassen können. Und über die RTX/DXR Features wurde gesagt: das geht nur mit den neuen RT- und Tensorcores... auf einmal geht's doch auch ohne diese? Es ist ja nicht so, als würde ich jemandem irgendein Feature nicht gönnen... ich würde mir nur einfach verarscht vorkommen, wenn es erst heißt "Geht nicht, musste neu kaufen" und nen halbes Jahr später - nachdem ich für teuer Geld neu gekauft habe - geht's dann doch.


Grüße!
 
Dann brauchen wir an der Stelle nicht weiter diskutieren. Es spricht nichts dagegen, dass du dich informierst weil du mitreden möchtest. Dann vertrete aber bitte nicht öffentlich die Meinung kaum einen Unterschied zwischen RT on und off zu sehen, wenn du selbst zwischen totkomprimierten YT Videos und echtzeitberechneter Grafik kaum einen Unterschied erkennst.

Das sehe ich genau so. Den Unterschied zwischen einem komprimierten Video und Echtzeit-Rendering nicht sehen zu können ist schon krass. Da braucht man sich über grafische Darstellung generell nicht mehr viel Gedanken zu machen...
 
Zeigt halt nur das derzeit die RT-Cores bei BF5 nicht wirklich zum Einsatz kommen. ist jetzt aber wirklich lang genug draussen das sie die Probleme ausbügeln hätten können.... andererseits ist es Dice - von denen kann man sich technisch wirklich wenig erwarten und kann trotzdem noch enttäuscht werden.
 
Es kommt immer darauf an was einem wichtig ist. Die RT-Effekte in einem Lets Play sehen vielleicht etwas schlechter aus, sind aber immer noch sichtbar.

Mir ist es auch schon öfter passiert, dass ich in einem Lets Play war, versucht habe irgendetwas mit der Maus zu steuern, und mich wunderte dass nichts geht, weil ich dachte ich bin im Spiel. ^^

Die Frage bei der ganzen RT-Thematik geht doch eher dahin, ob es für die Emersion wichtig ist.
Und diese Frage kann nur jeder für sich selbst beantworten, also aus meiner Sicht bei den aktuellen Games nein, und bei euch vielleicht ja.

Nvidia hätte DXR schon von Anfang an per Treiber frei geben sollen für Pascal, aber besser spät als nie.

Viel interessanter finde ich da den Ansatz von Crytec, und dass RT-Effekte auch bei AMD-GPUs bald möglich sein werden.
Dann hätte die Technologie wirklich eine Chance sich durchzusetzen.
 
Das ist natürlich ein total objektiver Ansatz, wenn man mit der Öffnung der Features für den restlichen Markt und oder andere Karten des gleichen IHV immer ein absichtlich schädigendes Verhalten unterstellt.
Wenn es jetzt auch auf Pascal Karten läuft, dann haben die Turing Käufer ja deswegen keinen Nachteil, denn es wird viel schneller laufen.
Das Gsync Modul gibt es seit fast 5 Jahren.

Warum hat sich NVIDIA 5 Jahre geweigert auch das in deinen Augen minderwertige Adaptive Sync zu unterstützen?
Kann ja sein das Gsync Vorteile hat, aber die Wahl sollte doch NVIDIA dem mündigen Konsumenten lassen....
Genauso mit RT Cores... warum nicht gleich freischalten und dem geneigten Käufer die Wahl lassen?
 
Es kommt immer darauf an was einem wichtig ist. Die RT-Effekte in einem Lets Play sehen vielleicht etwas schlechter aus, sind aber immer noch sichtbar.

Mir ist es auch schon öfter passiert, dass ich in einem Lets Play war, versucht habe irgendetwas mit der Maus zu steuern, und mich wunderte dass nichts geht, weil ich dachte ich bin im Spiel. ^^

Hast du eventuell einen unheimlich schlechten, low contrast Monitor?
Auf meinem IPS Monitor sieht man den Unterschied sofort, auf meinem OLED TV umso stärker...
 
Warum hat sich NVIDIA 5 Jahre geweigert auch das in deinen Augen minderwertige Adaptive Sync zu unterstützen?
Kann ja sein das Gsync Vorteile hat, aber die Wahl sollte doch NVIDIA dem mündigen Konsumenten lassen....
Genauso mit RT Cores... warum nicht gleich freischalten und dem geneigten Käufer die Wahl lassen?


Adaptive Sync kam nach Gsync auf den Markt !

Und wenn ich was herstelle , dann will ich das als Firma, im Normalfall auch vertreiben

Du kannst ja demnächst hergehen ,und eigene Entwicklungen stemmen nebst dem Kapital was dafür nötig ist, und die dann wieder verwerfen , weil irgend so ein Fuzzi mit was anderem winkt

Mal sehen wie lange du im Business überleben wirst , mit deinen strategischen Überlegungen ,die du oben ins Feld führst^^
 
Es kommt immer darauf an was einem wichtig ist. Die RT-Effekte in einem Lets Play sehen vielleicht etwas schlechter aus, sind aber immer noch sichtbar.

Mir ist es auch schon öfter passiert, dass ich in einem Lets Play war, versucht habe irgendetwas mit der Maus zu steuern, und mich wunderte dass nichts geht, weil ich dachte ich bin im Spiel. ^^

Ja, also hm, ich finde gerade bei Spielen sieht man die Kompression noch deutlicher, als bei normalen Filmaufnahmen.
Du bist die Spiele-Streaming-Zielgruppe! :D :P

Die Frage bei der ganzen RT-Thematik geht doch eher dahin, ob es für die Emersion wichtig ist.
Und diese Frage kann nur jeder für sich selbst beantworten, also aus meiner Sicht bei den aktuellen Games nein, und bei euch vielleicht ja.

Nvidia hätte DXR schon von Anfang an per Treiber frei geben sollen für Pascal, aber besser spät als nie.

Viel interessanter finde ich da den Ansatz von Crytec, und dass RT-Effekte auch bei AMD-GPUs bald möglich sein werden.
Dann hätte die Technologie wirklich eine Chance sich durchzusetzen.

Im Allgemeinen halte ich RT schon für eine sinnvolle Technik. Je nach Spiel ist der Nutzen natürlich unterschiedlich stark ausgeprägt.
Ganz persönlich würde ich es begrüßen erst mal von den imo furchtbaren Artefakten bei Screeenspace-Reflexionen wegzukommen. Das sieht einfach nur unruhig und nach Darstellungsfehler aus. Zudem fände ich Reflexionen als Eye-Catcher ziemlich nett. Ob man jetzt jede Pfütze in einen Spiegel verwandeln muss... keine Ahnung.
Schatten würden mir wohl am wenigsten auffallen, da weiß ich aber nicht, wie gut sich das von der GI trennen lässt.

GI per RT würde mir wohl nur in Spielen ohne Vergleich auffallen, wenn das Gameplay draufausgelegt worden ist (mit der Taschenlampe in Häusern rumleuchten etc.).


*Immersion heißt das :X
 
Adaptive Sync kam nach Gsync auf den Markt !

Und wenn ich was herstelle , dann will ich das als Firma, im Normalfall auch vertreiben

Du kannst ja demnächst hergehen ,und eigene Entwicklungen stemmen nebst dem Kapital was dafür nötig ist, und die dann wieder verwerfen , weil irgend so ein Fuzzi mit was anderem winkt

Mal sehen wie lange du im Business überleben wirst , mit deinen strategischen Überlegungen ,die du oben ins Feld führst^^

Ist das so? Laut meinen Recherchen hat die VESA adaptive sync irgendwann 2009 spezifiziert. Nvidia Karten können G-Sync ab Kepler (2012), oder?


Grüße!
 
Zurück