Nvidia Turing: Angeblich neben Geforce RTX nun doch Geforce-GTX-Grafikkarten

Spiele können nicht von Grund auf für Hybrid Raytracing programmiert werden da die Basis zu klein ist. Es stellt damit einen gewaltigen Mehraufwand dar der extrem viel Aufmerksamkeit und Pflege erfordert.
Das tut sich doch kaum ein Entwicklerteam an wenn es nicht gerade die Dollars in den Arsch geblasen bekommt dafür.
Hat man 2001 auch gesagt über Spiele die Shader vorraussetzen. Oh wait...
Wenn es einen optischen Unterschied macht und man eine Killer-App hat, dann kaufen die Leute auch die Hardware. Das hat ID oft genug bewiesen
 
Hat man 2001 auch gesagt über Spiele die Shader vorraussetzen. Oh wait...
Wenn es einen optischen Unterschied macht und man eine Killer-App hat, dann kaufen die Leute auch die Hardware. Das hat ID oft genug bewiesen

Shader laufen aber auf jeder Hardware und erfordern keinen doppelten aufwand einer Parallelstruktur.
 
Du kannst auch "klassische" GPUs über die ALUs raytracen lassen. Ist halt super langsam, aber ist prinzipiell machbar. Das ist ja das Tolle an programmierbaren Einheiten: Sie sind programmierbar. :D Nvidia hat das doch sogar in die Star Wars Reflections Demo implementiert und vorgeführt, um Pascal alt aussehen zu lassen. Ich kann das als Programmierlaie nicht sauber einschätzen, aber mich würde es wundern, wenn Hybrid-Raytracing derzeit einen größeren Aufwand darstellen würde als die Implementation von Pixelshadern anno 2001.

MfG,
Raff
 
Naja man könnte es ja einfach freigeben bei BFV, soweit ich weiß hat das Spiel sogar einen DXR Fallback den die Entwickler genutzt haben.
 
Naja Partikelflug gibts in vielen Spielen, in manchen ist es Asche/Funkenflug, in manchen Staub, in BF5 Blätter. Was kann Dice dann dafür?
 
Ich verstehe NVIDIA trotz dem ganzen RTX nicht, sie haben doch keinen Druck durch Konkurrenten und somit hätten sieh es auch noch 1 Jahr diese Entwicklung reifen lassen können. Ich Wette, dass die Karten auch günstiger und mit mehr Leistung hätten verkauft werden können.
Das nun GTX Karten kommen sollen wäre von vornherein der richtige Weg gewesen.
Für mich eine perfekt überschätzte Fehlplanung. :ugly:
 
...wenn Hybrid-Raytracing derzeit einen größeren Aufwand darstellen würde als die Implementation von Pixelshadern anno 2001.
Oh doch. Dynamische Szenen wären ab 250 Millionen Rays möglich und unter Berücksichtigung des ausreichenden Aufspührens divergenter Rays. Statische Objekte ab 1 Million primärer Rays.

Wenn wir heute von GPU Raytracing sprechen, meinen wir ja auf einer GPU. Die hat natürlich noch mehr Aufgaben zu erledigen. Das bedeutet, dass Berechnungspotential muss noch für andere Zwecke zur Verfügung stehen, man braucht einen effizienten und optimalen Algorithmus der insgesamt nur einen kleinen Zustand pro Thread oder Ray verursachen würde. Die Beschleunigungsstructur eigent sich imo noch nicht ausreichend dafür. Sieht man auch an den nachträglichen Optimierungen die keine sind, sondern man hat schlichtweg die Raymenge reduziert. Das Ganze erfordert dann noch deutlich erhöhte Speichermengen und fordert höhere Bandbreite. Problem dabei ist das Balancing zu finden, weil die GPU dann unter Last mit der CPU schlicht nicht mehr mithalten kann. Bei der Programmierung gibt es gemeisame Analogien.

Was den Raytracer angeht, versucht man Schnittpunkte und Teilungsebenen beim generieren, Traversing und Shading so klein wie möglich zu halten (Voxel und Geometrie), denn jeder Schnittpunkt bedeutet einen neuen Primärstrahl erzeugen zu müssen.

Früher glaubte man dem Ganzen mit hoher Paralellität (SIMT), massivem Rechenpotential, hoher Bandbreite und ausreichend Computeshader begegnen zu können. Nur hat sich die Grafik in Spielen deutlich weiterentwickelt und viele Optimierungen hervorgebracht , die ressourcenschonend ausfallen und real genug aussehen. Ich glaube daher das es ohne ein direktes Beschleunigungmodell in Hardware möglich sein kann (war's schon auf einem G80+Opteron in 2002), nur reicht das eben für heutige Ansprüche nicht mehr. Genau daher auch 1080p und Überlegungen sowie Techniken einzuführen (Filtermodus), die bei weniger Rays den Bildeindruck ähnlich aussehen zu lassen.

Möglich könnte aber auch sein, dass die API dort einfach noch nicht effizient genug ist und sich Microsoft selbst jahrelang ausgeruht hat. Die Geschichte kennen wir ja. Hardwareeigenschaften oder reine Rohpower ist eben nicht alles, wenn man sie nicht auf die Straße bringt.

Ich könnte mir Hybridmodi aus CPU+GPU Raytracing vorstellen. Cores scheint es ja demnächst genug zu geben. Besser wäre, es bleibt auf der GPU. Dürfte weniger Aufwand für die Entwickler bedeuten und deutlich weniger Gefrickel als es jetzt schon ist.
 
Sieht man auch an den nachträglichen Optimierungen die keine sind, sondern man hat schlichtweg die Raymenge reduziert.

Der Changelog den die Entwickler angekündigt und zur Verfügung gestellt haben, spricht nicht von einer Reduktion der Rays als einzige Optimierung, bin mir nicht mal sicher ob man die Rays überhaupt pauschal reduziert hat, sondern ob man nicht sogar mehr nutzt.
Ich wünsche für deine Behauptung das Vorlegen einer Quelle, ansonsten ist das wieder ein ellenlanger Beitrag mit lauter Unwahrheiten gespickt.
 
Zuletzt bearbeitet:
Der Changelog den die Entwickler angekündigt und zur Verfügung gestellt haben, spricht nicht von einer Reduktion der Rays als einzige Optimierung, bin mir nicht mal sicher ob man die Rays überhaupt pauschal reduziert hat, sondern ob man nicht sogar mehr nutzt.
Ich wünsche für deine Behauptung das Vorlegen einer Quelle, ansonsten ist das wieder ein ellenlanger Beitrag mit lauter Unwahrheiten gespickt.

Du bist dir nicht sicher und erwartest von mir einen Beweis für deine Unsicherheit, dein Nichtwissen und dein Unvermögen? Du hast doch gar keinen Schimmer worüber ich geschrieben habe. Bleibe einfach in deinem Unversium und stellt nicht jeden meiner Post in Frage und der nicht positiv für deinen Lieblingshersteller ausfällt.

NVidia selbst hat mitgeteilt, dass zu viele Rays auf das Laub abgeschossen wurden (lese mal meinen obigen Post genauer, dann kommst du darauf warum), was zu einem Bug geführt hat. Diese Reflektionen stellt man jetzt mit SSR dar. Dice hat das Variable Rate RT optimiert, dass mit entscheidet wie viele Rays auf ein Objekt abgeschossen werden. Zu viel ist eben manchmal zuviel und lässt dann die Framerate drastisch sinken (Frametime). Das Denoising wird in BFV über Compute berechnet und auch dieses hat man anhand von Leistungswünschen angepasst.

Ob ich lange oder kurze Antworten schreibe hat dich nicht interessieren. Unten links ist ein Button, kannst es melden und gut, dann entscheidet ein Moderator ob der Inhalt im Forum verbleiben darf. Vor allem fühle dich nicht immer angesprochen. Wenn du deine Hausaufgaben gemacht hast, kannst du danach gerne wieder kommen. Wer hier was mit Unwahrheiten spickt ist jedenfalls offensichtlich. Vor allem schreibst du ständig über Dinge die du nicht ansatzweise verstehst und stellst anhand deiner Logik Behauptungen auf, die man dann wiederlegen soll.

Das ist das letze Mal das ich dir auf deinen "Wunsch" antworte.
 
Zuletzt bearbeitet:
Wenn Nvidea jetzt wieder GTX Karten ohne RT bringt wird das nicht gerade hilfreich sein für die viel beschworene RT Revolution.
Solche Features leben von der Hardware Verbreitung und wenn NV jetzt parallel RTX und GTX verkauft mit einem 2-300 Euro aufschlag für ersteres dann gute Nacht RT.
 
NVidia selbst hat mitgeteilt, dass zu viele Rays auf das Laub abgeschossen wurden (lese mal meinen obigen Post genauer, dann kommst du darauf warum), was zu einem Bug geführt hat.

Ja, schon klar, dennoch behauptest du die einzige Optimierung sei eine Reduzierung der Rays, was ganz einfach zu widerlegen ist.

Man hat unter anderem auch inaktive Geometrie entfernt.

Da kannst du noch so mit Fachbegriffen um dich werfen, das ist einfach Bullshit.

Jeder kann Google benutzen...
 
Zuletzt bearbeitet:
Du kannst auch "klassische" GPUs über die ALUs raytracen lassen. Ist halt super langsam, aber ist prinzipiell machbar. Das ist ja das Tolle an programmierbaren Einheiten: Sie sind programmierbar. :D Nvidia hat das doch sogar in die Star Wars Reflections Demo implementiert und vorgeführt, um Pascal alt aussehen zu lassen. Ich kann das als Programmierlaie nicht sauber einschätzen, aber mich würde es wundern, wenn Hybrid-Raytracing derzeit einen größeren Aufwand darstellen würde als die Implementation von Pixelshadern anno 2001.

MfG,
Raff

Unter DX12 könnte ich mir auch eine mit einbezogene iGPU vorstellen.
Oder wäre das technisch Unsinn?
War ja mal im Gespräch DX12 die iGPU in die Spiele mit einzubeziehen.
 
Unter DX12 könnte ich mir auch eine mit einbezogene iGPU vorstellen.
Oder wäre das technisch Unsinn?
Ja das geht. Unter UE4 konnte man auf schwächeren Systemen bis zu 11% mehr FPS generieren.

Ja, schon klar, dennoch behauptest du die einzige Optimierung sei eine Reduzierung der Rays, was ganz einfach zu widerlegen ist.

Man hat unter anderem auch inaktive Geometrie entfernt.

Da kannst du noch so mit Fachbegriffen um dich werfen, das ist einfach Bullshit.

Jeder kann Google benutzen...
Und wenn man Geometrie entfernt, erhöht man die Raymenge?

Alle von mir genannten Techniken optimieren die Raymenge. Man schießt die Rays nur noch auf Objekte ab, wo man denkt, dass es optisch den meisten Effekt hat (Bild), auch unter Ultra Preset (40%). In der Szene alles was heller gekennzeichnet ist. Man kann das auch Effekthascherei nennen. Andere Objekte fallen raus, man wählt also parktisch die Objekte im Vordergrund aus, der Rest reflektiert dann mit SSR oder gar nicht.

Es ist wie mit den Draw Calls, suche nicht auf Google suche in deiner Erfahrung, die du anscheinend nicht hast. API Scripting ist das Stichwort, Draw Call Optimizer...public GameObjectsEmptyCombinedPrefab; und dann setze gleichzeitig einen Meshfilter in einer Transformlist. Mesh Draw Calls stehen im Zusammenhang mit der Auflösung.

Es wurde nicht übermäßig viel Geometrie entfernt (wenn überhaupt), sondern Renderpfade beendet die man nicht braucht. Das habe ich schon vor einer Woche eingeworfen. Was auch unter Frostbyte fatal wäre, weil die Engine mit hohem Geometrielevel erst gut aussieht. Bestimmte Details wurden entfernt. Und was stellt du dir darunter vor? Das ist nichts weiter als ein 2D Grundriss. Das kann man nachträgllich nicht massiv verändern. Das würde die ganze Szene und Optik zerstören.

Es geht beim Raytracing auch um Optimierung der Objektkollisionen (Laub), also zwischen zwei oder sich mehreren bewegenden Objekten in Eigendynamik, wobei nicht die Absolutbewegung wichtig ist, sondern die Relative. Man braucht also einen Algorithmus der das bewerkstelligen (vorhersagen kann) kann, nur ist das nicht so einfach. So muss man immer mehr Primärrays generieren oder Rays nachverfolgen, was einfach massiv an Zeit kostet.

NVidias RTX ist weiterhin von der Leistung der Shader abhängig. Treffen Rays zum Beispiel auf Objekte wird ein Shader aufgerufen, um die Farbe zu bestimmen, wobei die Sekundärstrahlen zur Darstellung der Reflektionen dienen. Das die Shader lediglich leistungsoptimiert wurden und nicht weiter ausgebaut ist auch klar. Unter 720p aversierte man zur Darstellung von Grafiken (damals) ca. 1 Billion Rechenschritte. Das zeigt eigentlich gut auf, wie es heute unter WQHD oder UHD aussieht, dass ist die vielfache Menge.

Schön das du es geschafft hast, endlich mal Google zu befragen. Das Bild selber stammt von NVidia kann also kein Fake sein, man schießt in der Sache nur noch Rays auf die Scheiben des Wagon ab, bündelt also die verfügbare Menge sozusagen. Auf die Waffe treffen wenn wenige. Ich vermute die Waffe reflektiert auch rein mit SSR. So nah wirkt es zuweilen störend.

Nochmal, bleibe einfach in deinem Universum!
 
Zuletzt bearbeitet:
Ja das geht. Unter UE4 konnte man auf schwächeren Systemen bis zu 11% mehr FPS generieren.

Oh 11%, das hört sich positiver als ich dachte.
Immerhin haben iGPU s eine Rechenleistung im Bereich einer GTX 1030, so weit ich richtig gelesen habe. Nartürlich braucht es wie Raff schon schreibt eine Implementierung wenn es hier um Raytracing gehen würde.
Finde das recht interressant.
Unter Windows10 habe ich herausgefunden, kann man in der Systemsteuerung Apps die IGPU zuweisen. Mehr geht noch nicht.

Bin offline.
 
Und wenn man Gemotrie entfernt erhöht man die Raymenge?

Als ob das für deine ursprüngliche Aussage irgendeine Rolle spielt, wie du dir das nun wieder hinbiegen willst.

Aber klar, die Dummbatzen optimieren gar nichts! Die reduzieren einfach nur die Rays. :D

Das sind überhaupt keine Optimierungen.
Wenn man dich das machen ließe, dann wären das wirkliche Optimierungen.
Man schießt die Rays nur noch auf Objekte ab wo man denkt das es den meisten Effekt hat (Bild). In der Szene alles was rosa gekennzeichnet ist. Man kann das auch Effekthascherei nennen.

Man hat in vielen Szenen die Sichtweite der mit Rays gespiegelt Objekte deutlich aufgebohrt, ergo raytraced man teilweise sogar mehr.

Die Entwickler sagen sie haben auch an der Parallelität der rendering und raytracing Prozesse gearbeitet und man nicht einfach nur stupide die Rays reduziert.

Nochmal, bleibe einfach in deinem Universum!

Du glaubst doch nicht ernsthaft ich lasse mich auf eine technische Detail Diskussion ein, das kostet nur unnötig Zeit sich in alles wieder einzuarbeiten.

Aber fege in deinem Universum mal selbst durch. Bei der Menge an Falschaussagen die man mal eben so findet, wird die Dunkelziffer da noch deutlich höher sein. ;)

Drawcalls variieren sich mit der Auflösung!
Und wenn nicht addiert man sie einfach pro Frame.

Das heisst 20 FPS a 5000 sind 100000
Und 40 FPS a 5000 200000 Drawcalls!!

Houh, Houh, Houh...
 
Zuletzt bearbeitet:
Zurück