Nvidia: Neue Raytracing-Methode ermöglicht Millionen dynamischer Lichtquellen mit Echtzeitberechnung

Die Karten sind auf jeden Fall nicht einfach kaputt und funktionieren auch ohne RTX ja ganz ok :ugly:

Ja, das stimmt, ich wollte eigentlich ne 5700XT holen, da kamen dann zwei Sachen, welche mich gestört haben. MSI hat da kein Silentbios verbaut und zuviel Last wurde mir da auch noch aufgenommen.

Die Gaming X der 2060 super haben se dagegen super hingestellt. Verdammt leise, nimmt "wenig" Last auf und liefert ne gute Peformance ab. Aber RT brauch ich halt nicht. :D
 
Wenn der Speicher immer mehr zum limitierenden Faktor wird, sollte vielleicht langsam das Design der Grafikkarte an sich überdacht werden und ähnlich bei beim Mobo Plätze für austauschbaren Ram eingebracht werden. Dann könnte die Base-Variante mit 8 oder 16GB verkauft werden und wer mehr bräuchte könnte noch 1 - 3 Riegel nachkaufen und upgraden. Wär doch mal ne sinnvolle Entwicklung
 
Ich warte da auch noch ab, bis sich RT in den Spielen durchgesetzt hat.
Hab eh erst neue Karten eingebaut.

In 3 Jahren kommt dann was neues.

Bis jezt hatte es locker drei Generationen gebraucht bis neue Funktionen gut & praxisnah funktionierten.
Wäre dann mit der RTX 40X0 soweit was dank AMD&NV (bzw. manges echter Konkurenz) auchin 3 Jahren der Fall wäre.
Past allso 1A. :ugly:
 
Wenn der Speicher immer mehr zum limitierenden Faktor wird, sollte vielleicht langsam das Design der Grafikkarte an sich überdacht werden und ähnlich bei beim Mobo Plätze für austauschbaren Ram eingebracht werden. Dann könnte die Base-Variante mit 8 oder 16GB verkauft werden und wer mehr bräuchte könnte noch 1 - 3 Riegel nachkaufen und upgraden. Wär doch mal ne sinnvolle Entwicklung

Das geht nicht. Das macht die Anbindung des Speichers nicht mit.
Im Gegenteil. Mit HBM rückt der Speicher noch näher an die GPU.


Bis jezt hatte es locker drei Generationen gebraucht bis neue Funktionen gut & praxisnah funktionierten.
Wäre dann mit der RTX 40X0 soweit was dank AMD&NV (bzw. manges echter Konkurenz) auchin 3 Jahren der Fall wäre.
Past allso 1A. :ugly:

Bis dahin ist dann hoffentlich auch AM5 / S1700 mit DDR5 da.

Fehlt nur noch ein bezahlbarer 5K Monitor <= 36". ;)
 
Ich würde sagen, dass ihnen genau das nicht gelungen ist. Die Stärke von Raytraycing-Beleuchtung ist der realistische, detaillierte Gesamteindruck, aber diese Demo wirkt ausgesprochen unnatürlich. Auch in Bezug auf Schattendetails und -verteilung. Gerade die spannendste Frage "gehen die Vereinfachungen mit einem Verlust an Bildqualität einher?" lässt sich so praktisch nicht beantworten.

Das stimmt wohl. Die Szenen sind schon arm an Details. Von daher eventuell sogar peinlich sowas nach Epic aufzutischen. Die Unreal Engine 5 Demo strotzt ja nur so an Detail mit ihren Billionen Dreiecken trotz global Illumination. Die Nvidia Demo kommt mit sehr wenig Details daher, weshalb die Frage berechtigt ist, ob die Lichter die Leistung der Graka gefressen haben und nicht mehr genügend Reserven für Details da waren. Von daher rudere ich gerne etwas zurück... :-)
 
Und immer noch ist keine Karte dazu in der Lage es vernünftig darzustellen.

Es wird mit etwas Werbung gemacht, steht auch dick auf der Verpackung, aber willst es im Spiel komplett nutzen knickt die Karte voll ein. Daher einfach nur sinnlos der ganze kram.

Lief damals beim Auto wahrscheinlich genauso:

"Es wird mit etwas Werbung gemacht, aber willst du es nutzen qualmt es viel, ist laut und langsamer als die Pferdekutsche. Daher einfach nur sinnlos der ganze Kram"

Das nennt sich Innovation, und wenn keiner was tut, dann passiert auch nichts. NVidia ist vorgeprescht, AMD geht jetzt mit, Intel wird einsteigen. Mehr und mehr Geld wird investiert werden, Forschung und Entwicklung wird stattfinden -> das wird zu Fortschritt führen, und irgendwann kommt der Zeitpunkt wo ein gesamtes Spiel / Anwendung per Raytracing laufen kann. Was NVidia jetzt liefert kann man mit eingeschränktem Horizont als Test am User bewerten, aber niemand kann Raytracing drölf Jahre geschlossen entwickeln und erst dann auf den Markt klatschen wenn es 16K mit 300 FPS liefert. Entwicklung und Fortschritt ist immer Iteration - Dinge werden von Mal zu Mal besser.

Ehrlich gesagt bin ich froh, dass es Leute gibt, die über ihren Tellerrand herausblicken und Dinge in Angriff nehmen und damit etwas tun - hätten alle Menschen deine Denkweise, würden wir immer noch in Höhlen hocken.
 
Zuletzt bearbeitet:
Wenn der Speicher immer mehr zum limitierenden Faktor wird, sollte vielleicht langsam das Design der Grafikkarte an sich überdacht werden und ähnlich bei beim Mobo Plätze für austauschbaren Ram eingebracht werden. Dann könnte die Base-Variante mit 8 oder 16GB verkauft werden und wer mehr bräuchte könnte noch 1 - 3 Riegel nachkaufen und upgraden. Wär doch mal ne sinnvolle Entwicklung

Du meinst das man da noch Plätze frei hat um einfach auf der gpu weiteren vram draufstecken kann. Wäre da echt ne gute Idee. Dann hätte keiner mehr vram sorgen. Einfach 8 oder mehr GB auf die gpu drauf stecken. Machen wir doch gleich alles modular. Das heißt haben sie zu wenig Kerne bzw zu wenig shader, dann wechseln sie doch den Chip und schwups haben sie fast doppel so viele davon. Das wäre es doch. Dann hätte es doch nvidia und die anderen Konsorten leichter was neues rauszubringen. Was hält ihr denn von dieser ganzen Idee?
 
Du meinst das man da noch Plätze frei hat um einfach auf der gpu weiteren vram draufstecken kann. Wäre da echt ne gute Idee. Dann hätte keiner mehr vram sorgen. Einfach 8 oder mehr GB auf die gpu drauf stecken. Machen wir doch gleich alles modular. Das heißt haben sie zu wenig Kerne bzw zu wenig shader, dann wechseln sie doch den Chip und schwups haben sie fast doppel so viele davon. Das wäre es doch. Dann hätte es doch nvidia und die anderen Konsorten leichter was neues rauszubringen. Was hält ihr denn von dieser ganzen Idee?

Auch wenn es hier einige PC Besitzer nicht hören wollen. Vielleicht ist der Weg der neuen Konsolen eventuell doch der bessere. Schnelle SSDs die den Speicher innerhalb einer halben Sekunde füllen, so das nicht mehr so viele Assets in den Speicher geladen werden müssen, die eventuell nie abgefragt werden...
 
Dann wollen wir doch mal hoffen, dass die neuen Karten deutlich mehr VRam bekommen und nicht nur 2 Gb mehr wie schon mehrfach prognostiziert.
Und dann findest du eine schnöde Resamplingmethode besser, die einfach nur "schätzt" und was hat das noch mit Echtzeit und Realismus zu tun, wenn ich Millionen künstliche Lichtquellen einfügen kann, um Szenen dann neben RT sinnhaft ausleuchten zu können? Das ist doch nichts weiter als bekanntes (Frickel-) Rendering wie GI oder SSR, auch dort kamen schon Tracer in einer Lightmap zum Einsatz.

Minecraft macht vor allem optisch visuell einen Sprung, weil es nicht massiv durch Raytracing aufgewertet wird (da kannst du oft kein hohes Qualitätslevel auswählen), sondern weil es endlich mal aus seinem DX-Retrolook in die neuerliche Welt überführt wurde. Auf der anderen Seite gibt es auch Leute die meinen das ist nicht mehr Minecraft, weil es den Retrolook ausmachte.

Die vorgestellte Methode ist nichts weiter ein als Kopieralgorithmus der den Impact von RT weiterhin abfängt, weil die Rechenleistung dafür fehlt und das Marketing weiterhin auf der Suche ist, den Early Adoptern teure Hardware verkaufen zu können. Wen ich das schon wieder lese, 2080ti oder Titan, dann kann man sich vorstellen wie das auf dem Mainstream läuft.

Vor allem ist RTX mittlerweile gerade zu ein riesenhaftes Gefrickel, wo alle Nase lang eine neue Idee daraus erwächst die Entwickler in welchem Zeitraum berücksichtigen sollen und wozu? Es fehlt die Kontinuierlichkeit in der Entwicklung, ein vorgegeben Pfad und ein gemeinsamer Standard. Da AMD anscheindend an einem eigenen Ökosystem bastelt (bestehend aus Konsole, PC und Pro) geht den Leuten langsam der Hintern auf Grundeis, weil sich dann RTX nicht durchsetzen muss, wie es DKK007 eigentlich gut beschreibt aber es nicht direkt ansprechen wollte, weils sonst hier mit der großen Keule gibt.

Ist doch traurig das solche technikbegeisterten Leute wie er nicht RTX kaufen, weil ihnen das Vertrauen in den Nutzen fehlt!

Nur mal so, RT und das läuft alles über die Shader!

Ich hoffe auf "3080" mit 12 Gb und 3080 Ti mit 16 Gb.
Na dann, hoffe mal weiter. Frage mich gerade wie man das an 320bit oder 35xbit anbinden will. It's not a bug, it's a feature....?:D
 
Zuletzt bearbeitet von einem Moderator:
12 GiB ist sowohl mit 196 Bit, als auch mit 392 Bit Anbindung möglich.



Die RTX-Karten sind bei Turing einfach zu teuer. ;)

Interessant finde ich Raytracing schon.

Tya das wird auch noch teuer bleiben weil es erstens sehr aufwendig für den hersteller ist und zweites wohl auch für die Entwickler sehr aufwendig und auch kostspielig sein wird um dies zu entwickeln. Nicht alle Entwickler werden bereit sein soviel kosten, manpower und Zeit in so was entwickeln um so was zu schaffen.
Naja wenn die Konsolen doch nicht diese Technik mit raytracing vorantreiben werden was dann. Wenn nicht dann könnte raytracing ne nische bleiben. Denn wenn es sich nicht weiter verbreitet, warum sollte man dann Interesse dran haben.
Und man weiß ja nicht wieviele sich ne rtx Grafikkarte von nvidia sich gekauft haben. Nun mir kann es ja egal sein, denn meine Erwartungen sind bei Null angelangt.
 
RTX ist keinerlei Gefrickel, sondern eine ziemlich gut funktionierende SDK, die einfach nur die DXR-Schnittstelle in DX12 nutzt, bzw. bald dann eben DX12U.


Nö, AMD wird auch DXR unterstützten:
Raytracing: So werden Strahlen von GPUs beschleunigt: Raytracing bei AMD und Fazit - ComputerBase

AMD hat auch gar nicht die Möglichkeit, einen parallelen Standard durchzusetzen. Ich sage nur Mantle.
Was wird denn in dem Artikel gesagt (du denkst ich kenne den nicht?), NULL reine Spekulation. Man ist sich nicht mal sicher welche Stufe in Hardware unterstützt wird. Und falls es dir entgangen ist, Tier_2 ist schon ein deutlicher Umbruch. DXR ermöglicht auf Basis von directX RT Algorithmen in Hardwarenähe auszuführen, schreibt aber in keiner Weise vor in welcher Methode, wie die unterschiedlichen Stacks in der Entwicklung von RTX aufzeigen und an diesem Beispiel wunderbar belegen. Es sind vor allem gemeinsame Vorgaben für die Hardware, die man erfüllen muss um directX als Standard auszuführen, optional ist immer möglich und so war das schon immer.


Vulkan ist also Müll? Klar...nächstes Mal frage ich dich!
 
Falsch, für den Spieleentwickler ist RTX deutlich preiswerter, als zig Artists nur damit zu beschäftigen, die Lichteffekte zu faken

Was geht denn bei dir ab? Schlecht geschlafen? Wo steht das denn?

Deine Lese- und Sozialkompetenz ist aber mal auf nem unterirdischen Niveau.
O.k. ich verstehe. Vllt. mal ein Rat von mir: "nicht zuweit aus dem Fenster lehnen", Marketingfolien ablesen und beschäftige dich in dem Zusammenhang dieser News mit Pathspace und weiterer Methodik.

Wo Bitte ist RTX für Entwickler preiswerter, du musst althergebrachtes Rendering und RT berücksichtigen, und alles andere fängt schon bei Neuanschaffung der Hardware an.
 
Auch wenn es hier einige PC Besitzer nicht hören wollen. Vielleicht ist der Weg der neuen Konsolen eventuell doch der bessere. Schnelle SSDs die den Speicher innerhalb einer halben Sekunde füllen, so das nicht mehr so viele Assets in den Speicher geladen werden müssen, die eventuell nie abgefragt werden...

Warum sollte ich mit 7GB/s und 0.1ms Latenz im Idealfall zufriedengeben, wenn ich 59GB/s 65ns Latenz RAM im System habe?
Btw der RAM ist trotzdem extrem viel zu lahm :)
 
Ja und genau deshalb wird RTX dann auch genauso auf den AMD-Karten mit DXR-Support laufen.

Alleine durch die XBox kann es sich AMD gar nicht leisten, DXR nicht zu unterstützen.

Die Frage ist eher ob DXR AMD unterstützt und ob dann AMD oder NVidia die bessere Umsetzung in der Hardware hat.

Und bis das geklärt ist, bringt es auch nichts RTX-Karten zu kaufen.
 
In den Ram schiebst du es sowieso, weil das gar nicht anders geht.

Hier gehts um den Vram und hier hab ich noch meinen RAM zwischen SSD und Vram, die Konsolen nicht.
Ich kann gesamt momentan 43GB Daten im RAMs halten, die Konsolen 16 :)

Der PC braucht diesen Zwischenschritt nicht, da einfach mehr Ressourcen vorhanden sind.
 
Zurück