Nvidia: Neue Raytracing-Methode ermöglicht Millionen dynamischer Lichtquellen mit Echtzeitberechnung

Warum? Gehen die kaputt, wenn aktuelle RTX-Spiele nicht auf AMD laufen? :ugly:

1.) Kann es sein, das dann keine neuen Spiele mit RT für diese alten Karten kommen
2.) Kann es sein, das AMD deutlich schneller ist. Und insbesondere für die AMD-Hardware mehr optimiert werden kann wegen den Konsolen.

Wie gesagt, abwarten, bis die Konsolen und die neue GPU-Gen da ist.
 
Hier gehts um den Vram und hier hab ich noch meinen RAM zwischen SSD und Vram, die Konsolen nicht.
Ich kann gesamt momentan 43GB Daten im RAMs halten, die Konsolen 16 :)

Der PC braucht diesen Zwischenschritt nicht, da einfach mehr Ressourcen vorhanden sind.
RTX braucht in dem Fall die CPU und die greift im Subsystem nicht auf den VRAM zu. Das machen sich die Konsolen doch schon seit langem zu nutze, mit gemeinsamen Pools. Was gemeint war, ist Anteile des Ram/Dram der Konsole als gemeinsamen schnellen Cache zu nutzen und alles andere auf eine M.2 auszulagern. Microsoft verfolgte mit der Xbox schon ähnliche Methoden.

Die Idee für Gamer-PCs kam seinerzeit von Koduri unter Vega, weil man bei den Hardwareressourcen sparen wollte. Du kannst dann einen Teil des RAMs direct der GPU zuweisen. Es geht nicht direkt um die Schnelligkeit oder Latenzen, sondern rein um die Zuteilung von freien Ressourcen in feststehender Größe, weil Anwendungen mit der Größe verfügbarer Ressourcen skalieren. Es kommt dabei zu weniger Zugriffen, weil sich die notwendigen Daten im schnellen Cache befinden.
 
Mit der super(kleiner Scherz am Rande) Beleuchtung fällt aber schnell auf, wie niedrig die Polygonzahl der Objekte ist. Alles wirkt klinisch platt und wie Plastik. Klassisches Bump- und Normalmapping kann da technisch bedingt kaum greifen. Mit Raytracing habe ich zwar Hoffnung, dass die lächerliche Überbeleuchtung vieler Spiele seit Mitte der 2000er Spiele aufhört, aber was Oberflächen angeht habe ich den Eindruck, als müsste man da von Grund auf neu rangehen. Für die nächsten Jahre sehe ich da nur gemischte Rasterizing-Raytracing Ansätze optisch überzeugend(was Echtzeitanwendungen angeht).
Gibt also auch in Zukunft massiv Futter für die klassischen Recheneinheiten und den Videospeicher.
 
RTX braucht in dem Fall die CPU und die greift im Subsystem nicht auf den VRAM zu. Das machen sich die Konsolen doch schon seit langem zu nutze, mit gemeinsamen Pools. Was gemeint war, ist Anteile des Ram/Dram der Konsole als gemeinsamen schnellen Cache zu nutzen und alles andere auf eine M.2 auszulagern. Microsoft verfolgte mit der Xbox schon ähnliche Methoden.

Die Idee für Gamer-PCs kam seinerzeit von Koduri unter Vega, weil man bei den Hardwareressourcen sparen wollte. Du kannst dann einen Teil des RAMs direct der GPU zuweisen. Es geht nicht direkt um die Schnelligkeit oder Latenzen, sondern rein um die Zuteilung von freien Ressourcen in feststehender Größe, weil Anwendungen mit der Größe verfügbarer Ressourcen skalieren. Es kommt dabei zu weniger Zugriffen, weil sich die notwendigen Daten im schnellen Cache befinden.

Das ist eben der Punkt, Konsolen haben den gemeinsamen kleinen Speicher und Lagern auf das langsamste Glied aus (SSD).
Geht am PC der Grafikspeicher aus gehts erstmal in den 10 mal schnelleren RAM und dann erst auf die SSD
Am PC müssen zwar manche Daten doppel vorgehalten werden, doch ist das bei den verfügbaren Systemressourcen kein Problem.

Der RAM eignet sich nunmal deutlich besser im HBCC Einsatz als eine SSD.
 
Jetzt ist Ihre Meinung gefragt zu Nvidia: Neue Raytracing-Methode ermöglicht Millionen dynamischer Lichtquellen mit Echtzeitberechnung
Wenn ich dreißig Jahre zurückdenke und unsere ersten Programierversuch bewerte, mit einer Lichtquelle drei spiegelnde Kugeln zu berechnen, dann dauerte jedes erstellte Bild auf einem 286er in grandiosen 200 x 300 Pixeln Auflösung Stunden. Ja, wir waren absolute Dilettanten, die Rechner waren für heutige Maßstäbe unglaublich langsam und trotzdem zeigt mir diese Demo wieder die explodierende Weiterentwicklung ganz deutlich.

Und auf der anderen Seite kommt sofort die ketzerische Frage: Und, macht es Spiele "besser", ändert sie den Inhalt, die Spannung, die Spieltiefe? Das ganze sehe ich ähnlich zur wissenschaftlichen Tiefe von Diplomarbeiten. Früher, zu meiner Zeit, z.T. noch mit Schreibmaschine geschrieben und wenigen Bildern, haben wir knackige Inhalte gut verständlich und kurz dargestellt. Und heute? Ich lese gerade wieder eine Masterarbeit Korrektur, by the way "Christian, hör auf hier zu lesen und schreibe das verdammte Literaturverzeichnis!"und ich sehe eine wunderschön durchdesignte Arbeit deren Inhalt, dünn und oberflächlich ist.
 
Zuletzt bearbeitet von einem Moderator:
Ich hoffe auf "3080" mit 12 Gb und 3080 Ti mit 16 Gb.


Schön wär's ...

„Die Botschaft hör´ ich wohl, allein mir fehlt der Glaube“


Hoffen und träumen kann man ja (von) sowas.

Schätze aber als potentieller Kunde wird man sich mit 10 GB bei der 3080 zufrieden geben müssen, da sonst die 2080Ti zu schlecht dasteht, als Superhighendprodukt.
Ich könnte mir jedenfalls gut vorstellen, dass Nvidia gewohnt geizig ist, was den Videospeicher angeht. Schaun wir mal und lassen wir uns überraschen.

Also dass ich mir noch mal ne 8 GB Karte kaufe(nach der 1080Ti mit 11 GB), steht für mich nicht zur Diskussion.
Darüber muss ich dann schauen, wie es mit dem Gesamtpaket aussieht.
 
Die Frage ist eher ob DXR AMD unterstützt und ob dann AMD oder NVidia die bessere Umsetzung in der Hardware hat.

Und bis das geklärt ist, bringt es auch nichts RTX-Karten zu kaufen.

Dann möchte ich mal im Gegenzug fragen, warum man sich eine Grafikkarte ohne RTX kaufen sollte? Vielleicht weil man so sicher sein kann, daß RT sowieso nicht funtioniert?
 
Also dass ich mir noch mal ne 8 GB Karte kaufe(nach der 1080Ti mit 11 GB), steht für mich nicht zur Diskussion.
Darüber muss ich dann schauen, wie es mit dem Gesamtpaket aussieht.

Kann mir durchaus vorstellen, dass die 80 CUs Navi 16 GiB DDR6 bekommt. Endlich ist man bei der HighEnd AMD-GPU nicht mehr vom knappen/teuren HBM limitiert.

Dann möchte ich mal im Gegenzug fragen, warum man sich eine Grafikkarte ohne RTX kaufen sollte? Vielleicht weil man so sicher sein kann, daß RTX sowieso nicht funtioniert?

Weil in NAHER Zukunft Karten kommen, die das deutlich schneller und effizienter können ohne den großen Aufpreis.
 
Wenn ich dreißig Jahre zurückdenke und unsere ersten Versuche Programierversuch bewerte, mit einer Lichtquelle drei spiegelnde Kugeln zu berechnen, dann dauerte jedes erstellte Bild auf einem 286er in grandiosen 200 x 300 Pixeln Auflösung Stunden. Ja, wir waren absolute Dilettanten, die Rechner waren für heutige Maßstäbe unglaublich langsam und trotzdem zeigt mir diese Demo wieder die explodierende Weiterentwicklung ganz deutlich.

Und auf der anderen Seite kommt sofort die ketzerische Frage: Und, macht es Spiele "besser", ändert sie den Inhalt, die Spannung, die Spieltiefe? Das ganze sehe ich ähnlich zur wissenschaftlichen Tiefe von Diplomarbeiten. Früher, zu meiner Zeit, z.T. noch mit Schreibmaschine geschrieben und wenigen Bildern, haben wir knackige Inhalte gut verständlich und kurz dargestellt. Und heute? Ich lese gerade wieder eine Masterarbeit Korrektur, by the way "Christian, hör auf hier zu lesen und schreibe das verdammte Literaturverzeichnis!"und ich sehe eine wunderschön durchdesignte Arbeit deren Inhalt, dünn und oberflächlich ist.
Die Rechner waren vor allem für damalige Verhältnisse verdammt schnell.:)

Bei dem Rest können wir nicht helfen, zudem: ich persönlich hasse Korrektur lesen.:D

Kann Raytracing optisch Spiele verbessern, ja aber nicht heute (und so wie es uns verkauft wird), Realismus hin oder her. Einer flachen Storyline hilft das nicht ab. Kann es also optisch Spieltiefe vermitteln, ja kann es...irgendwann. Ersetzt es dabei Renderingmethoden und läuft es gänzlich ohne Shader, nein. Es ist ein Beleuchtungsmodell das die Ausbreitung von Licht simuliert, mehr nicht.

Dann möchte ich mal im Gegenzug fragen, warum man sich eine Grafikkarte ohne RTX kaufen sollte? Vielleicht weil man so sicher sein kann, daß RT sowieso nicht funtioniert?
Heute wenn du das nötige Kleingeld für eine 2080 oder 2080ti übrig hast. Das kann und will nicht jeder.
 
Weil in NAHER Zukunft Karten kommen, die das deutlich schneller und effizienter können ohne den großen Aufpreis.

Das ist auch jeden klar. Aber warum sollte ich jetzt eine VII, oder eine RX 5700XT kaufen? Die können kein RT und schneller sind sie auch nicht. Mit einer RTX Karte habe ich zumindest die Möglichkeit RT zu aktivieren und die Chance, daß das immer performanter wird.
Während ich bei AMD sicher eine neue Karte kaufen muß um RT zu nutzen.
Mir erschließt sich der Vorteil einer non RT Karte nicht.
 
Supervollkomenes, grandios aussehendes RT in RDR2 hätte ich spitze gefunden.

Aber ohne ... sieht's auch spitze aus. :D
 
Minecraft, wegen einer Beta für freie Entwickler? Man sammelt in solchen Phasen Erkenntisse, was sich lohnt und was nicht.

Die Zukunft besteht das Thema betreffend nicht fest, was die Vergangenheit gerade bei Nv oft aufzeigte (PhysX, GSync). Zwischenzeitlich kann man viel Geld für nichts verbrennen und gehört selbst mit potenter Hardware schnell zu Altbestand, siehe Titan V.

"Teuer" ist also überhaupt keine Garantie für Werterhalt und Kompatibilität.
 
Also wenn NVidia wieder seine Finger im Spiel hat, wird die technik eben gekauft und in der nächsten Hardware als beschleunigugn exklusiv eingebaut, was dann neue Hardware und nur auf bestimmten Spielen läuft.
War es jemals anders? nein.
Solange also kein offener Standard mit AMD und Microsoft ausgearbeitet wird, ist das für mich schon mal wieder eine weitere NVidia Totgeburt.
Es spricht ja nichts gegen eine Kooperation, aber eine Entwciklung sollte sich auf auf speziell performancestarke Hardware dafür eingrenzen, der Standard sollte immer offen sein, damit der sich dann auch allgemein durchsetzen kann und man auf lange Sicht Erfolg damit hat udn nicht im Nirgendwo schnell wieder verschwindet.
 
Ich finde es immer erfeulich, wenn die Forschung in technischen Bereichen Fortschritte erziehlt. Natürlich geht es bei der Forschung zunächst um die prinzipielle Machbarkeit, dennoch ist es wahrscheinlich, dass die Spiele in einigen Jahren durch solche Fortschritte profitieren werden.

Was zunächst erstmal bleibt, ist eine Demo die hinter ihren Möglichkeiten zurückbleibt, wie bereits geschildert..
 
Zurück