News AMD: Neues Patent verspricht Raytracing-Verbesserungen [Gerücht]

Man könnte auch behaupten, dass sie den Fortschritt ausbremsen ;)
Würde AMD mehr RT Power liefern, wären wir heute vermutlich weiter. So muss man immer Rücksicht auf langsamere Hardware nehmen.
Unabhängig von RT haben Konsolen jeher die Entwicklung am PC ausgebremst. Das als was positives aufzuführen ist in meinen Augen realitätsfremd.

Wo habe ich gesagt, dass das positiv ist? Es ist aber nunmal so wie es ist. Nvidia ist aber auch darauf bedacht den Konkurrenten klein zu halten. So gesehen kannst du auch denen die Schuld geben. Oder eben normal Kapitalismus halt.
 
Dir ist klar, dass dort nur Billo-Raytracing getestet wurde und kein Pathtracing?



Realistisch ist es dann eher so hier zu sehen (Bsp. anhand von CP 2077)

1080p

Anhang anzeigen 1430844
UHD
Anhang anzeigen 1430845


Und wenn man jetzt noch Frame-Generation zuschaltet kann man die Performance quasi nochmals verdoppeln.
Das zeigt auch auf, das PT auch auf NV nicht performant läuft, ohne upscaling und künstlich hinzugerechneten frames. ;-)

Die Leistung für "richtiges" RT steht im Grundsatz ohne Tricks nicht zur Verfügung, da bedarf es sicherlich noch zwei, eher drei Generationen.

MfG
 
Pathtracing is auch nur Raytracing und hat damit, welche "Effekte" genutzt werden nix zu tun.

Pathtracing verfolgt einfach nur die Strahlen weiter nachdem sie was getroffen haben und eben bouncen. Raytracing macht das nicht. Und darum ist Pathtracing eben deutlich anspruchsvoller, aber eben auch optisch deutlich besser. Technisch ist es aber immer noch "Raytracing", eben Strahlenverfolgung.

"Ray tracing consists of a single hit/intersection, while in path tracing, the ray bounces off to the next object in sight, acting as a second independent ray and then a third, and so on. The impact of path tracing is most prominent in indoor scenes, with exteriors also getting a decent uplift at night."

Und Pathtracing nutze ich auch via Reshade RTGI, weil das nix anderes ist. Und das performt trotz dass keine Raytracing Hardware genutzt wird, sogar ausgesprochen gut.

Der Grund wieso Pathtracing in Cyberpunk so gut auf Nvidia und so schlecht auf AMD Karten performt ist einfach, dass nvidia hier klar auf die eigenen Karten optimiert. Technisch kann das jede AMD Karte genauso gut. Ist einfach pures Marketing seitens nvidia.

Ne 3090 wird deswegen trotzdem ne 7900XTX in raytracing in Portal RTX abziehen, weils eben auf nvidia optimiert ist. Wir wissen aber, dass beide die gleiche Performance haben in Spielen mit Raytracing wenn korrekt optimiert wird und nicht nur auf nvidia.

Da sieht man eben mal sehr schön, welche Auswirkungen es hat wenn ein Hersteller ganz gezielt auf die eigenen Karten optimiert.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Klar jedes RT-Game das (massiv) schneller auf Nvidia läuft ist natürlich immer voll NV optimiert und hat nix mit deren hardware zu tun, glaubst wohl selber nicht...
Aber sonst kann ja AMD Mal so eine pathtracing Demo Releasen wenn deren hardware so super ist...
Das zeigt auch auf, das PT auch auf NV nicht performant läuft, ohne upscaling und künstlich hinzugerechneten frames. ;-)

Die Leistung für "richtiges" RT steht im Grundsatz ohne Tricks nicht zur Verfügung, da bedarf es sicherlich noch zwei, eher drei Generationen.

MfG
Computergrafik bedeuted immer Kompromisse auch bei Raster... Auflösung, Texturen, Geometrie, Effekte... Warum RT dann perfekt sein muss erschließt sich mir nicht
 
Das zeigt auch auf, das PT auch auf NV nicht performant läuft, ohne upscaling und künstlich hinzugerechneten frames. ;-)

Die Leistung für "richtiges" RT steht im Grundsatz ohne Tricks nicht zur Verfügung, da bedarf es sicherlich noch zwei, eher drei Generationen.

MfG
Falsch. Was du jetzt siehst ist die Zukunft. Auch in 3 Generationen. Überleg doch mal. Die Spiele bleiben doch auch nicht stehen und hauen immer mehr Features rein. DLSS und co sind die Zukunft und werden weiter verbessert.
 
Falsch. Was du jetzt siehst ist die Zukunft. Auch in 3 Generationen. Überleg doch mal. Die Spiele bleiben doch auch nicht stehen und hauen immer mehr Features rein. DLSS und co sind die Zukunft und werden weiter verbessert.
Dlss3 und fg sind, wenn man es polemisch ausdrückt, nichts weiter als Taschenspieler Tricks um zu kaschieren, dass die native Leistung von Grafikkarten nicht ausreicht um RT darzustellen und das wird sich erst dann nachhaltig ändern können, wenn die Rohleistung zur Verfügung steht. Die oben genannten Techniken sind auch nur quantitativ ein Gewinn, durch mehr frames aber qualitativ ein Verlust, da sie nach Definition Verlust behaftete Techniken sind und Bilder nur im Nachhinein verbessern. Es gibt genau zwei Ansätze verlustfrei und Verlust behaftet, mehr nicht. Ich habe auch nicht abgestritten hier einen Blick in die Zukunft werfen zu können, aber es ist eben nur ein verschwommenes Bild und noch nicht die Zukunft, denn dafür bedarf es deutlich mehr an Rohleistung.

MfG
 
Dlss3 und fg sind, wenn man es polemisch ausdrückt, nichts weiter als Taschenspieler Tricks um zu kaschieren, dass die native Leistung von Grafikkarten nicht ausreicht um RT darzustellen und das wird sich erst dann nachhaltig ändern können, wenn die Rohleistung zur Verfügung steht. Die oben genannten Techniken sind auch nur quantitativ ein Gewinn, durch mehr frames aber qualitativ ein Verlust, da sie nach Definition Verlust behaftete Techniken sind und Bilder nur im Nachhinein verbessern. Es gibt genau zwei Ansätze verlustfrei und Verlust behaftet, mehr nicht. Ich habe auch nicht abgestritten hier einen Blick in die Zukunft werfen zu können, aber es ist eben nur ein verschwommenes Bild und noch nicht die Zukunft, denn dafür bedarf es deutlich mehr an Rohleistung.

MfG
Rohleistung schön und gut aber wie gesagt, die Spiele stehen auch nicht still und werden auch die nächsten Gens klein bekommen. Das ist wie die nächste Gen wird nativ UHD 120fps darstellen. Das hört man jedes Jahr in jeden 2. Thread. Klar wenn ich immer das gleiche Spiel zocke. Nvidia setzt nun mal voll auf KI. Vllt verstehe ich dich da auch falsch?! Es ist und bleibt ein Wettrennen. Mir persönlich ist es egal ob die Bilder echt sind oder von einer KI. Solang ich das Gefühl hab, es fühlt sich richtig an, kann es gern bleiben.
 
Ich sehe das Problem bei der ki Forcierung darin, dass das Augenmerk von der technischen Weiterentwicklung immer mehr weggeht, und wenn man sich die aktuellen Rohleistungen im Vergleich zu den Vorgängern anguckt finde ich die Bedenken auch nicht so unbegründet. Ich gebe sicherlich nicht 2000 € plus für eine neue Grafikkarte aus, die nur dank verlustbehafteter KI Algorithmen ein bisschen schneller als die Vorgänger Generation ist, siehe Rasterleistung. Für mich wird daher RT erst dann richtig interessant, wenn es ausreichend von der Hardware dargestellt werden kann und es nicht solcher Tricks bedarf. Cyberpunk/PT ist für mich auch ein gutes Beispiel, das sieht schon schick aus, ohne Frage aber ich finde es auch nicht unbedingt realistisch, das ist einfach drüber, wie so eine Art Comic. Was ich damit sagen will, PT ist zwar technisch gesehen ziemlich gut aber wenn man es so übertrieben einsetzt eben auch nur ein Stilmittel, was gefallen kann oder eben nicht.

Grundsätzlich wird und muss es wie bei DirectX laufen, denn erst wenn man alle mitnimmt kann man eine neue Technik Generation etablieren, unabhängig davon ob man nun ki-Algorithmen und nachträgliches Bearbeiten mag oder nicht. Daher spricht doch eher einiges für FSR als für dlss und FG, es sei denn Nvidia ändert fundamental ihre Strategie dahin gehend.

MfG
 
verlustbehafteter KI Algorithmen ein bisschen schneller als die Vorgänger Generation ist, siehe Rasterleistung.
Das stimmt ja schonmal nicht.
Erstens ist die Rasterleistung der neuen GPU's auch ohne Upscaling wesentlich höher (siehe 3090 => 4090, 3080 => 4080 usw). Bei der RTX 4060 wiederum stimmt das, ja.
Und zweitens ist die Darstellungsqualität mit KI Algorithmen oftmals besser als die native.
 
Das stimmt ja schonmal nicht.
Erstens ist die Rasterleistung der neuen GPU's auch ohne Upscaling wesentlich höher (siehe 3090 => 4090, 3080 => 4080 usw). Bei der RTX 4060 wiederum stimmt das, ja.
Und zweitens ist die Darstellungsqualität mit KI Algorithmen oftmals besser als die native.
Wenn ein Renderbild auf eine bestimmte Auflösung festgelegt ist und man ändert diese im Nachhinein oder fügt Pixel hinzu, dann ist es per Definition Verlust behaftet.

MfG
 
Das zeigt auch auf, das PT auch auf NV nicht performant läuft, ohne upscaling und künstlich hinzugerechneten frames. ;-)
Richtiges Ray Tracing wird ohne Upscaler eine sehr lange Zeit nicht flüssig laufen, aber das muss es auch nicht, schließlich haben wir sie ja und es funktioniert sehr gut.
Verstehe also nicht, weshalb du da wieder ein Haar in der Suppe suchst. Nur weil AMD es nicht gut kann, muss man es Nvidia jetzt auch absprechen, weil man auf DLSS angewiesen ist?

Dlss3 und fg sind, wenn man es polemisch ausdrückt, nichts weiter als Taschenspieler Tricks um zu kaschieren, dass die native Leistung von Grafikkarten nicht ausreicht um RT darzustellen und das wird sich erst dann nachhaltig ändern können, wenn die Rohleistung zur Verfügung steht. Die oben genannten Techniken sind auch nur quantitativ ein Gewinn, durch mehr frames aber qualitativ ein Verlust, da sie nach Definition Verlust behaftete Techniken sind und Bilder nur im Nachhinein verbessern.
Das ist grundsätzlich richtig, aber mimimi auf sehr hohem Niveau. Beim Rastern ist nichts perfekt und es wird getrickst wo es nur geht. Als RT rauskam, haben so viele User gesagt, dass sie keinen Unterschied sehen bzw. die fake Beleuchtung besser finden und die war eben auch fake und getrickst.
Warum genau soll das schlecht sein oder überhaupt diskussionwürdig?
Bevor wir DLSS und RT hatten, gab es diese Diskussionen auch nicht.
 
Zuletzt bearbeitet:
Richtiges Ray Tracing wird ohne Upscaler eine sehr lange Zeit nicht flüssig laufen, aber das muss es auch nicht, schließlich haben wir sie ja und es funktioniert sehr gut.
Verstehe also nicht, weshalb du da wieder ein Haar in der Suppe suchst. Nur weil AMD es nicht gut kann, muss man es Nvidia jetzt auch absprechen, weil man auf DLSS angewiesen ist?
Kannst du mal damit aufhören ständig aus einer Debatte ein Klassenkampf zu machen? Ich habe das sehr allgemein gehalten, mir geht es dabei, nicht so wie dir, um AMD oder Nvidia, sondern um Raytracing und das die reine Hardware Leistung noch weit hinter dem ist wo sie sein müsste, um Raytracing vernünftig und ohne, Achtung Polemik, auf Taschenspieler Tricks angewiesen zu sein.

MfG
 
...sondern um Raytracing und das die reine Hardware Leistung noch weit hinter dem ist wo sie sein müsste, um Raytracing vernünftig und ohne, Achtung Polemik, auf Taschenspieler Tricks angewiesen zu sein.
Und meine Frage an dich war: Warum muss RT ohne Tricks wie DLSS auskommen?
In meinem Beitrag hatte ich dir geschrieben, dass Rasterization nur aus Taschenspielertricks besteht und darüber hat sich, vor RT, so gut wie niemand beschwert. Seitdem wir DLSS + RT nutzen können, wird das aber rauf und runter diskutiert.
 
Zuletzt bearbeitet:
Und meine Frage an dich war: Warum muss sie das?
In meinem Beitrag hatte ich dir geschrieben, dass Rasterization nur aus Taschenspielertricks besteht und darüber hat sich, vor RT, so gut wie niemand beschwert. Seitdem wir DLSS + RT nutzen können, wird das aber rauf und runter diskutiert.
Weil man mit Taschenspieler Tricks nur begrenzt weitermachen kann und irgendwann einem die Tatsache einholt, dass die Hardware nicht ausreichend ist. Und wenn man den Fokus auf Taschenspieler Tricks legt, dann rückt die Hardware Weiterentwicklung zurück und die Situation wird sich nicht bessern sondern eher schlimmer werden und genau deswegen sollte und muss wieder mehr Fokus auf Hardware Leistung gelegt werden aber es ist natürlich auch einfacher zu monetarisieren, wenn man weniger investieren muss und durch solche Verfahren mehr Leistungen suggeriert, denn nichts anderes ist es unter dem Strich.

MfG
Das ist doch irrelevant sofern die Bildqualität besser ist als die native.
Das native Bild mit TAA ist oftmals nur verwaschen.
Gäbe es mehr Roheistung bräuchte man keine Effekte um Treppchen zu vermeiden, denn dann könnte man roh in 8k Bilder darstellen und aufgrund der steigenden dpi-zahl wäre es unnötig weitere Verfahren zur Bildverbesserung zu nutzen. Dazu gäbe es den netten Nebeneffekt, da mehr Rohleistung, das Raytracing auch besser laufen würde, was aktuell nun einmal nur mit besagten Verlust behafteten Verbesserungsverfahren geht. Und ich sehe auch ein Problem in zukünftige hardware Entwicklungen, wenn der Fokus mehr in Richtung Ausgleich statt in besserer Hardware gesteckt wird.

MfG
 
Wenn ein Renderbild auf eine bestimmte Auflösung festgelegt ist und man ändert diese im Nachhinein oder fügt Pixel hinzu, dann ist es per Definition Verlust behaftet.
Ja und nein. DLSS verwendet mehrere vergangene Frames, um das Bild zu generieren.
Wenn wir jetzt bspw. von 4K (3840x2160) ausgehen, dann hast du 8.294.400 Pixel pro Frame.
Bei 4K rendert DLSS mit QHD (2.560x1.440), also 3.686.400 Pixel. Da es aber auf ältere Frames zurückgreifen kann erhöht sich der Pixelcount bei 4 Samples auf über 14.745.600. Wie du siehst hat DLSS also tatsächlich auf viel mehr Informationen/Pixel zugriff und durch die Bewegung in den verschiedene Frames können Objekt klarer zum Vorschein treten, weshalb das alleine auch nochmal zur Qualität beiträgt. Im Endeffekt kann DLSS also eine bessere Qualität als nativ liefern. Da ist also nichts verlustbehaftet.


Weil man mit Taschenspieler Tricks nur begrenzt weitermachen kann und irgendwann einem die Tatsache einholt
Und warum wird sowas erst jetzt diskutiert? Seit anbeginn der Computergrafik wird getrickst was das Zeug hält und damals hat sich niemand daran gestört, auch du nicht.
Also warum jetzt?
Vor allem, da DLSS und RT mehr Probleme/Tricks lösen als zu schaffen (Fake Spiegelungen, Cubemaps, Screen Space Reflections etc.).

Und wenn man den Fokus auf Taschenspieler Tricks legt, dann rückt die Hardware Weiterentwicklung zurück und die Situation wird sich nicht bessern sondern eher schlimmer werden und genau deswegen sollte und muss wieder mehr Fokus auf Hardware Leistung gelegt werden aber es ist natürlich auch einfacher zu monetarisieren, wenn man weniger investieren muss und durch solche Verfahren mehr Leistungen suggeriert, denn nichts anderes ist es unter dem Strich.
Das ist Mumpitz, da man schon immer tricksen musste. Vor RT/DLSS mehr als jetzt und auch da blieb die Entwicklung nicht stehen.
Die Entwicklung hängt auch nicht von den Tricks ab, sondern von der Konkurrenz.
Als AMD keine wirkliche Konkurrenz darstellte, hat sich Intel auf seinen Lorbeeren ausgeruht. Tricks spielten hier keine Rolle.

Gäbe es mehr Roheistung bräuchte man keine Effekte um Treppchen zu vermeiden, denn dann könnte man roh in 8k Bilder darstellen und aufgrund der steigenden dpi-zahl wäre es unnötig weitere Verfahren zur Bildverbesserung zu nutzen. Dazu gäbe es den netten Nebeneffekt, da mehr Rohleistung, das Raytracing auch besser laufen würde, was aktuell nun einmal nur mit besagten Verlust behafteten Verbesserungsverfahren geht. Und ich sehe auch ein Problem in zukünftige hardware Entwicklungen, wenn der Fokus mehr in Richtung Ausgleich statt in besserer Hardware gesteckt wird.
Du redest jetzt schon von 8K, aber kaum jemand kann sich 4K leisten. Die Monitore sind schweineteure und die Hardware ebenfalls.
Bevor wir 8K genießen können, dauert es noch sehr lange. Du vergisst in deiner Argumentation auch eine Sache: Die Grafik entwickelt sich ebenfalls weiter und wird anspruchsvoller. So viel Rohpower kann man gar nicht bieten um beides abzudecken. Es gibt physikalische grenzen.

Die 4090 ist 60% schneller als die 3090 TI: https://www.pcgameshardware.de/Gefo...t-Benchmarks-RTX-4090-vorbestellen-1404846/3/
Und selbst das reicht nicht ansatzweise für 8K Raster. Was du da forderst ist realitätsfremd. Mal ganz davon ab, dass fast niemand 8K nutzt.

Ich begrüße DLSS und FG, weil es die Bildqualität verbessert, den CPU Bottleneck rausnimmt und meine Hardware dabei wesentlich kühler und ernergiesparsamer läuft. Es hat, wenn es ordentlich implementiert wurde, nur Vorteile.
 
Zuletzt bearbeitet:
Gäbe es mehr Roheistung bräuchte man keine Effekte um Treppchen zu vermeiden, denn dann könnte man roh in 8k Bilder darstellen und aufgrund der steigenden dpi-zahl wäre es unnötig weitere Verfahren zur Bildverbesserung zu nutzen. Dazu gäbe es den netten Nebeneffekt, da mehr Rohleistung, das Raytracing auch besser laufen würde, was aktuell nun einmal nur mit besagten Verlust behafteten Verbesserungsverfahren geht. Und ich sehe auch ein Problem in zukünftige hardware Entwicklungen, wenn der Fokus mehr in Richtung Ausgleich statt in besserer Hardware gesteckt wird.

MfG
Aber die Rohleistung steigt doch bereits stark, siehe Unterschied zwischen Ampere und Lovelace.
Auch ökologisch ist eine native 8K Auflösung Unsinn, man verbraucht Unmengen an Strom (z.Bsp. 450 Watt oder gar 600 Watt bei einer 4090) um dann eine Bildqualität zu erreichen die möglicherweise schlechter als 8K DLSS Performance ist. Das macht keinen Sinn.
 
Wenn ein Renderbild auf eine bestimmte Auflösung festgelegt ist und man ändert diese im Nachhinein oder fügt Pixel hinzu, dann ist es per Definition Verlust behaftet.

MfG
Kann kann man ja auch Konsole gar nicht mehr zocken. Da wird Heutzutage seltens Nativ ausgegeben. Schon allein wenn per TAAU in Engine dann 1200-1600P auf 2160p hochgeblasen werden. Jede geringere Renderauflösung die nicht exakt 3840x2160p entspricht wird auf heutigen UHD-TV dann per Uscaler verändert.
Mal davon ab das interne Rendereffekte auch ganz andere Auflösung haben als der restliche Spieleoutput.

Es wird also immer irgendwo "getrickst" weil nie alles pixelgenau berechnet wird. Allein wenn Techniken wie VRS zum Einsatz kommen oder unterschiedliche Texturqualitätsstufen. Nicht jede Holzkiste hat die gleiche "Qualität" wie der Hauptcharakter.

Wer mit First Person Shooter wie Redfall mit 30fps keine Probleme hat der sollte auch mit Upscaler(DLSS, FSR, TAAU) oder FG zurecht kommen. ^^

Theorie ist halt immer die eine Sache aber es zählt ja mehr das Gesamtergebnis in der Praxis. Wenigsten Leute werden 48MP RAW Fotos benötigen und auch mit Verlustbehafteten zurecht kommen. Wozu also die "Rohleistung" nur in Auflösung verschwenden? Übertrieben ausgedrückt sieht Minecraft in 16k und 120fps dennoch nicht besser aus als TLoU in 1440p/60 Bilder.
Gute Optik setzt sich aus verschiedenen Komponenten zusammen.

Man kann also ziemlich darauf wetten dass manche Leute in Blindtest einen natives Bild von guten FSR/DLSS nicht wirklich unterscheiden können. Wie mit komprimiertet Musik. Ab gewissen Grad brauchst Fledermausohren um noch Nuancen zu unterschieden.
 
Gäbe es mehr Roheistung bräuchte man keine Effekte um Treppchen zu vermeiden, denn dann könnte man roh in 8k Bilder darstellen und aufgrund der steigenden dpi-zahl wäre es unnötig weitere Verfahren zur Bildverbesserung zu nutzen.
Es lebe die Ineffizienz und Energieverschwendung durch unnötige Brute-Force-Leistung, auch wenn man die Unterschiede mit der Lupe suchen muss, gell?

Vermutlich verzichtest du auch auf jegliche komprimierten Videocodecs und speicherst einen Zwei-Stunden-Film als 2 - 8 TB große Datei, je nach Auflösung. ;-)
 
Zurück