News AMD: Neues Patent verspricht Raytracing-Verbesserungen [Gerücht]

Es lebe die Ineffizienz und Energieverschwendung durch unnötige Brute-Force-Leistung, auch wenn man die Unterschiede mit der Lupe suchen muss, gell?

Vermutlich verzichtest du auch auf jegliche komprimierten Videocodecs und speicherst einen Zwei-Stunden-Film als 2 - 8 TB große Datei, je nach Auflösung. ;-)
Nach der Logik dürften Fotografen nicht im raw Format fotografieren also ist das natürlich Käse. Ich habe ja auch schon gesagt wo das Problem liegt, du kannst das gerne nachlesen oder auch nicht ist mir schnuppe, ich muss mich ja hier zum Glück nicht rechtfertigen. :-)

MfG
 
Nach der Logik dürften Fotografen nicht im raw Format fotografieren also ist das natürlich Käse.

MfG
Natürlich dürfen sie das. Bloß bei 24 oder 60 Fotos pro Sekunde über einen längeren Zeitraum (86.400 bzw. 216.000 Fotos pro Stunde) wird es ineffizient, besonders beim Endanwender.

Selbst bei nur FullHD mit 24 bit Farbtiefe ist man dann bei 1920 x 1080 x 24 x 216.000 Fotos = 10.749.542.400.000 bit = 1.343.692.800.000 Byte = 1,34 TeraByte = 1,22 TebiByte pro Stunde... in UHD das Vierfache.
 
Zuletzt bearbeitet:
"So bietet AMD trotz des starken Rückstandes bei der Raytracing-Hardware bereits mit RDNA 2/3 eine akzeptable Performance zu können."

Liest denn keiner mehr Korrektur oder hat hier der Google Translator zugeschlagen? :ugly:
 
Kann kann man ja auch Konsole gar nicht mehr zocken. Da wird Heutzutage seltens Nativ ausgegeben. Schon allein wenn per TAAU in Engine dann 1200-1600P auf 2160p hochgeblasen werden. Jede geringere Renderauflösung die nicht exakt 3840x2160p entspricht wird auf heutigen UHD-TV dann per Uscaler verändert.
Mal davon ab das interne Rendereffekte auch ganz andere Auflösung haben als der restliche Spieleoutput.

Es wird also immer irgendwo "getrickst" weil nie alles pixelgenau berechnet wird. Allein wenn Techniken wie VRS zum Einsatz kommen oder unterschiedliche Texturqualitätsstufen. Nicht jede Holzkiste hat die gleiche "Qualität" wie der Hauptcharakter.

Wer mit First Person Shooter wie Redfall mit 30fps keine Probleme hat der sollte auch mit Upscaler(DLSS, FSR, TAAU) oder FG zurecht kommen. ^^

Theorie ist halt immer die eine Sache aber es zählt ja mehr das Gesamtergebnis in der Praxis. Wenigsten Leute werden 48MP RAW Fotos benötigen und auch mit Verlustbehafteten zurecht kommen. Wozu also die "Rohleistung" nur in Auflösung verschwenden? Übertrieben ausgedrückt sieht Minecraft in 16k und 120fps dennoch nicht besser aus als TLoU in 1440p/60 Bilder.
Gute Optik setzt sich aus verschiedenen Komponenten zusammen.

Man kann also ziemlich darauf wetten dass manche Leute in Blindtest einen natives Bild von guten FSR/DLSS nicht wirklich unterscheiden können. Wie mit komprimiertet Musik. Ab gewissen Grad brauchst Fledermausohren um noch Nuancen zu unterschieden.
Ich kann dir da weitestgehend zustimmen, meine Befürchtung ist eher, dass man von der HW Weiterentwicklung den Fokus mehr auf AI workarounds legt. Technologien wie RT bedürfen aber zwingend entsprechende HW Rohleistung und dahingehend muss viel mehr investiert werden. Wenn der Fortschritt eingeschränkt wird, wird es auf längere Sicht zu Stagnation kommen aber gerade mit Hinblick auf 4k, RT und die ganzen Ausbaustufen benötigt man einfach deutlich mehr Rohleistung also sollte man m. M. n. dort mehr den Fokus setzen, was aktuell aber leider nicht der Fall ist. Die aktuellen GPUs enttäuschen, sind viel zu teuer bei dem "bisschen" mehrleistung gegenüber den Vorgängern. Lassen wir doch mal die Bildverbesserer und upscaler weg, dann sieht es doch eher Bescheiden aus, in Sachen reiner Rohleistung.

MfG
 
Ich begrüße DLSS und FG, weil es die Bildqualität verbessert, den CPU Bottleneck rausnimmt und meine Hardware dabei wesentlich kühler und ernergiesparsamer läuft. Es hat, wenn es ordentlich implementiert wurde, nur Vorteile.
Frame Generation verbessert deiner Ansicht nach die Bildqualität? Hast du das eigentlich mal ausprobiert? Also mehr fps generieren, ganz klar ja. Die Bildqualität geht mit FG aber nur in eine Richtung und das ist nicht nach oben.
 
Zuletzt bearbeitet:
Natürlich dürfen sie das. Bloß bei 24 oder 60 Fotos pro Sekunde über einen längeren Zeitraum (86.400 bzw. 216.000 Fotos pro Stunde) wird es ineffizient, besonders beim Endanwender.

Selbst bei nur FullHD mit 24 bit Farbtiefe ist man dann bei 1920 x 1080 x 24 x 216.000 Fotos = 10.749.542.400.000 bit = 1.343.692.800.000 Byte = 1,34 TeraByte = 1,22 TebiByte pro Stunde... in UHD das Vierfache.
Nur sind wir bei Spielen eben mit deutlich weniger Farbtiefe unterwegs. Die meisten Monitore mit hoher Herzzahl haben nicht mal 8bit, oder eben nur 6bit mit Farbkompensation #Taschenspielertricks.
Du darfst ruhig mit dem rechnen was du da auch selbst verwendest, jedenfalls wenn du die Realität abbilden willst und nicht nur ein Scheinargument versuchst zu erzwingen.
Interessant DLSS Supersampling und Frame Generation sind Taschenspielertricks und in Rasterization wird nicht getrickst? :ugly:

Rasterization ist quasi der Inbegriff eines Taschenspielertricks...
Oha, jetzt kommt schon der zweite damit um die Ecke! Jetzt mach doch mal zwei Dinge. Zitiere die Stelle an der jemand geschrieben hat dass beim rastern keine Tricks angewandt werden und dann entschuldige dich dafür dass du das behauptet hast. Ich habe diesen thread jetzt extra noch ein zweites Mal durchgelesen und finde die Stelle nicht.

Owned hatte weiter vorn gefragt warum bei RT plötzlich nicht mehr getrickst werden sollte. Für mich liegt die Antwort auf der Hand. RT ist doch deshalb optisch so ein Unterschied, weil es eben näher an reale Lichtverhältnisse heran reicht. Wir haben also endlich die Möglichkeit es besser zu machen. Warum zum Henker, sollte man das bewusst wieder riskieren und sich davon entfernen? Genau jetzt haben wir die Chance es so echt wie möglich zu bekommen und genau das sollte durch Sparmaßnahmen bitte nicht riskiert, oder geschmälert werden. Sonst ist es bald auch nur ein getrickse wie vorher. Genau das wollen wir doch nicht mehr.
 
Zuletzt bearbeitet:
Frame Generation verbessert deiner Ansicht nach die Bildqualität? Hast du das eigentlich mal ausprobiert? Als mehr fps generieren, ganz klar ja. Die Bildqualität geht mit FG aber nur in eine Richtung und das ist nicht nach oben.
Hast du meinen Satz gelesen oder willst du mich einfach nur falsch verstehen?
Ich habe sämtliche Vorteile von DLSS und FG aufgezählt. FG verbessert das Bild logischerweise nicht, aber nimmt den CPU Bottleneck raus.
 
Oha, jetzt kommt schon der zweite damit um die Ecke! Jetzt mach doch mal zwei Dinge. Zitiere die Stelle an der jemand geschrieben hat dass beim rastern keine Tricks angewandt werden und dann entschuldige doch dafür dass du das behauptet hast. Ich habe diesen thread jetzt extra noch ein zweites Mal durchgelesen und finde die Stelle nicht.
Hier wird sich die ganze Zeit beschwert das auch bei Nvidia bei Nutzung von RT/PT auf Taschenspielertricks zurückgegriffen werden.

Offensichtlich wird Rastergrafik, die als Gesamtes ein Taschenspielertrick ist, bevorzugt, oder wie soll ich die Aussage denn genau anders verstehen?
 
Interessant DLSS Supersampling und Frame Generation sind Taschenspielertricks und in Rasterization wird nicht getrickst? :ugly:

Rasterization ist quasi der Inbegriff eines Taschenspielertricks...
Das ist quatsch. Bei der Umrechnung von Vektoren hinzu Pixeln bedarf es nun einmal einer Auf- und oder Abrundung. Das sind keine Tricks sondern technisch notwendige Umrechnungen. Wichtig ist die im rendering festgelegte Auflösung. Wenn diese ausgegeben wird, sind sämtliche Effekte im Anschluss verlustbehaftet.

MfG
 
Wieder interessant, wenn also die Auflösung ohne Qualitätsverlust skaliert wird ist das Böse, wenn aber z.B. die gesamte Beleuchtung in einer Szene getrickst ist dann ist das völlig in Ordnung :haha:

Das erscheint mir willkürlich.
 
Hier wird sich die ganze Zeit beschwert das auch bei Nvidia bei Nutzung von RT/PT auf Taschenspielertricks zurückgegriffen werden.

Offensichtlich wird Rastergrafik, die als Gesamtes ein Taschenspielertrick ist, bevorzugt, oder wie soll ich die Aussage denn genau anders verstehen?
Du sollst sie so verstehen, dass wir weg wollen von den Tricks. Eben deshalb sollten neue tricks vermieden werden.
 
Du sollst sie so verstehen, dass wir weg wollen von den Tricks. Eben deshalb sollten neue tricks vermieden werden.
Ich finde die Tradeoff in dem Fall ziemlich gut. Ich nehme einen quasi verlustfreien Trick zur Erreichung der Zielauflösung in Kauf um dafür auf einen Schlag jeden Trick der Rastergrafik loszuwerden.

Außerdem würde mich mal interessieren wie ihr auf die Idee kommt das bei Rastergrafik alles nativ gerendert wird. Denkt ihr echt das immer alle Effekte, Schatten usw. in der nativen Auflösung gerendert werden?
 
Wieder interessant, wenn also die Auflösung ohne Qualitätsverlust skaliert wird ist das Böse, wenn aber z.B. die gesamte Beleuchtung in einer Szene getrickst ist dann ist das völlig in Ordnung :haha:

Das erscheint mir willkürlich.
Ich bin mir nicht sicher ob du ernsthaft debattieren oder nur ins Lächerliche ziehen willst aber es gibt nach erfolgter Zielauflösung kein verlustfreies Up- oder Downscaling, da nach Definition das Hinzufügen oder Entfernen von Pixeln gegenüber dem Original immer verlustbehaftet ist.^^

MfG
Du sollst sie so verstehen, dass wir weg wollen von den Tricks. Eben deshalb sollten neue tricks vermieden werden.
Das Problem ist, dass der Fokus von Hardwareinnovation mehr zu SW Innovation geht obwohl diese stets dem Ausgleich mangelnder HW Leistung diente. Quasi ein Mittel zum Zweck der zusehenst zweckentfremdet wird und mir ist auch klar warum, weil es weniger teure Forschung und Ressourcen benötigt und so unterm Strich mehr monetarisiert werden kann.

MfG
 
Ich bin mir nicht sicher ob du ernsthaft debattieren oder nur ins Lächerliche ziehen willst aber es gibt nach erfolgter Zielauflösung kein verlustfreies Up- oder Downscaling, da nach Definition das Hinzufügen oder Entfernen von Pixeln gegenüber dem Original immer verlustbehaftet ist.^^

MfG
Nö, ich will nur verstehen wieso man sich schwer damit tut zu akzeptieren das DLSS mehr ist als ein simpler Upscaler und warum nicht ein einziger, bzw. 2 (wenn man FG nutzen möchte), akzeptiert werden wenn man dafür die dutzenden Rasterization Tricks los wird. Da werden, wie schon geschrieben, die wenigsten Effekte nativ gerendert. Was denkst du warum die fps nicht linear mit der Auflösung steigen bzw. sinken :D

Oder reicht es euch in den Einstellungen die native Auflösung zu sehen und dann ist alles gut?
 
Hast du meinen Satz gelesen oder willst du mich einfach nur falsch verstehen?
Ich habe sämtliche Vorteile von DLSS und FG aufgezählt. FG verbessert das Bild logischerweise nicht, aber nimmt den CPU Bottleneck raus.
Na und wie ich den gelesen habe. Nicht nur den Satz, sondern deinen ganzen Beitrag. Was meinst du warum ich den Rest deines Beitrags nicht kritisiert habe? Weil ich den in Ordnung finde, logisch oder?

Diesen Satz den du meinst hab ich exakt so zitiert, wie du ihn in den Raum gestellt hast und das ist nun einmal falsch. Ja, ich hätte mir die eigentliche Aussage denken können, aber da du ja der absolute König dieser "ich zitiere etwas ohne Kontext und werfe es anderen vor"-Stategie bist, dachte ich, ich guck Mal was dir dazu einfällt.
Also, so wie du es da geschrieben hast, ist es selbstverständlich falsch. So wie dein jetziger Satz nicht richtig ist. Es "kann", oder in einigen Fällen" das CPU bottleneck verbessern, oder verschieben. Es grundsätzlich einfach immer heraus zu nehmen ist selbstredend wieder falsch. Ich weiß aber was du meinst und da kann ich dir zustimmen. Das kann dem ein oder anderen Spiel und Spieler helfen mehr Bilder auf den Monitor zu zaubern. :nicken:

Mal zum Thema:
Ich frag mich was wohl herauskommt (leistungsmäßig), wenn AMD nun solche Hardwareeinheiten implementiert. Rechnerisch hab ich einfach mal geschaut was Nvidia damals für einen Sprung von Pascal aus Turing gemacht hat. AMDs aktuellen Stand der RT-Leistung kennen wir ja zur genüge. Wenn ich den gleichen Faktor ansetze, dann können sie es tatsächlich schaffen, mit einem Schlag wieder Augenhöhe zu kommen. Allerdings nur, wenn Nvidia beim jetzigen Stand bleibt. Es wird also spannend. Vor allem, da die Umsetzung ja eine Weile benötigt und in die RX8000er sehr wahrscheinlich nicht mehr einfließen wird. Was denkt ihr darüber?
 
@blautemple das Ding ist, dass die Argumentation der beiden auch völliger Unfug ist. Durch RT + DLSS kommt ein weiterer "Trick" hinzu, um etliche andere der Rastergrafik zu beseitigen. Es ist also im Grunde genau das, was die beiden fordern und trotzdem sind sie damit nicht zu frieden. :ugly:

Mal ganz davon ab, dass das hier wieder Whataboutism ist. Der Thread dreht sich um AMD und RT und dennoch muss man weiterhin mit dem Finger auf Nvidia und DLSS zeigen.
 
Zuletzt bearbeitet:
Nö, ich will nur verstehen wieso man sich schwer damit tut zu akzeptieren das DLSS mehr ist als ein simpler Upscaler und warum nicht ein einziger, bzw. 2 (wenn man FG nutzen möchte), akzeptiert werden wenn man dafür die dutzenden Rasterization Tricks los wird. Da werden, wie schon geschrieben, die wenigsten Effekte nativ gerendert. Was denkst du warum die fps nicht linear mit der Auflösung steigen bzw. sinken :D

Oder reicht es euch in den Einstellungen die native Auflösung zu sehen und dann ist alles gut?
Vielleicht wirst du mal konkreter was da alles nicht nativ gerendert wird.

Es geht auch nicht um nicht akzeptieren, sondern darum das es a) verlustbehaftet ist und b) der Fokus weg von Hardwareinnovation geht, hinzu AI workarounds und hier wurde ja schon skizziert, gerade mit Hinblick auf die Hardwarepreise, warum man das kritisch sehen "kann", nicht muss.

MfG
@blautemple das Ding ist, dass die Argumentation der beiden auch völliger Unfug ist. Durch RT + DLSS kommt ein weiterer "Trick" hinzu, um etliche andere der Rastergrafik zu beseitigen. Es ist also im Grunde genau das, was die beiden fordern und trotzdem sind sie damit nicht zu frieden. :ugly:
Du verstehst, wie so oft, einfach nicht auf was man hinaus will. Niemand spricht DLSS oder FG die Daseinsberechtigung ab.^^

MfG
 
Zurück