News AMD: Neues Patent verspricht Raytracing-Verbesserungen [Gerücht]

Da bin ich ganz bei dir. Das Spiel ist natürlich so übertrieben wegen der Zusammenarbeit mit Nvidia, klar, aber eben auch weil es der gewünschte Stil dieser Welt sein soll, denke ich.

Letzteres macht AMD doch so in etwa. Sie haben lange gewartet, in Kauf genommen dass ihnen Nvidia in diesem Bereich den Boden unter den Füßen wegzieht und nun, da man weiß wie viel Leistung man braucht um so ein Spiel zu spielen, setzen sie es erst in Hardware um. Ich denke, da haben sie einfach genau das getan was du da schreibst.

Ich war ja jetzt fast zweieinhalb Tage Zuhause und konnte mir Cyberpunk auf der 4080 i-chill frostbite anschauen, in dem 12900k System. Also optimale Bedingungen für das Spiel. Leider reicht die Leistung der Karte nicht ansatzweise. Mit DLSS und FG komme ich zwar auf genügend fps laut Anzeige, aber es fühlt sich eben wie 30 fps an. Das kann/will zumindest ich nicht so spielen. Muss ich aber auch nicht. Da bin ich direkt an früher erinnert. Allein Crysis hat mich zig Mal die GPU aufrüsten lassen bis ich zufrieden war. Einfach weil kaum dass die GPU genug Dampf hatte, ich erst von 1024p auf 1080p und später von 1080p auf 1440p gewechselt bin und dann kamen ini tweaks und mods. Das stört mich auch nicht, sondern finde ich spaßig. Viel besser als das Spiel nach einer Woche zu den Akten zu legen und nie wieder anzusehen.
 
Computergrafik bedeuted immer Kompromisse auch bei Raster... Auflösung, Texturen, Geometrie, Effekte... Warum RT dann perfekt sein muss erschließt sich mir nicht
Weil er sonst den großen Vorsprung von Nvidia einräumen müsste, so bau er sich eine Story außen rum, die absolut keinen Sinn ergibt.
Dazu gäbe es den netten Nebeneffekt, da mehr Rohleistung, das Raytracing auch besser laufen würde, was aktuell nun einmal nur mit besagten Verlust behafteten Verbesserungsverfahren geht.
Die sind nicht verlustbehaftet, sondern haben ein besseres Input/Output Verhältnis.
Und so ist es auch mit RT, die Rasterbasierten Ansätze verlieren an Effizienz, deshalb geht man in Richtung RT.
Noch vor knapp 10 Jahren kamen die Karten von Nvidia und AMD im halbjährlichen Rhythmus.
Die HD 7970 kam Ende 2011 und der Nachfolger die R9 290x ende Oktober 2013.
Der Nachfolger der 290X kam mit der Fury X im Sommer 2015, also knapp 2 Jahre. Vega kam im Sommer 2017.
Was redest du bitte für ein Zeug?!

Ein 2 Jahres Rhythmus, weit weg von halbjährlich, dafür sind die Software und Hardwaresprünge wieder immens, gerade was RT angeht.
Und gesetzt dem Falle die Verbesserungen von AMD schließen die genannten Stages ein, kann man nur hoffen, dass sie auf Nvidia aufschließen und die Spiele dann auch die Hardwareressourcen nutzen und sie nicht dahingammeln.
 
Zuletzt bearbeitet:
Die sind nicht verlustbehaftet, sondern haben ein besseres Input/Output Verhältnis.
Doch sind sie und das wurde hier auch schon zu Genüge erklärt.
Und so ist es auch mit RT, die Rasterbasierten Ansätze verlieren an Effizienz, deshalb geht man in Richtung RT.
In der Theorie ja, kein Wiederspruch, wer sich mit 3d-Modelling auskennt versteht das aber, in der Praxis steht die dafür benötigte Leistung noch gar nicht zur Verfügung, nur für rudimentärste Ansätze aber nicht als "Ersatz" für den aktuellen Ansatz, weswegen dieser leistungstechnisch immer noch effizienter ist. Das wird sich dann ändern, wenn RT diesen "ersetzt", so wie es auch bei 3d-Moddeling SW gemacht wird, eben nur komplett in Echtzeit und ansehnlich aber bis dahin ist es noch ein langer Weg und vielleicht deutlich länger, als man annehmen könnte. CGI Filme müssen mit massiven Ressourcenaufwand nicht ohne Grund mehrere Wochen/ Monate gerendert werden, bis da so ein 90 Min Blockbuster zustande kommt und das ist nicht Echtzeit. ;-)

MfG
 
Doch sind sie und das wurde hier auch schon zu Genüge erklärt.
Erklärt wurde hier gar nichts. Es wurde lediglich von dir behauptet, obwohl du zuvor noch nicht mal den Unterschied zwischen DLSS und Frame Generation kanntest:
Das DLSS3 den älteren Karten vorenthalten bleibt steht schon länger und bekanntermaßen in der Kritik.
Und DLSS3 sollte problemlos gehen oder nicht, wenn man einmal FG außen vor lässt?

Ehrlich gesagt habe ich auch das Gefühl, dass du nicht wirklich verstehst, wie DLSS funktioniert, ansonsten würdest du nicht immer von Verlustbehaftet reden.
Dass das Offtopic ist und mit dem Thema nichts zutun hat, wurde nun doch auch schon mehrfach von diversen Mods hier geschrieben.
 
Zuletzt bearbeitet:
(...)in der Praxis steht die dafür benötigte Leistung noch gar nicht zur Verfügung(...)
Doch, die Leistung für zum Beispiel ordentliche RT-Reflektionen, Beleuchtung, Verschattung und Co. steht längst zur Verfügung, sogar Pathtracing bekommen die Karten schon hin.:)
(...)nur für rudimentärste Ansätze(...)
Für manche solcher Grafikevolutionen haben rasterbasierte Ansätze mehrere Generationen an GPU´s verschlungen.=)

aber nicht als "Ersatz" für den aktuellen Ansatz, weswegen dieser leistungstechnisch immer noch effizienter ist.
Dem würde ich ganz vehement widersprechen, besonders was RT-Reflektionen betrifft.
Die lassen sich nicht mit rasterbasierten Ansätzen effizient berechnen, es sei denn du möchtest sie aus dem screen-space wischen.
Doch sind sie und das wurde hier auch schon zu Genüge erklärt.
Nein sind sie nicht, das ist seit 2020 Konsens, wir haben nun 2023.
Du behauptest es nur und stellst deine Unwissenheit zur Schau.
Leider reicht die Leistung der Karte nicht ansatzweise.
Interessant, mir reicht selbst meine 4070 aus um das Spiel mit DLSS Performance+Frame Generation auf einem 4K Schirm mit 80 FPS zu spielen und das fühlt sich richtig geschmeidig an.
Allein Crysis hat mich zig Mal die GPU aufrüsten lassen bis ich zufrieden war.
Da bin ich froh, dass GPUs heutzutage für die maximale Grafik deutlich leichter ausreichen.
Das stört mich auch nicht, sondern finde ich spaßig.
Warum stört es dich dann jetzt so?
 
Zuletzt bearbeitet:
Liebes dynamisches Duo, informiert euch doch einfach mal was verlustbehaftet bedeutet, vielleicht hapert es ja an der Grunddefinition. :daumen: Die Verfahren welche hier beim Raytracing verwendet werden müssen, auch bei dem AMD Ansatz, sind verlustbehaftet, da man, genau so wie auch beim Hochskalieren, dem Originalbild Informationen hinzugfügen muss, "nachträglich". Deshalb sind es ja auch Bild"verbesserer", weil sie das fertige Bild verbessern. Das ginge nach Definition gar nicht verlustfrei, denn das geht nur mit dem nativ ausgegebenen Bild. Wir könnten als Äquivalent auch in die Fotografie oder in den Videobereich gehen, das ist vom Grundsatz das Gleiche. Man kann das auch ganz einfach umgekehrt sehen, bezogen auf den physisch korrekten RT Ansatz, auch bei der hiesigen AMD Lösung. Gäbe es genug Hardware um das in Echtzeit und voller Auflösung zu rendern, dann bräuchte man diese Bildverbesserer nicht. Umgekehrt, mangels der passender HW, braucht man das, als Lückentechnologie und nichts anderes wird hier gesagt, man muss es natürlich auch verstehen "wollen", nicht wahr? ;-)

Sowohl AMD, mit dem hiesigen HW Ansatz als auch Nvidia sind auf solche Postlösungen angewiesen, um die total rauschigen Renderbilder nachzubearbeiten, ansehnlich zu machen, durch Hinzufügen von Informationen, was, siehe Definition, verlustbehaftet ist, da man dem Original etwas hinzufügt/wegnimmt. Mehr gibt es dazu auch nicht zu sagen. :-)

MfG
 
Liebes dynamisches Duo, informiert euch doch einfach mal was verlustbehaftet bedeutet, vielleicht hapert es ja an der Grunddefinition. :daumen: Die Verfahren welche hier beim Raytracing verwendet werden müssen, auch bei dem AMD Ansatz, sind verlustbehaftet, da man, genau so wie auch beim Hochskalieren, dem Originalbild Informationen hinzugfügen muss, "nachträglich".

Sowohl AMD, mit dem hiesigen HW Ansatz als auch Nvidia sind auf solche Postlösungen angewiesen, um die total rauschigen Renderbilder nachzubearbeiten, ansehnlich zu machen, durch Hinzufügen von Informationen, was, siehe Definition, verlustbehaftet ist, da man dem Original etwas hinzufügt/wegnimmt. Mehr gibt es dazu auch nicht zu sagen. :-)
Nach deiner tollen Definition, sind auch sämtliche Rasterization-Spiele verlustbehaftet, wenn sie dem Original (dem untexturierten Drahtgittermodell) etwas hinzufügen oder wegnehmen.

Beim Hinzufügen von Texturen geht die Rückseite des 3D-Modells verloren, beim Hinzufügen von Bumpmapping geht die ebene Fläche verloren, beim Hinzufügen von Anti-Aliasing gehen die Treppenstufen verloren, beim Hinzufügen von Lichtquellen und Schatten gehen die ursprünglichen Farbtöne und Farbabstufungen verloren, usw.

Natürlich sind auch sämtliche Post-Processing-Effekte verlustbehaftet, weswegen du sie vermutlich alle in jedem Spiel abstellst, egal ob sie deinen subjektiven Gesamteindruck verbessern oder verschlechtern..
 
(...) da man, genau so wie auch beim Hochskalieren, dem Originalbild Informationen hinzugfügen muss, "nachträglich".(...)
Es gibt Frame N0, N+1, N+2 und N+3. Die Informationen liegen durch das eingebundene TAA bereits vor, der an die "grund truth" antrainierte autoencoder pflückt sich aus den 3 vergangenen Bildern (addiert höher aufgelöst) mehr Samples, sprich Bildinformationen (Jitter, motion vektors, etc.) und erzeugt das Bild.
Da wird nichts hinzugefügt, was nicht schon lange da war und deshalb ist diese Technik auch nicht verlustbehaftet, weil die Bestimmung des Pixelfarbwerts aus dem Schnittpunkten der dreifachen Auflösung erfolgt. Annahme: 1080p DLSS Quality 3x720p.
Und deshalb bietet beispielsweise im Extremfall DLSS Performance ein temporal genauso stabiles Bild in 4K auf, wie in nativer Auflösung.
Das ginge nach Definition gar nicht verlustfrei, denn das geht nur mit dem nativ ausgegebenen Bild.
Wie gesagt, schau dir die Technik genauer an. Dann wirst du das selbst bemerken.
Gäbe es genug Hardware um das in Echtzeit und voller Auflösung zu rendern, dann bräuchte man diese Bildverbesserer nicht.
Es wird doch intern in höherer Auflösung gerendert, deshalb heißt es Super-Sampling.
Umgekehrt, mangels der passender HW, braucht man das, als Lückentechnologie und nichts anderes wird hier gesagt, man muss es natürlich auch verstehen "wollen", nicht wahr? ;-)
Es hat ja niemand was davon das Bild in 4K Nativ zu rendern, eine schlechtere BQ und 50% weniger Leistung zu haben. :ka:
(...) durch Hinzufügen von Informationen, was, siehe Definition, verlustbehaftet ist, da man dem Original etwas hinzufügt/wegnimmt. (...)
Was wieder beweist, dass du nichts verstanden hast.
 
Zuletzt bearbeitet:
Interessant, mir reicht selbst meine 4070 aus um das Spiel mit DLSS Performance+Frame Generation auf einem 4K Schirm mit 80 FPS zu spielen und das fühlt sich richtig geschmeidig an.

Da bin ich froh, dass GPUs heutzutage für die maximale Grafik deutlich leichter ausreichen.

Warum stört es dich dann jetzt so?
Sehr interessant sogar. Denn jetzt weiß ich dass du entweder gar keine Karte hast, oder einfach trollen willst. Mit DLSS Performance bin ich im Anfang 30er Bereich bei den fps. Ich meine das höchste kurz anliegende waren 34 fps. Da war ich selbst mit FG weit weg von 60 fps. Meine min fps lagen damit bei knapp 45 auf der 4080 und du willst gar 80 fps haben?
Bisher habe ich dich nur als unangenehm empfunden, aber jetzt glaube ich dir gar nichts mehr. Wir reden hier vom Overdrive Mode!
Darum ging's hier ja weiter vorne, dass die aktuellen Karten dafür angeblich schon reichen würden. Deine fps waren nur mit reduziertem RT möglich, aber dann hättest du ja deine eigene Aussagen widerlegt.

Edit
Schau dir nächstes Mal wenigstens den PCGH Test dazu an. Das hab ich jetzt gerade extra nochmal gemacht um zu schauen was die so gemessen haben. Nicht dass es an meinem System lag. Da kommt eine 4070 auf gerade mal 20 Bilder und du hast 80? Muss ja ein echt spezielles Sample sein.

Edit 2
Ich reg mich nur auf darüber und werde den thread jetzt nicht mehr weiter verfolgen.
 
Zuletzt bearbeitet:
Sehr interessant sogar. Denn jetzt weiß ich dass du entweder gar keine Karte hast, oder einfach trollen willst. Mit DLSS Performance bin ich im Anfang 30er Bereich bei den fps. Ich meine das höchste kurz anliegende waren 34 fps. Da war ich selbst mit FG weit weg von 60 fps. Meine min fps lagen damit bei knapp 45 auf der 4080 und du willst gar 80 fps haben?
Bisher habe ich dich nur als unangenehm empfunden, aber jetzt glaube ich dir gar nichts mehr. Wir reden hier vom Overdrive Mode!
Darum ging's hier ja weiter vorne, dass die aktuellen Karten dafür angeblich schon reichen würden. Deine fps waren nur mit reduziertem RT möglich, aber dann hättest du ja deine eigene Aussagen widerlegt.

Edit
Schau dir nächstes Mal wenigstens den PCGH Test dazu an. Das hab ich jetzt gerade extra nochmal gemacht um zu schauen was die so gemessen haben. Nicht dass es an meinem System lag. Da kommt eine 4070 auf gerade mal 20 Bilder und du hast 80? Muss ja ein echt spezielles Sample sein.
Erwischt würde ich mal sagen, dann wissen wir ja jetzt auch, wie wir das zukünftig einordnen können?! :ka:

Vielleicht gibt es ja noch eine spannende Aufklärung. Ist ja beim Raytracing, sicherlich dann auch hier bei der AMD Variante, ein gewaltiger Unterschied zwischen 20 und 80 frames per second. Und egal welche der Werte stimmen, es ist und bleibt keine Mittelklasse Karte sondern eine High End Karte, siehe 600 € plus.

MfG
 
Zuletzt bearbeitet:
Ich habe mit Pathtracing, DLSS Q,FG, 1440p und alles was geht ca 60fps mit der 4070. Die Karte hab ich wirklich und bin zufrieden. Keine krassen framesops alles super spielbar.
Die Frage ist doch, kann AMD dann das Patent nutzen um Nvidia Anteile ab zugraben?!
 
Sehr interessant sogar. Denn jetzt weiß ich dass du entweder gar keine Karte hast, oder einfach trollen willst.
Ich habe es eben gerade nochmal getestet und ich habe wohl in 4K Ultra Performance + FG genutzt, aber selbst mit Performance erhalte ich 55 FPS AVG und das ist verglichen mit den Zuständen bei Crysis ein absoluter Genuss. Es war völlig unmöglich Crysis auf Ultra mit mehr als 15-20 FPS zu spielen, auch nicht auf 720p.
Darum ging's hier ja weiter vorne, dass die aktuellen Karten dafür angeblich schon reichen würden.
Ja, tun sie. Man kann es spielen. Fast 30 FPS in 4K Nativ auf einer übertakteten RTX 4090. Witcher 3 lief 2015 in 4K ohne grandioses Upscaling gerade mal mit knapp 30 FPS.
Ich reg mich nur auf darüber und werde den thread jetzt nicht mehr weiter verfolgen.
Die streitest dich um irgendeine FPS Höhe, ob jetzt 55 oder 80 FPS AVG, es ist spielbar.
Du meintest du hast bei Crysis früher permanent aufgerüstet und irgendwann war es spielbar. Es hat dir sogar noch Spaß gemacht. Da frage ich mich, wie du die aktuellen Luxuszustände so kritisch sehen kannst.
Auf alle anderen Punkte bist du nicht eingegangen.
 
Zuletzt bearbeitet:
Mal zum Thema:
Ich frag mich was wohl herauskommt (leistungsmäßig), wenn AMD nun solche Hardwareeinheiten implementiert. Rechnerisch hab ich einfach mal geschaut was Nvidia damals für einen Sprung von Pascal aus Turing gemacht hat. AMDs aktuellen Stand der RT-Leistung kennen wir ja zur genüge. Wenn ich den gleichen Faktor ansetze, dann können sie es tatsächlich schaffen, mit einem Schlag wieder Augenhöhe zu kommen. Allerdings nur, wenn Nvidia beim jetzigen Stand bleibt. Es wird also spannend. Vor allem, da die Umsetzung ja eine Weile benötigt und in die RX8000er sehr wahrscheinlich nicht mehr einfließen wird. Was denkt ihr darüber?
Ich denke auch, das AMD mit RX8000 einen größeren Sprung bei der RT Leistung bringt und dann nur noch eine Gen hinter Nvidia sein wird (Gemeint ist natürlich das was ich von RTX5000 denke). Dann zum Release der neuen Konsolen und damit rechtzeitig bevor es zwingend wird (Mehr RT Leistung zu haben) wird man so denke ich wieder eher einen Leistungskampf sehen, dann bei der RT Leistung.
 
Zurück