Special Die Community hat gesprochen: So wichtig ist Raytracing wirklich

Pathtracing finde ich ja wirklich nice, wobei da die Technik/Spiele/Hardware -mit wenigen Ausnahmnen - noch nicht weit genug sind. Raytracing hingegen bietet meiner Meinung nach oft nicht einen relevanten grafischen Mehrheit (auch hier gibt es natürlich Ausnahmen)
 
Zuletzt bearbeitet:
Ich finde die Schlußfolgerung schon interessant: "RT ist nicht aufzuhalten". Die Umfrage sagt aber schon aus, dass es ein lustiges, wenngleich nicht entscheidendes Feature ist.
Aufzuhalten in der Entwicklung ist es ebenfalls, nämlich durch sinnlos übersteigerte Grafikkartenpreise, welche für die neue Hardware dann fällig werden. Mit jeder neuen Graka-Generation wird es für mich uninteressanter. Die Preise gehen straff nach oben und für ein paar technische Spielereien ist immer gleich die neueste Karte notwendig. Da muss zumindest ich nicht mitmachen.
"Nicht aufzuhalten" in dem Sinne, dass sich alle Schaffenden über den Weg einig sind. Früher waren es Sprites, Vektoren und Voxel, heute sind es Polygone und Strahlen. Reines Rasterizing ist limitiert, überholt und somit reif für die Rente. Der seit 2018 eingeschlagene, hybride Weg, eine Rasterbasis mehr und mehr mit Strahlen aufzuwerten, ist übrigens auch nur ein Kompromiss, aber die unmittelbare Zukunft. Das Gute ist, dass die Algorithmen immer besser werden, der Spaß also nicht zwangsläufig Mörder-GPUs braucht. Schau dir mal an, was Entwickler wie Insomniac in Spider-Man 2 auf den Bildschirm zaubern - das ist wirklich heftig viel Raytracing, wenn man bedenkt, dass in der PS5 nur eine GPU der Leistungsklasse RX 6700 steckt. Da Raytracing außerordentlich gut skalierbar (lies: anspruchsvoll) ist, kann man Mörder-GPUs aber stets für bessere Qualität (mehr Strahlen/Pixel) oder eben Pathtracing nutzen.

Es ist so schade, wo wir mittlerweile angekommen sind. Früher(tm) hat man jedes Grafikbrett gefeiert, heutzutage wird nur noch gemotzt. Das liegt einzig und allein an den GPU-Preisen. Bekäme man noch alle sechs Monate neues High-End für 500 Euro, würde sich das wohl bessern. Der "Beißreflex" beim Schlüsselwort "Raytracing" wird aber so schnell nicht weggehen. Vielleicht sollte man die Technologie einfach nicht mehr so nennen, sondern künftig einfach immer alles bis "Hoch" mit Rasterizing machen und die höchsten Detailstufen in Spielen still und heimlich mit Raytracing umsetzen. Wird ja bei der Unreal Engine 5 im Grunde schon so gemacht. ;)

MfG
Raff

P.S.: Ich liebe Bücher und Hefte, aber die Digitalisierung liefert klare Vorteile. Ewig an Totholz = Rasterisierung festzuhalten ergibt keinen Sinn, die Erde dreht sich weiter.
 
Es ist so schade, wo wir mittlerweile angekommen sind. Früher hat man jedes Grafikbrett gefeiert, heutzutage wird nur noch gemotzt. Das liegt einzig und allein an den GPU-Preisen. Bekäme man noch alle sechs Monate neues High-End für 500 Euro, würde sich das wohl bessern, der "Beißreflex" beim Schlüsselwort "Raytracing" wird aber so schnell nicht weggehen. Vielleicht sollte man die Technologie einfach nicht mehr so nennen, sondern künftig einfach immer alles bis "Hoch" mit Rasterizing machen und die höchsten Detailstufen in Spielen still und heimlich mit Raytracing umsetzen. Wird ja bei der Unreal Engine 5 im Grunde schon so gemacht. ;)
Aber das ist doch auch nur ein Trugschluss? Ob ich mir jetzt alle 5 Jahre für 4000€ ne Kiste kaufe oder jedes Jahr für 500-1000€, kommt am Ende aufs selbe raus.
Vor 10-15 Jahren hast du jedes Jahr neue Hardware gekauft. Heute reichen 5 Jahre aus.
Die Anschaffungskosten sind zwar teurer, aber dafür hält das System auch viel viel länger durch.
 
Aber das ist doch auch nur ein Trugschluss? Ob ich mir jetzt alle 5 Jahre für 4000€ ne Kiste kaufe oder jedes Jahr für 500-1000€, kommt am Ende aufs selbe raus.
Absolut. Wird gern vergessen.

Ich arbeite übrigens gerade am (lange angekündigten) Nachtest der RTX 2080 Ti und män, ist das Ding gut gealtert. Das beste Beispiel, wie aus Zähnknirschen pure Freude werden kann. Mehr am Mittwoch, wenn nicht wieder etwas dazwischenkommt.

MfG
Raff
 
"Nicht aufzuhalten" in dem Sinne, dass sich alle Schaffenden über den Weg einig sind. Früher waren es Sprites, Vektoren und Voxel, heute sind es Polygone und Strahlen. Reines Rasterizing ist limitiert, überholt und somit reif für die Rente. Der seit 2018 eingeschlagene, hybride Weg, eine Rasterbasis mehr und mehr mit Strahlen aufzuwerten, ist übrigens auch nur ein Kompromiss, aber die unmittelbare Zukunft. Das Gute ist, dass die Algorithmen immer besser werden, der Spaß also nicht zwangsläufig Mörder-GPUs braucht. Schau dir mal an, was Entwickler wie Insomniac in Spider-Man 2 auf den Bildschirm zaubern - das ist wirklich heftig viel Raytracing, wenn man bedenkt, dass in der PS5 nur eine GPU der Leistungsklasse RX 6700 steckt. Da Raytracing außerordentlich gut skalierbar (lies: anspruchsvoll) ist, kann man Mörder-GPUs aber stets für bessere Qualität (mehr Strahlen/Pixel) oder eben Pathtracing nutzen.

Es ist so schade, wo wir mittlerweile angekommen sind. Früher(tm) hat man jedes Grafikbrett gefeiert, heutzutage wird nur noch gemotzt. Das liegt einzig und allein an den GPU-Preisen. Bekäme man noch alle sechs Monate neues High-End für 500 Euro, würde sich das wohl bessern, der "Beißreflex" beim Schlüsselwort "Raytracing" wird aber so schnell nicht weggehen. Vielleicht sollte man die Technologie einfach nicht mehr so nennen, sondern künftig einfach immer alles bis "Hoch" mit Rasterizing machen und die höchsten Detailstufen in Spielen still und heimlich mit Raytracing umsetzen. Wird ja bei der Unreal Engine 5 im Grunde schon so gemacht. ;)

MfG
Raff

P.S.: Ich liebe Bücher und Hefte, aber die Digitalisierung liefert klare Vorteile. Ewig an Totholz = Rasterisierung festzuhalten ergibt keinen Sinn, die Erde dreht sich weiter.

Ich habe die Digitalisierung auch nicht in Frage gestellt. Aber es sollte schon mit Sachverstand erfolgen. Notwendigkeit für etwas scheint auch keine Rolle mehr zu spielen, es wird einfach überall gerne die Brechstange angesetzt.
Gemotzt habe ich auch nicht, nur meine Meinung geäußert. Dachte, dafür wäre das Forum da.
Ja klar liegt es immer auch am Preis. Die aktuellen Preise sind für mich einfach nicht angemessen, wenngleich ihr als Magazin natürlich in erster Linie vom Hype der neuesten Technik lebt, ist mir schon klar.
Den Nachtest der 2080TI werde ich gerne lesen, kann dann mal mit meiner eigenen vergleichen, die noch super werkelt. Für mich nennt sich das dann Nachhaltigkeit in meine Investition.
 
Aber es sollte schon mit Sachverstand erfolgen. Notwendigkeit für etwas scheint auch keine Rolle mehr zu spielen, es wird einfach überall gerne die Brechstange angesetzt.
Falsch, die Notwendigkeit ist da. Brechstange wäre es, wenn man so weitermacht wie bisher.
Mittels Rasterization kann man die Grafik nur noch mit sehr hohem Rechenaufwand steigern. Wir sind an dem Punkt angelangt, an dem es sinniger ist auf RT zu setzen.
DLSS/FSR und co. sind ebenfalls das genaue Gegenteil von "Brechstange". Nativ, was hier einige fordern, ist der Inbegriff von Brechstange.
 
Viele vergessen auch das aus früher 500€ inzwischen von 2010 auf heute schon nur durch äußere Einflüsse schon (Inflation / Eurokurs) fair betrachtet schon 818€ geworden sind.

Also ja, man kann zwar jammern das GPUs sehr teuer geworden sind. Aber zum Glück ist die Preissteigerung noch nicht so wild wie in anderen Bereichen.

Aber natürlich nur meine Meinung
 
Solche Umfragen sind immer so sinnlos auf Hardware Seiten....

Da kann ich auch im Autoschrauber Forum fragen wer die neuen Felgen9000 hat...

Die Casual Realität sieht wie immer anders aus... Deutschlandweit fährt keine Sau die Felgen und RT ist nach wie vor Marketing.

@derdofe was hat RT dir getan, dass du so anti bist?

Er hat lediglich die Bedeutung im Allg. angezweifelt. Persönlich wird auch mir das Thema Raytracing etwas zu sehr gehypt, zumal RT in der Malerei schon seit Jahrhunderten Anwendung findet. Gemessen an der Hardware, die laut Steam-Hard- & Softwareumfrage zum Einsatz kommt, wird wohl welcher prozentuale Anteil RT nutzen?

Würde ich persönlich bspw. RT nutzen wollen, wäre eine neue GPU fällig, sprich, für so'n paar lumpige Strahlen, wären Hunderte von Teuros fällig. In dem Fall übe ich mich lieber in Verzicht und verzehre mein Ei ohne Kaviar.

mit frdl. Gruß
 
Zuletzt bearbeitet:
Falsch, die Notwendigkeit ist da. Brechstange wäre es, wenn man so weitermacht wie bisher.
Mittels Rasterization kann man die Grafik nur noch mit sehr hohem Rechenaufwand steigern. Wir sind an dem Punkt angelangt, an dem es sinniger ist auf RT zu setzen.
DLSS/FSR und co. sind ebenfalls das genaue Gegenteil von "Brechstange". Nativ, was hier einige fordern, ist der Inbegriff von Brechstange.
Finde auch das die nahe Zukunft, oder der Teil der auch heute schon akut ist, bei weitem zu duster dargestellt wird.

Ich meine, dank DLSS inkl. FG und keiner ausgeprägten RT Schwäche konnte ich ALan Wake 2 mit PT in 4k auf einer 4070ti s gut spielen, trotz nahezu max Settings und das wohl gemerkt mit einer GPU der zwischen Mittelklasse und Oberklasse.

Das ist für mich auch alles andere als Brechstange.
Er hat lediglich die Bedeutung im Allg. angezweifelt. Persönlich wird auch mir das Thema Raytracing etwas zu sehr gehypt, zumal RT in der Malerei schon seit Jahrhunderten Anwendung findet. Gemessen an der Hardware, die laut Steam-Hard- & Softwareumfrage zum Einsatz kommt, wird wohl welcher prozentuale Anteil RT nutzen?

Würde ich persönlich bspw. RT nutzen wollen, wäre eine neue GPU fällig, sprich, für so'n paar lumpige Strahlen, wären Hunderte von Teuros fällig. In dem Fall übe ich mich lieber in Verzicht und verzehre mein Ei ohne Kaviar.

mit frdl. Gruß
Ich meine, wir hier reden über zum Teil eher Spiele für dicke GPUs. Da interessieren mich so Steam Umfragen nicht die Bohne. Oder die allgemeine Releavanz über alle Gesellschaftsschichten, oder am besten Weltweit.

Wir Nerds unter uns, rechtfertigen uns GPUs mit denen wir zocken...

Die wenigsten die Zocken, die ich kennen lernen durfte kaufen Unterhalb der Mittelklasse und selbst damit ist RT heute schon nutzbar.

Und bezogen auf die lumpigen Strahlen, nichts hat die Grafik inden letzten 10 Jahren mehr verbessert als RT. So lumpig finde ich das nicht.
 
Zuletzt bearbeitet:
Ich meine, wir hier reden über zum Teil eher Spiele für dicke GPUs. Da interessieren mich so Steam Umfragen nicht die Bohne. Oder die allgemeine Releavanz über alle Gesellschaftsschichten, oder am besten Weltweit.

Wir Nerds unter uns, rechtfertigen uns GPUs mit denen wir zocken...

So nach dem Motto, Einwand unerwünscht, nur weil dir nicht genehm? Zur Erinnerung: Die Umfrage richtete sich an alle hier Anwesenden.

Die wenigsten die Zocken, die ich kennen lernen durfte kaufen Unterhalb der Mittelklasse...

Nur spiegelt dies nicht die breite Menge wider, denn jener dürfte das allenfalls ein müdes Lächeln abgewinnen.

Da interessieren mich so Steam Umfragen nicht die Bohne.

Ähm, nein, hier geht's nicht ausschließlich um deine Interessen... :-P

mit frdl. Gruß
 
So nach dem Motto, Einwand unerwünscht, nur weil dir nicht genehm? Zur Erinnerung: Die Umfrage richtete sich an alle hier Anwesenden.



Nur spiegelt dies nicht die breite Menge wider, denn jener dürfte das allenfalls ein müdes Lächeln abgewinnen.

mit frdl. Gruß
Ich habe nicht geschrieben was du interpretiert hast.
Mehr ist dazu nicht zu sagen...
 
Da AMD der einzige GPU Verein ist ders nicht auf die Kette kriegt und mitlerweile schon n halbes Jahr vor Release zugibt dasse es auch künftig nicht drauf haben, is die Umfrage bald irrelevant....genauso wie deren Marktanteile.
Ich freu mich aber das Intel mitmischt. Die haben auch das Ziel die Entwicklung vorran zu bringen.
Für Stillstand is mir meine Restlebenserwartung zu schade
 
Da AMD der einzige GPU Verein ist ders nicht auf die Kette kriegt und mitlerweile schon n halbes Jahr vor Release zugibt dasse es auch künftig nicht drauf haben, is die Umfrage bald irrelevant....genauso wie deren Marktanteile.
Ich freu mich aber das Intel mitmischt. Die haben auch das Ziel die Entwicklung vorran zu bringen.
Für Stillstand is mir meine Restlebenserwartung zu schade

Der Konsolenmarkt gibt halt die Stoßrichtung vor. Intel ist doch meilenweit von einer Oberklasse entfernt.
 
Der Konsolenmarkt gibt halt die Stoßrichtung vor. Intel ist doch meilenweit von einer Oberklasse entfernt.
Das schon, aber Alchemist bricht bei komplexem Raytracing normalerweise längst nicht so stark ein wie RDNA 2 und 3, weshalb man hier den Anschluss an Nvidia halten kann, während AMD ein paar Modellnummern nach unten rasselt.

MfG
Raff
 
Der Konsolenmarkt gibt halt die Stoßrichtung vor. Intel ist doch meilenweit von einer Oberklasse entfernt.
Sehe ich auch so, so Einhörner wie Alan Wake 2 und Cyberpunk sind gut und werden jetzt sicher bald auch weiterhin mehr. Aber ein nicht unerheblicher Teil wird sicher sich an den Konsolen orientieren und dort wird es nur das typische weniger intensive Ray Tracing geben...

Das der absolute Großteil der Spiele durch die Bank RT einsetzen wird, sowie dass das eingesetzte RT Level entsprechend intensiver wird, wird wohl erst mit den nächsten Konsolen der Fall sein.

Dann wird es auch in den Spielen, wie in der Hardware einen größeren Sprung geben.
 
Du ehrlich, habe zu viele Projekte daher hauptsache WQHD und HDR
Finger weg von deinen beiden Kandidaten wenn dir HDR tatsächlich wichtig ist. Der AOC hat zwar immerhin FALD, aber dafür einen absolut grausigen Dimming Algorithmus, das willst du dir nicht antun.

Was das angeht ist OLED aktuell "the way to go". Der Aufpreis ist auch überschaubar:

Die aktuellen 360Hz QD Oled Panel sind dann noch mal besser, aber auch etwas teurer.
 
OLED als Monitor würde ich mir niemals holen, außer ich habe Geld im Überfluss.
Einen Tod musst du sterben, aber bevor ich weiter mit den Nachteilen von IPS, VA oder TN lebe, nehme ich lieber die Burn In Gefahr in Kauf. Zumal die Herstelle mittlerweile größtenteils 3 Jahre Garantie gegen Burn In geben, bei Alienware sogar inkl. Vorabaustausch. Damit kann ich gut leben.

Mein AW3423DW läuft hier seit bald 2 Jahren und noch ist nicht das geringste Anzeichen von Burn In sichtbar.
 
Zurück