Raytracing als Kaufargument: RTX-Marktanteil steigt, PCGH-Leser bleiben skeptisch

RT wird noch 2-3 generationen mindetens brauchen, bis das gut nutzbar ist und aus der teuren 'hipster-karten-leistung' kein schmalspur-erlebnis macht....
und DLSS könne sie gleich ganz behalten.

Ich finde ray/pathtracing extrem imposant wenn ich aber sehe wieviel Leistung es beansprucht, gerade fürs für mich relevante Global Illumination, glaube ich auch noch nicht daran, dass es sich selbst mit den kommenden Konsolen wirklich durchsetzen wird.

Vielleicht "raytracing light" mit ein bisschen Reflexionen aber "Vollgas" pathtracing wie in der Quake 2 demo wohl kaum und dafür warte ich noch zu.

Ich habe auch das dumpfe Gefühl, dass das Silizium einfach noch nicht genug hergibt, selbst ein Turing Vollausbau mit fast 800mm2 geht z.B in Control oder Metro Exodus ordentlich in die Knie, vielleicht bringt der nächste shrink noch was aber meine Hypothese ist, dass ein 7Nm die mit 700-800mm2 nötig ist um genug "Power auf die Strasse" zu bringen für richtiges "Eyecandy".

Vielleicht kriegt AMD ja ihr chiplet design auf die GPU, dann könnte man einfach 2-4 günstige chiplets nehmen anstatt ein Monster-die.

Ich warte und trinke meinen Tee solange weiter.
 
PCGH schrieb:
PCGH-Leser bleiben skeptisch
und wen wundert das jetzt ? Ist doch völlig normal, sowas darf man in einem Forum das entweder aus NV Bashern oder AMD Fans besteht einfach nicht fragen. In meinen Augen ist das keine ernstzunehmende Aussage.

Die Auswertung der Umfrage lässt eigentlich nur einen Schluss zu: RT wird sich nicht durchsetzen.
das hast du völlig richtig ausgewertet, denn die PCGH Community zum einen der Mittelpunkt der Welt und zum anderen stellt die PCGH Community die größte Kaufmannschaft ever dar. :lol:
 
Echtzeit-Raytracing halte ich persönlich für den richtigen Schritt in die Zukunft in Sachen Beleuchtung und Materialeffekten, aber nicht mit der Leistungsfähigkeit der aktuellen RTX-Hardware. Da muss noch deutlich mehr kommen. Dennoch habe ich mir vor kurzem eine RTX 2080 gekauft, allerdings wegen der reinen Leistung ohne Raytracing. Raytracing werde zwar ich sicher mal antesten, wenn ich ein Spiel in die Finger bekomme, das es unterstützt, aber wirklich nutzen werde ich es mit der Karte wohl nicht.
 
Nun AMD bringt den Ansatz RT mit den neuen Konsolen zu bringen, diese stehen für ein P/L mit einer Käuferschaft in der breiten Masse, ein gewöhnlich guter Nährboden etwas in den Markt zu bringen.

Dass RT extrem rechenintensiv ist, ist nun mal eine Tatsache, die auch AMD nicht wegzaubern kann. Wenn sie nicht eine Super-GPU aus dem Hut zaubern können, die für viel weniger Geld auf einmal eine Mega-Rechenleistung hat, dann wird Deine Erwartung wohl enttäuscht werden, fürchte ich.
 
  • Like
Reaktionen: hfb
Ach ja, kann mich nicht erinnern das auf meinen c64 gehabt zu haben!?

Auf Homecomputern gab es auf dem Amiga erstmalig Raytracing (kann mich noch gut daran erinnern, die Berechnung eines 320x200 Bildes hat mehr als einen Tag gedauert).

Auf Proficomputern schon viel länger!
 
Dass RT extrem rechenintensiv ist, ist nun mal eine Tatsache, die auch AMD nicht wegzaubern kann. Wenn sie nicht eine Super-GPU aus dem Hut zaubern können, die für viel weniger Geld auf einmal eine Mega-Rechenleistung hat, dann wird Deine Erwartung wohl enttäuscht werden, fürchte ich.
Die ganze Argumentation bezüglich Konsolen ist völlig sinnbefreit. Als ob die benötigte Rechenleistung sinkt, nur weil es ein Konsolenchip ist. Man wird des Marketings wegen ein paar maue RT Effekte integrieren, damit man groß damit werben kann, schaut her, wir können auch . . . wer RT in hoher Qualität möchte, wird nicht um einen PC und eine >1000€ Graka herumkommen, jedenfalls nicht die nächsten 4-5 Jahre.
 
Bei Gaming?
Das glaubst du aber nicht wirklich?
Eine Technologie, die sich bereits durchgesetzt hat, tendiert dazu, sich bei sinkenden Preisen automatisch weitere Anwendungen zu erschließen. RT hat sich bereits durch gesetzt, es kann nicht scheitern. Die Frage ist, wie lange es dauert, bis sich eine breite Käuferschicht RT auch im Gaming Bereich leisten kann.
 
Also daß Raytracing "scheitern" wird, hat ja auch niemand behauptet.

Es wird sich bei Gaming aber erst durchsetzen, wenn die Konsolen es unterstützen!
Was ja bald der Fall ist...
 
Also daß Raytracing "scheitern" wird, hat ja auch niemand behauptet.

Es wird sich bei Gaming aber erst durchsetzen, wenn die Konsolen es unterstützen!
Was ja bald der Fall ist...

Wenn die PC Versionen RT dann genauso nutzen wie sie auf der Konsole möglich und implementiert sein werden, dann können wir auch gleich darauf verzichten - da werden keine allzu spektakulären Effekte kommen. Wenn man das aber gut skaliert, dann kann die Konsole durchaus einen Anschub bieten.

Wobei ich sagen muss, dass ich durch NVidia's Engagement gar nicht das Gefühl habe, dass RT zu wenig unterstützt wird. Von den AAA Spielen, die mich interessieren, hat ein durchaus nennenswerter Teil heute schon RT Unterstützung. Wer mehr erwartet, hat schlicht völlig unrealistische Vorstellungen.
 
Also daß Raytracing "scheitern" wird, hat ja auch niemand behauptet.

Es wird sich bei Gaming aber erst durchsetzen, wenn die Konsolen es unterstützen!
Was ja bald der Fall ist...
Dann hatte ich das falsch verstanden, kann vorkommen. RT wird sich sich nicht mit einem Mal überall durchsetzen. Es gibt immer noch Smartphones, Tablets usw.

Das wird alles den ganz normalen gut bekannten Weg gehen:
Zu erst wird es sich bei den AAA Games für PC-Enthusiasten durch setzen, wo man auch mal >1000€ für sein Hobby hin legt.
Dann in der oberen Mittelklasse, wenn es in 4-5 Jahren die ersten Karten gibt, die das auch für 500-600€ leisten.
Danach in den Konsolen und Mittelklasse, wenn GPUs für 200-300€ das hin bekommen.
Und in 10-20 Jahren dann auch bei integrierter Grafik, jedenfalls dort, wo es Sinn macht, High-End Handys usw.

Das Gefälle wird permanent vorhanden sein: Je teurer die GPU, desto besser die RT Effekte, die lassen sich ja gut skalieren, da gibt es nach oben hin nur den Geldbeutel als Grenze.
 
Die ganze Argumentation bezüglich Konsolen ist völlig sinnbefreit. Als ob die benötigte Rechenleistung sinkt, nur weil es ein Konsolenchip ist. Man wird des Marketings wegen ein paar maue RT Effekte integrieren, damit man groß damit werben kann, schaut her, wir können auch . . . wer RT in hoher Qualität möchte, wird nicht um einen PC und eine >1000€ Graka herumkommen, jedenfalls nicht die nächsten 4-5 Jahre.
Als ob die aktuellen RT Effekte auf dem PC hohe Qualtität hätte... viel eher sind auch die PC Effekte aktuell sehr mau und eher lächerlich. Lieber noch 4-5 Jahre warten bis dann mal halbwegs gescheites RT in Spielen möglich ist und nicht nur einzelne niedrige Effekte.
 
Kommt auf die Spiele drauf an. Wer in erster Linie kompetitive Shooter spielt, der setzt auch jetzt noch meist auf 1080p und zielt auf hohe Bildraten ab. Raytracing braucht hier niemand, zumal der Effekt nicht nur horrende Rechenleistung benötigt, sondern Spiegelungen sogar ablenken. Ich spiele Rainbow Six Siege z.B. auch ohne AO, Bloom und Blendeneffekte...da man Gegner viel einfacher spotten kann.

Für WHQD und/oder UHD Nutzer, die sich mit Bildraten von 35 - 60 fps zufrieden geben, vermehrt Singleplayer und wenig kompetetives spielen, ist Raytracing eine recht schicke Angelegenheit...die natürlich ihren Preis hat.

Ich denke Raytracing wird erst in der nächsten Generation wirklich interessant, wenn die Konsolen es unterstützen und Entwickler die Spiele von Grundauf entsprechend konzipieren. Zudem ist dann auch die Rechenleistung der Grafikkarten entsprechend stärker, als die aktuelle RTX Generation.

Natürlich wird PC Hardware immer potenter sein, als die RTX Leistung einer Konsole...trotzdem wurde diese Technik bei der Entwicklung bereits grundlegend berücksichtig und das Spieldesign darauf aufgebaut. Aktuell wirkt es in den meisten Titeln eher implementiert und haut einen stellenweise auch gar nicht vom Hocker.
 
Zurück